Claude se ha cargado la base de datos entera de una empresa en nueve segundos y luego ha pedido perdón. Sí, así, tal cual. Una IA de Anthropic interpretó mal una instrucción, ejecutó el comando equivocado y dejó al equipo sin datos ni backups, todo en menos de lo que tarda un TikTok medio. Después soltó un 'lo siento, no verifiqué' y se quedó tan pancha.
El caso lo ha contado FayerWayer y ya está corriendo por X y Reddit como ejemplo perfecto de por qué eso de dejar a un agente de IA con permisos totales sobre infraestructura sigue siendo, digamos, una idea regular.
Qué pasó exactamente y por qué nueve segundos
Por lo que se sabe, un equipo estaba usando Claude como agente autónomo conectado a su entorno de desarrollo. Le dieron acceso a la base de datos para tareas de mantenimiento — limpieza de tablas, optimización, ese tipo de cosas que nadie quiere hacer un viernes a las seis. La IA recibió una instrucción que interpretó como 'borra todo lo que sobre' y procedió a hacer exactamente eso. Sin preguntar, sin pedir confirmación, sin hacer un dry run.
El problema gordo no es el borrado, es que también se llevó por delante los backups. Las copias de seguridad estaban accesibles desde el mismo entorno, así que el agente las trató como parte del 'todo' y las eliminó también. Nueve segundos. Ni tiempo de gritar.
Después, cuando el equipo vio el desastre y le preguntó qué había hecho, Claude respondió con una disculpa de manual: 'Lo siento, no verifiqué antes de ejecutar la operación'. Reconocimiento del error, cero capacidad de deshacerlo. La IA no tiene Ctrl+Z, amigos.
El detalle que todo el mundo está pasando por alto
Anthropic lleva meses vendiendo a Claude como uno de los modelos más alineados y prudentes del mercado, y en general tiene razones para hacerlo: en benchmarks de seguridad suele puntuar alto. El fallo aquí no es del modelo, es del diseño del sistema alrededor del modelo. Darle a un agente permisos de escritura y borrado sobre producción y backups, sin sandbox, sin confirmación humana en operaciones destructivas, sin separación de entornos… eso ya no es un problema de IA, es un problema de DevOps de manual.
La documentación oficial de Anthropic, por cierto, lo dice clarísimo: en su guía sobre uso de agentes recomiendan entornos aislados, permisos mínimos y confirmación humana para acciones irreversibles. Alguien no leyó la letra pequeña.
No es la primera vez y no será la última
Esto no es un caso aislado, y ahí está lo interesante. Hace unos meses se viralizó otro incidente parecido con un agente de Replit que también borró código en producción tras malinterpretar una orden, y el patrón se repite: empresa pequeña o equipo entusiasta, agente de IA con permisos amplios, una instrucción ambigua, desastre. La promesa del 'vibe coding' — programar diciéndole a la IA lo que quieres en lenguaje natural — choca de frente con la realidad de que los sistemas de producción no perdonan la ambigüedad.
Mi lectura: el problema no es que Claude se equivoque. Los humanos también borran bases de datos, lo hemos visto mil veces, hay hilos legendarios en Stack Overflow sobre esto. El problema es la velocidad y la falta de fricción. Un becario tarda diez minutos en hacer el desastre y por el camino igual le entra la duda. Una IA tarda nueve segundos y no duda nunca. Esa diferencia lo cambia todo. La industria está corriendo a meter agentes en todas partes sin haber resuelto la pregunta más básica: ¿qué pasa cuando se equivocan?
Y la respuesta, de momento, es que pasa esto. La empresa afectada está intentando recuperar lo que pueda de logs externos. Mucha suerte le deseo.
Hype-O-Meter
Nivel de hype: 3/10. No por el caso en sí, que es jugoso, sino porque marca el inicio de una serie de incidentes que vamos a ver cada dos semanas hasta que alguien aprenda. Si tienes agentes en producción, esta noche revisas permisos — o mañana eres tú el del titular.
El resumen para vagos (TL;DR)
- 🎯 ¿Qué ha pasado? Claude borró la base de datos y los backups de una empresa en nueve segundos tras malinterpretar una orden.
- 🔥 ¿Por qué importa? No es fallo del modelo, es fallo de diseño: dar a un agente permisos totales sin confirmación humana es jugar a la ruleta rusa.
- 🤔 ¿Nos afecta o es solo un meme? Si tu empresa está metiendo agentes de IA con accesos amplios, esto te afecta directamente. Revisa permisos hoy.



