El AISI británico ha publicado lo que muchos temían: GPT-5.5 puede ejecutar ciberataques sin que nadie le lleve la mano. Y lo hace al nivel de Claude Mythos, que hasta ahora era la referencia incómoda en este pequeño concurso de quién asusta más.
Para quien acabe de aterrizar: el AI Safety Institute (AISI) es el organismo del Reino Unido que evalúa modelos de IA antes y después de su salida al mercado. No vende humo, no firma comunicados de prensa optimistas y, sobre todo, no le debe nada a OpenAI. Por eso cuando publica algo así conviene leerlo dos veces.
Qué ha encontrado exactamente el AISI
Según el informe que ha desglosado Hipertextual, GPT-5.5 ha demostrado capacidad para ejecutar de forma autónoma cadenas completas de ataque: reconocimiento, explotación de vulnerabilidades, movimiento lateral y exfiltración. No es que ayude a un humano a hackear; es que el modelo, con el prompt adecuado y herramientas conectadas, lo hace solo.
El detalle gordo: las capacidades son comparables a las de Claude Mythos, el modelo de Anthropic que ya levantó alarmas hace meses. Es decir, OpenAI no ha sacado un producto raro y aislado; ha alcanzado a su rival más vigilado en el peor de los benchmarks posibles. Hay web oficial del AISI con metodología pública para quien quiera bucear.
El AISI puntúa en escenarios de capture the flag (los retos clásicos de ciberseguridad donde hay que romper algo para conseguir una bandera) y en simulaciones de intrusión más realistas. GPT-5.5 resuelve niveles que hace un año exigían un equipo humano con experiencia. Y los resuelve rápido.
Por qué esto no es solo otro titular alarmista
A ver, llevamos dos años leyendo que cada modelo nuevo es 'el más peligroso jamás creado'. Eso desgasta. Pero aquí hay una diferencia importante: la evaluación no la firma la propia empresa, la firma un regulador independiente. Cuando OpenAI dice que su modelo es seguro, vale, lo apuntamos. Cuando lo dice el AISI con métricas públicas, la conversación cambia.
Lo que más inquieta no es que GPT-5.5 pueda hackear, es la curva. Hace dos años, los modelos fallaban en retos de nivel principiante. Hace uno, llegaban a intermedio con ayuda. Ahora ejecutan sin asistencia tareas que están en el rango de un pentester profesional. La progresión es la noticia, no el dato puntual.
El antecedente está en Claude Mythos. Cuando Anthropic publicó sus tarjetas de seguridad y reconoció capacidades ofensivas, hubo un debate corto y un par de titulares. Después, silencio. La industria sigue. Ahora OpenAI llega al mismo punto y la pregunta es la misma de siempre: ¿quién decide cuándo un modelo es demasiado peligroso para desplegarlo en producción? Porque las dos compañías lo despliegan igual, con sus filtros, sus refuerzos y sus términos de uso. El siguiente hito es la revisión conjunta entre AISI y su homólogo estadounidense, prevista para verano de 2026. Ahí veremos si los reguladores empiezan a coordinarse o cada uno publica su informe por separado mientras los modelos siguen escalando.
Lo que esto cambia en la práctica
Para una empresa media: nada inmediato. GPT-5.5 sigue accesible vía API con sus restricciones, y OpenAI ha anunciado capas extra de monitorización. Para el ecosistema de ciberseguridad: bastante. Los equipos de red team ya están integrando estos modelos en sus pipelines, y los de blue team tienen que asumir que el atacante medio del año que viene no será un humano cansado a las tres de la mañana, será un agente que no se cansa nunca.
El mensaje es claro: paga.
Es decir: paga por defensas serias, paga por auditorías, paga por gente que entienda lo que está pasando. La era del antivirus de 30 euros se acabó hace tiempo, pero ahora se acaba del todo.
Hype-O-Meter
Nivel de hype: 8/10. No es hype del bueno, es del que da un poco de yuyu. La capacidad técnica está confirmada por un regulador serio y la curva de progresión es la que asusta — el techo todavía no se ve.
El resumen para vagos (TL;DR)
- 🎯 ¿Qué ha pasado? El AISI británico confirma que GPT-5.5 ejecuta ciberataques de forma autónoma, al nivel de Claude Mythos.
- 🔥 ¿Por qué importa? No lo dice OpenAI, lo dice un regulador independiente con métricas públicas.
- 🤔 ¿Nos afecta o es solo un meme? Si tienes infra expuesta, sí. Si no, prepárate igual: el atacante medio del año que viene no duerme.



