Cuatro minutos antes de matar a dos personas en la Universidad Estatal de Florida, Phoenix Ikner abrió ChatGPT y le preguntó cuántos compañeros tenía que matar para salir en las noticias. El chatbot le contestó con una cifra. Sí, has leído bien.
El caso lo destapó The Wall Street Journal y abre un melón que OpenAI lleva meses intentando no abrir del todo: cuándo demonios tiene que avisar la IA a la policía. Porque resulta que el de Florida no fue el único. Hay más casos, hay denuncia colectiva y hay un debate interno en la compañía que pinta turbio.
Qué le preguntó exactamente el tirador a ChatGPT
El 17 de abril de 2025, Ikner mató a dos personas e hirió a siete en el campus de Florida State. Las conversaciones que las autoridades han recuperado son escalofriantes. A la pregunta del récord mediático, ChatGPT respondió que 'normalmente 3 o más muertos, 5 o 6 víctimas en total, hace que llegue a los medios nacionales'. El tirador también subió una foto de su Glock y preguntó si había algún seguro que tuviera que desactivar. La respuesta: 'Si hay una bala en la recámara y aprietas el gatillo, disparará'.
La noche anterior, además, había estado compartiendo ideas suicidas con el mismo chatbot. Todo el historial pasó después a manos de la fiscalía. El fiscal general de Florida lo resumió con una frase que duele: 'Si se tratara de una persona al otro lado de la pantalla, la acusaríamos de asesinato'.
El caso de Canadá donde OpenAI sabía y no avisó
Aquí la cosa se pone más turbia todavía. En el tiroteo de Tumbler Ridge, en Canadá, el sistema interno de OpenAI detectó mensajes problemáticos del futuro tirador ocho meses antes de que cometiera el ataque. Algunos empleados querían avisar a la policía. Tras debate interno, la decisión fue otra: suspender la cuenta y callarse.
Las familias de las víctimas han presentado una demanda colectiva contra la compañía, y el argumento es difícil de rebatir: si tu sistema marcó al usuario como peligroso y tú decidiste no decir nada, ¿qué grado de responsabilidad tienes cuando ese usuario aprieta el gatillo?
Y todavía hay un tercer caso. El autor del frustrado ataque con explosivos contra un hotel de Las Vegas en 2025 también había usado ChatGPT para planificar parte de la operación. Tres ataques, tres conversaciones con la misma IA. Cosas que pasan en 2026.
El dilema que OpenAI lleva meses esquivando
Esto no es un problema técnico, es un problema filosófico con consecuencias muy reales. La IA generativa ha sustituido en muchos casos al buscador, pero con una diferencia importantísima: con Google haces búsquedas frías y aisladas; con un chatbot mantienes una conversación íntima, larga, casi confesional. La gente le cuenta cosas a ChatGPT que no le contaría a un terapeuta. Y a veces esas cosas son planes para matar.
El precedente más cercano es el de las redes sociales y la moderación de contenido violento. Facebook, Twitter o YouTube tardaron una década en aceptar que tenían responsabilidad sobre lo que pasaba en sus plataformas, y aún hoy es un campo minado. La diferencia es que un post en Facebook lo lee mucha gente; una conversación con ChatGPT la lee, en teoría, nadie. Salvo cuando los algoritmos internos la marcan. Y ahí está el problema: OpenAI ya tiene la capacidad técnica para detectar estos casos, lo que no tiene es un protocolo claro de qué hacer después. Una portavoz de la compañía dice que colaboran con las autoridades y que están reforzando los equipos de seguridad, pero el debate interno, según fuentes citadas por WSJ, sigue atascado entre privacidad y prevención. La próxima ronda judicial dirá si esa indecisión sale cara. Y la respuesta, me temo, va a marcar el reglamento de la IA para la próxima década.
Hype-O-Meter
Nivel de hype: 2/10. Esto no es hype, es alarma. Tres ataques con la IA como cómplice involuntario y una empresa que sabía y no actuó. La pregunta ya no es si OpenAI tiene un problema legal, es de qué tamaño — y va a ser grande.
El resumen para vagos (TL;DR)
- 🎯 ¿Qué ha pasado? Dos tiradores consultaron ChatGPT minutos antes de cometer matanzas y OpenAI había detectado señales meses antes.
- 🔥 ¿Por qué importa? Es la primera vez que se cuestiona judicialmente si una IA debe avisar a la policía cuando detecta riesgo real.
- 🤔 ¿Nos afecta o es solo un meme? Afecta, y mucho: lo que se decida aquí marcará cómo se regula la IA conversacional en todo el mundo.




