Si hablamos de inteligencia artificial, el chatbot ChatGPT es una de las primeras cosas que nos viene a la cabeza, nada extraño si tenemos en cuenta que fue la solución que democratizó el acceso a esta tecnología. Aunque nos ofrece muchas posibilidades y beneficios, también alberga oscuros secretos, como en el de la "asesina de ChatGPT".
No hablamos de una persona que haya querido acabar con este servicio, sino de una mujer que ha sido acusada de dos crímenes utilizando la IA de OpenAI. Las autoridades aseguran que el primer intento de asesinato de la sospechosa a través de un uso indebido de drogas tuvo lugar en el pasado mes de diciembre.
CHATGPT Y SUS USOS ILÍCITOS

Después de que Elon Musk advirtiese del uso de ChatGPT tras varios incidentes con adolescentes, nos seguimos encontrando con casos en los que el chatbot de OpenAI se está utilizando con fines ilícitos, que incluso atentan contra la vida de las personas.
El chatbot más popular del mundo, con más de 800 millones de usuarios activos a la semana, responde cada día a miles de millones de consultas de todo tipo, algunas de ellas totalmente inofensivas y simples, hasta otras mucho más complejas e incluso peligrosas.
ChatGPT ofrece tantas posibilidades que para las nuevas generaciones se ha convertido incluso en un psicólogo privado o un "amigo" al que acudir en cualquier momento del día, los 7 días de la semana. También hay quienes lo usan como médico, lo que ha llevado a OpenAI a desarrollar ChatGPT Salud.
A pesar de que la herramienta trata de evitar dar información acerca de temas controvertidos o que puedan provocar daños, es una máquina y, como tal, sus sistemas de seguridad no son infalibles. Si una persona utiliza ChatGPT con cierta maña, puede llegar a convertirla en un arma muy peligrosa.
Un claro ejemplo lo encontramos en Corea del Sur, donde una mujer ha sido acusada de matar a varios hombres utilizando ChatGPT, pues le ayudó a planificar asesinatos.
UNA MUJER SURCOREANA USA CHATGPT PARA ASESINAR

Mientras ChatGPT está bajo vigilancia por los usos más peligrosos que se le pueden dar a la IA en materia de ciberdelincuencia, ahora también lo está por cómo puede ayudar a los criminales a cometer asesinatos.
En este caso, nos encontramos con una mujer surcoreana de 21 años que ha sido acusada del asesinato de dos hombres. Durante la investigación, se pudo descubrir que había preguntado en reiteradas ocasiones a ChatGPT acerca de los peligros de mezclar drogas con alcohol.
La policía de Seúl mencionó, tras analizar el smartphone de la presunta asesina, identificada solo por su apellido Kim, que esta había hecho unas preguntas al chatbot de OpenAI posiblemente relacionadas con los crímenes.
Entre ellas se encontraban cuestiones acerca de lo que sucedía si se tomaban pastillas para dormir junto a alcohol, cuántas se necesitarían tomar para que fuese peligroso e incluso si esta mezcla podía acabar con la vida de una persona.
En su declaración ante las autoridades, Kim explicó que había mezclado sedantes recetados que contenían benzodiazepinas en las bebidas, pero que desconocía que pudiese provocar la muerte de los hombres.
A pesar de ello, un investigador confirmó que ella era totalmente consciente de que el consumo de alcohol junto con drogas podría resultar en la muerte, tal y como se pudo demostrar a través de su historial de ChatGPT.
DOS VÍCTIMAS POR PARTE DE LA 'ASESINA DE CHATGPT'

La mujer fue arrestada el 11 de febrero acusada de infligir lesiones corporales con resultado de muerte, después de que dos hombres falleciesen y otro quedase inconsciente tras acudir a un motel con Kim.
La policía cree que el primero de los ataques que resultaron en muerte de la detenida se produjo el 28 de enero, cuando entró en un motel en Suyu-dong, Gangbuk-gu, con un hombre de unos 20 años. Ella abandonó el motel apenas dos horas más tarde sola, mientras que el hombre fue encontrado muerto en el interior de la habitación al día siguiente.
Con el mismo modus operandi, supuestamente acabó con la vida de otro joven de 20 años de edad el 9 de febrero, también en un motel de Gangbuk-gu, aunque no era el mismo de la primera ocasión en la que se encontró una víctima.
Estos son las dos víctimas de la "asesina de ChatGPT" que, sin embargo, según las autoridades, habría tratado de asesinar a un hombre a través de un uso indebido de drogas en diciembre del pasado año 2025, cuando le dio una bebida mezclada con sedantes a la que era su pareja en aquel momento.
Los hechos tuvieron lugar en el estacionamiento de un café en Namyangju (Gyeonggi), pero en ese caso no acabó con la vida del hombre, que sufrió una pérdida de conocimiento. Actualmente, la policía continúa con sus pesquisas tratando de encontrar otras posibles víctimas.



