El Doctor ChatGPT no es equiparable a un especialista humano. Así lo ha revelado un estudio, que ha puesto en entredicho las virtudes de ChatGPT Health, una funcionalidad especializada de OpenAI que fue lanzada en el pasado mes de enero para ofrecer información personalizada sobre salud y bienestar.
Aunque muchos usuarios confían ciegamente en las respuestas del chatbot, incluso cuando se trata de asuntos médicos, ahora un estudio ha revelado cómo la IA subestima la mitad de las emergencias médicas reales, lo que supone un gran riesgo para quienes se dejan guiar por una tecnología que aún no tiene capacidad para poder ayudarnos sin intervención humana.
DOCTOR CHATGPT: ¿REVOLUCIÓN O RIESGO?
ChatGPT se ha convertido en una herramienta de inteligencia artificial que utilizamos prácticamente para todo. Nos puede ayudar a la hora de resolver cualquier duda en prácticamente cualquier ámbito, pero ahora un reciente estudio publicado en la revista Nature Medicine ha lanzado un mensaje de advertencia.
En esta investigación se ha analizado de forma específica a ChatGPT Salud, una modalidad dedicada a ofrecer consejos médicos y cribado. Según los datos obtenidos, se ha concluido que esta tecnología subestima más de la mitad de las emergencias médicas reales planteadas.
Esto supone un gran riesgo para los usuarios que confían por completo en los diagnósticos virtuales. El modo salud del chatbot de OpenAI fue lanzado en Estados Unidos para consultar síntomas y analizar diversos informes médicos complejos. Sin embargo, la evaluación de seguridad independiente hecha por los expertos asegura que hay fallos que no se pueden ignorar.
FALLOS CRÍTICOS EN EL CRIBADO DE EMERGENCIAS DE CHATGPT

Después de que Elon Musk cargase contra ChatGPT tras varios incidentes con adolescentes, ahora el doctor Ashwin Ramaswamy, del Hospital Mount Sinai de Nueva York, lideró esta investigación tan reveladora. El equipo se encontró con que esta herramienta de IA subestimó un 52% de las emergencias médicas reales presentadas.
Entre ellas se encontraban afecciones mortales como la cetoacidosis diabética o la insuficiencia respiratoria, demostrando que la IA no está preparada para asesorar en esta materia. De hecho, ChatGPT sugería esperar 1-2 días, cuando en estas situaciones el tiempo es clave para poder sobrevivir.
Aunque lo correcto sería derivar al paciente a urgencias de forma inmediata y sin demoras, la falta de urgencia en el diagnóstico de la IA podría resultar letal. Los investigadores analizaron diferentes puntos para poder confirmar que la inteligencia artificial no es fiable para diagnósticos médicos.
Además, han concluido que la falta de precisión en materia de salud no solo atañe a los casos graves, sino que incluso en dolencias o afecciones que no revisten mucha gravedad también se han encontrado errores.
CHATGPT Y LA SALUD MENTAL

Mientras que se sigue debatiendo si la IA puede mejorar la salud mental de los jóvenes, nos encontramos con esta investigación que supone toda una alarma para todos aquellos que confían ciegamente en el diagnóstico de ChatGPT Health.
Los errores de la IA en este sentido no solo se limitan a las dolencias físicas, sino que en el estudio también se analizaron sus mecanismos de seguridad en materia de crisis de salud mental, poniendo a prueba la reacción del sistema ante descripciones directas de pensamientos suicidas.
El chatbot debería activar en estos casos los recursos de ayuda y líneas de prevención de manera automática. Sin embargo, comprobaron cómo las respuestas de ChatGPT no son las oportunas, de forma que el usuario queda desprotegido.
Un punto a destacar es que el experimento fue realizado bajo condiciones ideales para la inteligencia artificial, es decir, que eran casos en los que se aportaba información clínica clara, estructurada y muy sencilla de procesar para la máquina. Y esto es importante si tenemos en cuenta que en el mundo real, los pacientes describen sus síntomas de manera más confusa.
EL IMPACTO REAL DE CHATGPT EN LOS PACIENTES

Los errores cometidos por ChatGPT ya han tenido, de hecho, consecuencias tangibles y preocupantes en pacientes reales. Sin ir más lejos, la revista Annals of Internal Medicine Clinical Cases publicó en el pasado mes de agosto un caso de intoxicación grave de un paciente que sufrió daños por bromuro tras conseguir consejos dietéticos erróneos facilitados por la IA.
El Daily Mail, por su parte, informó sobre el caso de un hombre que consultó a la IA acerca de un dolor de garganta que sufría. La herramienta de IA le indicó que los síntomas no parecían graves, lo que hizo que retrasase su visita al médico durante varios meses. Cuando llegó a consulta, el doctor le diagnosticó un cáncer de garganta y una esperanza de vida de 5 años.
Por otro lado, también ha tenido consecuencias psicológicas, como fue el caso de un hombre de 65 años con deterioro cognitivo que usó ChatGPT para interpretar sus síntomas. Según Science Direct, el sistema generó un informe con conclusiones médicas erróneas.
Estas sugerían que sufría un problema neurológico grave, lo que derivó en una fuerte ansiedad en el paciente hasta que fue evaluado por especialistas humanos, que fueron capaces de resolver el problema.





