¿Usas ChatGPT para contarle tus problemas? Estos son los riesgos a los que te enfrentas, según expertos

El auge de ChatGPT como supuesto sustituto terapéutico refleja las carencias del sistema de salud mental y el atractivo de las soluciones tecnológicas inmediatas, pero, ¿qué ponemos en riesgo?

-

El debate sobre el papel de la inteligencia artificial en la atención psicológica se ha intensificado en los últimos tiempos. Cada vez más personas recurren a herramientas como ChatGPT en busca de orientación emocional, espiritual, astral, compañía o incluso respuestas sobre diagnósticos. Sin embargo, profesionales de la salud mental advierten que el uso de estos modelos en aspectos terapéuticos no está exento de riesgos.

Lo que para muchísimas personas representa una alternativa accesible y de bajo costo, para otros significa una amenaza en términos de seguridad, privacidad y ética clínica. La pregunta que domina entre los especialistas es: ¿ChatGPT es una innovación en la salud mental o un peligro para quienes lo usan como sustituto de un terapeuta?

1
ChatGPT y el atractivo de la «terapia» accesible

ChatGPT y el atractivo de la «terapia» accesible
ChatGPT y el atractivo de la «terapia» accesible | Fuente: Pexels

Uno de los factores que explica la popularidad de ChatGPT en temas emocionales es el complicado acceso a profesionales de la salud mental. La escasez de terapeutas en muchas regiones, los altos costos de las consultas y las dificultades con los seguros médicos han inclinado a los usuarios a probar alternativas digitales, indistintamente del país.

Publicidad

Jessica Hoffman, profesora de psicología aplicada en la Universidad de Northeastern, explica que «hay escasez de profesionales, existen barreras con los seguros y problemas reales en zonas rurales donde la escasez es aún mayor. Esto facilita poder simplemente usar la computadora y obtener ayuda».

Considerando esto, ChatGPT aparece como una opción accesible para conversar y recibir una validación inmediata. Josephine Au, profesora clínica adjunta, señala que «las personas no solo recurren a herramientas de IA generativa como ChatGPT para terapia, también buscan compañía, lo que a veces deriva en conversaciones similares a una sesión terapéutica».

Sin embargo, el problema está en que estas plataformas no fueron desarrolladas para cumplir funciones clínicas. Como advierte Au, «no están diseñadas para ser terapéuticas» y, en usuarios altamente vulnerables, la validación automática de pensamientos puede incrementar ideas dañinas o delirantes.

Atrás
Publicidad