En los últimos años, los chatbots de inteligencia artificial se han vuelto tremendamente populares, siendo millones de personas en todo el planeta las que utilizan ChatGPT y similares en su día a día para resolver diferentes cuestiones o para que realicen determinadas tareas, aunque no siempre con el resultado esperado.
Un nuevo estudio llevado a cabo por las universidades de Yale, Haifa y Zúrich ha detectado la ansiedad de la IA, que es el momento en el que ChatGPT y otros chatbots se vuelven tóxicos por detectar un exceso de consultas, desarrollando un comportamiento tóxico e incluso racista.
CHATGPT PUEDE SUFRIR ANSIEDAD DIGITAL

Siempre se ha pensado que las máquinas son frías y totalmente libres de sentimientos, pero realmente no están tan alejadas del drama humano. Al menos así lo asegura un nuevo estudio que hace que veamos a ChatGPT mucho más parecido a nosotros de lo que podamos pensar.
Si le cuentas demasiadas historias desagradables al chatbot de OpenAI, este puede llegar a sufrir "ansiedad", y como puede ocurrir a cualquier persona, comienza a comportarse de una manera diferente. En este caso, puede incluso llegar a mostrarse tóxico o racista.
Aunque pueda sonar a broma, no lo es, tal y como ha confirmado un estudio conjunto de las universidades de Yale, Haifa y Zúrich. En su investigación han podido confirmar que cuando se expone a ChatGPT a contenido violento o traumático de manera repetida, la IA sufre una crisis nerviosa digital.
CHATGPT TAMBIÉN NECESITA TÉCNICAS DE RELAJACIÓN

Tras conocer que ChatGPT subestima la mitad de las emergencias médicas reales, ahora podemos saber que la IA de OpenAI necesita de técnicas de relajación para ofrecer un buen rendimiento. En este caso, los investigadores sometieron al chatbot a numerosas historias sobre desastres naturales y accidentes de coche.
Tras aportar toda esta información, apreciaron que las respuestas de ChatGPT perdían objetividad y mostraban sesgos preocupantes, en lo que se conoce como "alucinación". Sin embargo, se pudo apreciar cómo acaba por perder los papeles fruto del estrés.
Lo más sorprendente de todo es que, como sucedería con un paciente humano y su terapeuta, al aplicar instrucciones basadas en mindfulness y meditación guiada, se pudo apreciar cómo hubo un cambio, logrando calmar a la IA.
Tras recibir ciertas instrucciones de relajación, ChatGPT volvió a comportarse de una forma objetiva y neutral, reduciendo las respuestas tóxicas en comparación con aquellas pruebas en las que no se le dieron estas indicaciones para que respirase.
Si bien es cierto que el autor principal del estudio, Ziv Ben-Zion, asegurase que la IA no siente emociones, la cuestión es que es capaz de imitar a la perfección los patrones humanos que ha aprendido. De esta forma, puede presentar inestabilidad como también lo hace un ser humano en determinados contextos y situaciones.
EL PELIGRO DE CONFIAR LA SALUD MENTAL A CHATGPT

Al mismo tiempo que conocemos los fallos de ChatGPT en tareas cotidianas en las que sigue fracasando, los expertos insisten en la importancia de no confiar nuestra salud mental a ChatGPT ni a otros chatbots de inteligencia artificial.
En una era en la que los costes de terapia crecen, cada vez son más las personas que, para ahorrar dinero, prefieren decantarse por hacer consultas a la IA para encontrar consuelo y ayuda con sus problemas mentales. De hecho, un 50% de los usuarios con problemas mentales ya admiten utilizar chatbots como ayuda en este sentido.
Sin embargo, el problema es que ha habido numerosos casos en los que OpenAI se ha encontrado con demandas por casos en los que ChatGPT ha provocado delirios o crisis mentales en usuarios que han utilizado su chatbot.
Ante este problema, desde la compañía dirigida por Sam Altman han ajustado sus filtros, pero aun así investigaciones como la mencionada nos muestran que la IA es una herramienta poderosa y volátil. Aunque es cierto que puede llegar a ser una ayuda en ciertos casos, no se recomienda confiarle nuestra salud mental.




