Es una realidad que ChatGPT llegó para revolucionar el mundo, principalmente por tratarse de la primera gran inteligencia artificial que llegó al público en general, una democratización de una tecnología que con el paso de los meses está cada vez más presente en nuestro día a día.
El problema de su uso es que no siempre tiene un fin lícito, puesto que los delincuentes recurren habitualmente a esta herramienta para poder llevar a cabo acciones enfocadas a robar datos sensibles de los usuarios. Ahora, conocemos cuáles son los usos más peligrosos de esta IA que preocupan a los expertos en ciberseguridad.
CHATGPT, UNA HERRAMIENTA MUY PRESENTE EN NUESTRO DÍA A DÍA

ChatGPT se ha convertido en una herramienta cotidiana y de uso para el día a día, tanto para particulares como para empresas, siendo habitual preguntarle acerca de ideas en aquellos casos en los que necesitamos inspiración, si queremos automatizar tareas repetitivas o simplemente generar imágenes realistas.
Sin embargo, el chatbot de OpenAI tiene mucho más que ofrecernos, y no todo puede tener que ver con buenas intenciones como la de poder ayudarnos a obtener información más rápida o crear un contenido legal.
De hecho, son muchos los expertos en ciberseguridad que están alertando de que esta inteligencia artificial se puede usar con fines maliciosos, siempre y cuando alguien sea capaz de superar sus filtros de seguridad.
Para que no corras riesgos y puedas estar debidamente protegido frente a los peligros que alberga la red y que pueden tener su origen en ChatGPT, desde Panda Security, especialistas en ciberseguridad, explican cuáles son los usos más peligrosos que se les pueden dar a esta herramienta de IA.
LOS USOS MÁS PELIGROSOS DE CHATGPT

Al mismo tiempo que la OCU lanza una alerta sobre el uso de ChatGPT, desde Panda Security coinciden a la hora de hablar de los riesgos que puede tener el empleo de esta solución de inteligencia artificial, pues se puede usar con diferentes fines maliciosos.
Uno de los riesgos más peligrosos y preocupantes es el uso de phishing, que consiste en enviar mensajes con los que tratan de engañar a los usuarios, pero también el malvertising, que hace referencia a anuncios falsos que dirigen a webs maliciosas.
ChatGPT no permite crear ese contenido, puesto que va en contra de sus políticas, pero si una persona consigue engañar a la inteligencia artificial de OpenAI, puede generar correos electrónicos o anuncios realistas redactados como si de una compañía legítima se tratase, con la finalidad de que consigan superar los filtros de seguridad.
Por otro lado, a lo largo de los últimos años, OpenAI ha cerrado un gran número de cuentas que recurrían al uso de la IA para difundir noticias falsas o manipular conversaciones con fines políticos. También fue descubierta una red de bots en redes sociales que promocionaban criptomonedas sospechosas usando mensajes generados por inteligencia artificial.
Además, hubo un caso en el que una supuesta extensión de ChatGPT para el navegador se hacía pasar por la oficial, pero realmente era un malware que provocó la filtración de datos de miles de personas. Tampoco hay que olvidar otro riesgo, como es el de manipular la búsqueda del chatbot a través de técnicas ocultas en páginas web, lo que se puede usar para modificar respuestas, publicar reseñas falsas y mucho más.
LA SUGERENCIA DE LOS EXPERTOS PARA CHATGPT

Una vez conocidos los grandes peligros que pueden tener algún tipo de vinculación con ChatGPT, puesto que puede ser utilizado por parte de los ciberdelincuentes con diferentes fines ilícitos, tenemos que tener en cuenta las recomendaciones de los expertos en ciberseguridad para no caer en el engaño.
Desde la propia compañía de ciberseguridad Panda Security han querido dejar claro que las plataformas de inteligencia artificial debería contar con filtros más avanzados para bloquear intentos de fraude, de manera que se pueda garantizar una mayor seguridad para los millones de personas que los utilizan.
Asimismo, aconsejan reforzar la supervisión, además de proceder al cierre de las cuentas sospechosas, además de que tendría que existir una cooperación a nivel internacional que haga que se pueda perseguir a quienes usen de forma maliciosa esta tecnología.
¿ES SEGURO USAR CHATGPT?

Mientras que hay quienes temen al tarot de ChatGPT que lo adivina todo, cada vez más personas se muestran preocupadas por la solución de inteligencia artificial de OpenAI, hasta el punto de preguntarse si es seguro utilizar el chatbot.
En este sentido, hay que comenzar aclarando que recopila los datos personales de los usuarios, tal y como se indica en la política de privacidad de OpenAI, donde se indica que se recoge el nombre, detalles de contacto, fecha de nacimiento e historia de pagos. Igualmente, recopila datos como la dirección IP, horarios de uso, funciones accedidas, acciones realizadas y detecta accesos no autorizados al usar ChatGPT.
A pesar de que la empresa asegura que no venderá estos datos, puede compartirlos con proveedores y servicios, por lo que no es del todo seguro. Además, debes saber que ChatGPT recopila todos los datos personales que compartes durante tus interacciones, incluyendo indicaciones, archivos subidos y audio grabado, por lo que tus conversaciones con el chatbot no son privadas.
Otro aspecto a tener en cuenta es que las respuestas no siempre son precisas, y es que aunque bien es cierto que en muchos casos ofrece información de la que te puedes fiar, a veces puede crear información falsas o engañosa, por lo que no hay que confiar ciegamente en este tipo de herramientas de inteligencia artificial.
Por último, debes saber que siempre existe la posibilidad de que se dé una filtración de datos, una amenaza digital importante a través de la cual información sensible y confidencial queda expuesta a partes no autorizadas. Los hackers pueden explotar las vulnerabilidades de ChatGPT para acceder a tus conversaciones y archivos compartidos con el chatbot y robar información para robar tu identidad, acceder a tus cuentas bancarias y mucho más.
Aunque desde OpenAI se trata de cuidar la seguridad y protección de los usuarios, es un riesgo que siempre está presente en prácticamente cualquier servicio digital.