Ir al médico ya no empieza solo en la consulta. Cada vez más personas teclean sus síntomas, suben análisis o piden segundas opiniones a una inteligencia artificial antes incluso de pedir cita. La comodidad es enorme, presentar los datos clínicos y obtener las respuestas son inmediatas y la sensación de control engancha.
Pero ¿qué ocurre con toda esa información tan sensible que compartimos sin pensarlo dos veces? ¿Quién la guarda, quién la analiza y con qué fines reales? El auge de herramientas como ChatGPT Salud ha reabierto un debate incómodo que mezcla tecnología, salud y privacidad.
Mientras las grandes tecnológicas prometen ayuda, claridad y eficiencia, expertos en medicina, derecho y ciberseguridad alertan de un riesgo que no es menor, confiar nuestros datos clínicos a sistemas que no siempre están preparados para gestionarlos sin consecuencias.
Cuando la IA entra en tu historial médico

Más de 230 millones de personas usan ChatGPT cada semana, y una parte creciente lo hace para resolver dudas relacionadas con su salud. OpenAI ha dado un paso más con ChatGPT Salud, una función que permite subir informes médicos, resultados de análisis o datos de apps de bienestar con el objetivo, según la empresa, de ayudar a “entender mejor” la información clínica, no de diagnosticar.
El problema es que, en la práctica, la frontera es difusa. Los modelos de lenguaje no razonan como un médico ni verifican la verdad de lo que dicen, generan respuestas plausibles. Varios estudios advierten de que estos sistemas fallan en recomendaciones médicas relevantes en hasta uno de cada cinco casos. En un contexto sanitario, ese margen de error no es anecdótico, puede traducirse en malas decisiones, retrasos en acudir a urgencias o tratamientos inadecuados.
El riesgo silencioso para la privacidad de los pacientes

Más allá del contenido de las respuestas, la gran preocupación está en los datos. La información médica es una de las más sensibles que existen y, en Europa, está especialmente protegida por ley. Compartirla fuera de los sistemas sanitarios rompe las barreras de seguridad que sí existen en hospitales y centros de salud, donde hay control de accesos, trazabilidad y responsabilidades claras.
Expertos en protección de datos advierten de que, una vez el usuario introduce su historial clínico en una plataforma privada, pierde el control real sobre esa información. Aunque las empresas aseguren que no se utiliza para entrenar modelos o que está cifrada, el riesgo de brechas de seguridad es real. Ya ha ocurrido antes con bases de datos genéticas y sanitarias que acabaron expuestas tras ciberataques masivos.
A esto se suma otra incógnita incómoda, el uso comercial de los datos. Algunos especialistas señalan que esta información puede resultar especialmente valiosa para aseguradoras o terceros interesados en perfilar riesgos, ajustar precios o tomar decisiones automatizadas. El usuario, muchas veces, no es plenamente consciente del alcance de lo que está cediendo.
Errores, sesgos y una confianza mal entendida

La inteligencia artificial generativa no solo puede equivocarse, también puede hacerlo con convicción. Sus respuestas suelen sonar seguras, bien redactadas y tranquilizadoras, lo que aumenta el riesgo de que el usuario confíe más de la cuenta. En salud, esa confianza puede ser peligrosa, sobre todo cuando hablamos de síntomas complejos, enfermedades raras o problemas de salud mental.
Investigaciones recientes del MIT han demostrado que algunos modelos entrenados con historiales médicos pueden “memorizar” datos de pacientes concretos, incluso cuando han sido anonimizados. Esto significa que, bajo ciertas condiciones, podrían llegar a filtrar información privada. Los pacientes con enfermedades poco comunes son especialmente vulnerables, ya que resulta más fácil identificarlos.
La mayoría de expertos coincide en que la IA puede ser una gran aliada en la sanidad, pero dentro de límites claros, como apoyo a los profesionales, no como sustituto ni como confidente clínico. Sistemas que ayuden a reducir burocracia, interpretar resultados o priorizar casos pueden mejorar la atención. El problema aparece cuando se normaliza delegar decisiones médicas y datos personales en plataformas que no están sometidas a las mismas exigencias que el sistema sanitario.
La tecnología avanza rápido y la tentación de usarla para todo es enorme. Pero cuando se trata de nuestra salud, quizá convenga frenar un segundo y preguntarse si la comodidad inmediata compensa el riesgo a largo plazo.







