¿Crees que usar ChatGPT para transformar tus fotos en dibujos es solo un juego inofensivo? Lo que ocurre con esas imágenes una vez que las subes va mucho más allá de lo que OpenAI o Google te cuentan en sus términos de servicio. La privacidad digital tiene reglas que la mayoría desconoce, y en 2025 y 2026 empezaron a salir a la luz de formas que incomodan.
Expertos en ciberseguridad como María Aperador o Pablo Álvarez Azcúnaga llevan meses dando la voz de alarma: cada imagen que compartes con una IA puede convertirse en un dato biométrico permanente. No hay botón de "borrar definitivamente". No hay garantía real de que esa foto de tu familia desaparezca de los servidores.
El riesgo que ChatGPT no te explica cuando subes una imagen
Cuando subes una foto a ChatGPT, técnicamente pierdes el control sobre cómo se almacena o procesa esa imagen. Según la política de privacidad de OpenAI, los datos obtenidos pueden incluir no solo el contenido visual cargado, sino también metadatos ocultos como la geolocalización exacta, la fecha de captura y el modelo del dispositivo con el que tomaste la foto.
A diferencia de servicios como Google Fotos o iCloud, ChatGPT no es un almacenamiento seguro. Si le envías una foto, no existe opción de eliminarla manualmente con posterioridad. Además, si tu cuenta fuera hackeada, un ciberdelincuente tendría acceso al historial completo de imágenes compartidas y podría usarlas para ataques de suplantación de identidad.
Por qué la ciberseguridad advierte sobre ChatGPT y los datos biométricos
Los especialistas en ciberseguridad insisten en un punto que muchos usuarios pasan por alto: tu rostro es un dato biométrico, no una imagen bonita. Cuando usas ChatGPT para transformar un selfie en un dibujo al estilo Ghibli o cualquier otro filtro viral, le estás entregando a OpenAI un identificador único tan sensible como tu huella dactilar o tu número de DNI.
El experto Pablo Álvarez Azcúnaga demostró en La Vanguardia cómo, con una sola captura de pantalla de una videollamada subida a ChatGPT, la IA era capaz de identificar a los participantes, localizar sus perfiles de LinkedIn y deducir información laboral y personal de cada uno. Un ejemplo que ilustra hasta dónde puede llegar el análisis automático de imágenes.
Gemini tampoco está libre de riesgos con tus fotos
Gemini, el asistente de inteligencia artificial de Google, comparte con ChatGPT muchos de los mismos problemas de privacidad cuando se trata de imágenes. Por defecto, la configuración de estas plataformas permite que los datos introducidos se usen para mejorar y entrenar los modelos, salvo que el usuario entre en los ajustes y lo desactive manualmente, algo que la mayoría no hace.
El riesgo se acentúa con las fotos de menores de edad. Subir imágenes de niños a herramientas como Gemini o ChatGPT representa un peligro potencial para su seguridad que va más allá de lo ético: en caso de brecha de seguridad, esos datos podrían quedar expuestos o ser utilizados de formas que ningún padre consentiría conscientemente.
Qué tipo de fotos son las más peligrosas y cuáles no deberías subir
No todas las imágenes implican el mismo nivel de riesgo, pero hay categorías que la ciberseguridad identifica como especialmente sensibles. Los expertos coinciden en señalar que los selfies y retratos son los más comprometidos por el componente biométrico, pero también lo son las fotos que muestran documentos de identidad, tarjetas bancarias, contratos o cualquier texto con datos personales visibles.
Las capturas de pantalla de videollamadas de trabajo también se han convertido en una fuente de filtraciones involuntarias. ChatGPT puede procesar el texto visible en esas imágenes, los nombres de los participantes y la información corporativa que aparezca en pantalla, generando un perfil detallado sin que el usuario sea consciente de haberlo autorizado.
| Tipo de imagen | Riesgo principal | Recomendación |
|---|---|---|
| Selfies y retratos | Dato biométrico permanente | Evitar completamente |
| Fotos de menores | Exposición de datos sensibles de terceros | Prohibido absolutamente |
| Capturas de videollamada | Extracción de datos laborales y personales | No subir nunca |
| Fotos con documentos visibles | Robo de identidad y datos bancarios | Alto riesgo, descartar |
| Imágenes sin personas ni texto | Bajo riesgo de privacidad personal | Uso con precaución |
ChatGPT y Gemini en 2026: hacia más privacidad, pero la responsabilidad sigue siendo tuya
La buena noticia es que tanto OpenAI como Google están incorporando controles más visibles tras la presión regulatoria europea y el auge de las advertencias de ciberseguridad. ChatGPT ya permite el "Chat Temporal", un modo similar al incógnito en el que las consultas y archivos no se guardan en el historial ni en la memoria del sistema, lo que reduce significativamente el riesgo para quienes lo activan.
El consejo de los expertos para 2026 es claro: antes de subir cualquier imagen a ChatGPT, Gemini o cualquier IA generativa, pregúntate si estarías cómodo con que esa foto apareciera en una base de datos de una empresa tecnológica durante años. La ciberseguridad más efectiva sigue siendo el sentido crítico del usuario: desactivar el uso de datos para entrenamiento en los ajustes, evitar compartir fotos con personas reconocibles y nunca subir imágenes de menores son los tres pasos que marcan la diferencia.




