La nueva estafa digital: deepfakes en tiempo real que ya afectan a ejecutivos, empleados y ciudadanos

Los ciberdelincuentes han perfeccionado una técnica que permite suplantar rostros y voces en directo durante videollamadas. Empresas de todo el mundo registran pérdidas millonarias por esta modalidad de fraude. La capacidad de los sistemas de seguridad para detectar estas manipulaciones sigue siendo limitada.

Los deepfakes en tiempo real se han convertido en la herramienta preferida de las redes de estafadores digitales que operan a escala global. Esta tecnología permite manipular rostros y voces durante videollamadas activas, creando suplantaciones de identidad prácticamente indetectables para el ojo humano.

Las cifras de fraude asociadas a esta técnica superaron los 650 millones de dólares en 2024. Los criminales combinan inteligencia artificial con software de cambio facial para engañar tanto a particulares como a responsables de grandes corporaciones.

Cómo funcionan las estafas con suplantación facial

La técnica se basa en algoritmos de aprendizaje profundo que mapean los rasgos faciales de una persona real sobre el rostro de un estafador. Durante una videollamada, el software procesa cada fotograma en milisegundos, ajustando expresiones y movimientos para mantener la sincronización perfecta. Los delincuentes utilizan miles de imágenes previas de sus víctimas, obtenidas de redes sociales o bases de datos filtradas, para entrenar estos sistemas.

Publicidad
YouTube video

El proceso requiere hardware potente capaz de generar vídeo a 40 fotogramas por segundo con resoluciones de 512 píxeles. La latencia es mínima, lo que permite conversaciones fluidas sin despertar sospechas. Algunos grupos criminales han perfeccionado estas herramientas desde 2022, mejorando constantemente la calidad de las manipulaciones y compartiendo tácticas entre diferentes células.

Los sistemas más avanzados integran además clonación de voz mediante inteligencia artificial. Bastan unos segundos de audio original para generar réplicas que imitan entonación, acento y patrones de habla. Esta combinación de imagen y sonido falsificados resulta extremadamente convincente incluso para personas familiarizadas con la víctima suplantada.

Ejecutivos y empleados en el punto de mira

✓ Suplantación de directivos para autorizar transferencias bancarias urgentes

✓ Videollamadas falsas de departamentos de recursos humanos solicitando datos personales

✓ Imitación de proveedores habituales reclamando pagos a cuentas alternativas

✓ Falsas reuniones con inversores para obtener información deepfake corporativa sensible

Los sistemas de seguridad muestran vulnerabilidades

Las plataformas de verificación biométrica enfrentan dificultades para detectar estas manipulaciones en tiempo real. Aproximadamente uno de cada veinte sistemas de reconocimiento facial falla ante deepfakes de alta calidad, según análisis de firmas especializadas en ciberseguridad. Esta tasa de error resulta preocupante considerando el volumen de transacciones que dependen de esta tecnología.

Publicidad
YouTube video

Los expertos señalan que la detección requiere análisis de microexpresiones, inconsistencias en el parpadeo y artefactos digitales casi imperceptibles. Sin embargo, los algoritmos de generación avanzan más rápido que los de detección. Las redes generativas adversativas empleadas por los estafadores se entrenan específicamente para superar los filtros de seguridad más comunes.

YouTube implementó recientemente herramientas para que los creadores identifiquen vídeos que usan su imagen sin autorización. La plataforma permite iniciar denuncias cuando se detecta suplantación facial o vocal, aunque la tecnología sigue en fase beta y solo está disponible para creadores ejecutivos seleccionados del programa de socios.

Casos documentados con pérdidas millonarias

Una transmisión falsa del consejero delegado de Nvidia durante una conferencia oficial engañó a más de 100.000 espectadores en 2025. El deepfake promocionaba una estafa de criptomonedas prometiendo duplicar los activos enviados. El vídeo fraudulento superó en audiencia al evento auténtico, posicionándose por encima del canal oficial en los resultados de búsqueda.

Profesores universitarios que monitorean estas actividades delictivas han documentado grupos que operan como híbridos entre crimen organizado y desorganizado. Carecen de estructuras jerárquicas claras pero demuestran notable capacidad de adaptación. Sus actividades abarcan estafas románticas, ataques de correo empresarial comprometido, fraudes con criptomonedas y phishing avanzado.

La investigación revela que algunos colectivos criminales utilizan deepfakes desde mayo de 2022, perfeccionando métodos y herramientas continuamente. Los vídeos analizados muestran calidad profesional en dinámicas faciales y movimientos de cabeza, logrando representaciones que resultan indistinguibles de grabaciones auténticas para observadores no especializados.

Medidas de protección ante la amenaza creciente

Las empresas implementan protocolos de verificación en múltiples pasos para transacciones sensibles. Establecer palabras clave secretas previamente acordadas, confirmar solicitudes urgentes mediante canales alternativos y desconfiar de peticiones que rompan procedimientos habituales constituyen barreras básicas. La formación del personal para reconocer señales de alerta resulta fundamental frente a esta amenaza.

Los sistemas de biometría evolucionan incorporando análisis de comportamiento además del reconocimiento facial. Evaluar patrones de escritura, movimientos del ratón y tiempos de respuesta añade capas de seguridad difíciles de replicar. Algunas organizaciones exigen confirmación presencial para operaciones que superen ciertos umbrales económicos, eliminando así el vector de ataque digital.

La comunidad de ciberseguridad advierte que esta modalidad de fraude seguirá expandiéndose conforme las herramientas de inteligencia artificial generativa se vuelvan más accesibles. La capacidad de crear deepfakes convincentes ya no requiere conocimientos técnicos avanzados ni equipamiento especializado. Aplicaciones comerciales ofrecen funcionalidades que hace apenas dos años solo estaban al alcance de expertos en aprendizaje automático.

Publicidad