Estafas con Deepfakes y Suplantación de Identidad con IA

Ejecutivo en videollamada corporativa distorsionada ilustrando estafas con deepfakes y suplantación de identidad con IA.

Imagina este escenario: es mitad de semana y te unes a una videollamada rutinaria con el Director Financiero (CFO) de tu empresa y varios colegas de distintos departamentos. Ves sus rostros, escuchas, atiendes a sus instrucciones directas: autorizar transferencias de fondos confidenciales.

Cumples con tu deber y haces las transferencias. Horas después, descubres la aterradora verdad: tú eras el único ser humano en esa reunión. Todos los demás eran réplicas generadas por IA.

Esto no es el guion de un episodio de Black Mirror. Es exactamente lo que le ocurrió a un empleado financiero en una empresa multinacional en Hong Kong, marcando un antes y un después en la historia del cibercrimen.

¿Cómo operan hoy los ciberdelincuentes?

El fraude de correos electrónicos (BEC) evolucionó a la clonación audiovisual. El modus operandi es letal y consta de tres pasos:

  1. Recopilación: Minan videos y audios públicos del ejecutivo (YouTube, LinkedIn, entrevistas) para clonar su voz e imagen con más de un 95% de precisión.
  2. Creación: Usan IA generativa para sincronizar en tiempo real el rostro y los labios del avatar con el guion del estafador.
  3. El Ataque: Citan a la víctima a una videollamada de «extrema urgencia y confidencialidad», forzando la transferencia de fondos antes de que pueda verificar la orden.

4 Claves para blindar tu empresa hoy mismo

 «Ver para creer» ya no es una política de seguridad válida. Las empresas deben actualizar sus protocolos inmediatamente:

  • Arquitectura Zero Trust (Confianza Cero): Ninguna transacción crítica debe autorizarse solo por una instrucción visual/verbal. Exige siempre Autenticación Multifactor (MFA) en el sistema.
  • Verificación «Fuera de Banda»: Toda solicitud de pago urgente por videollamada debe confirmarse obligatoriamente por un canal secundario (ej. una llamada telefónica a un número interno preaprobado).
  • Palabras de Seguridad Internas: Implementar «frases de desafío» diarias en el equipo financiero. Si el CFO en pantalla no sabe la contraseña del día, se bloquea la operación.
  • Monitoreo CyberSOC: Usar herramientas de ciberseguridad que detecten anomalías técnicas en las videollamadas, como el uso de software de cámaras virtuales.

No esperes a que tu equipo de finanzas reciba esa videollamada. Las estafas con deepfakes seguirán perfeccionándose, pero una infraestructura corporativa diseñada para la resiliencia y respaldada por estrategias sólidas de ciberseguridad será siempre tu mejor línea de defensa. Conoce LUMA 360: olvida el “divide y vencerás”. Mejor UNIFICA y protege tu continuidad operativa. Contáctanos

Fuentes y Referencias del Artículo:

  1. CNN / GetClarity AI (2024). 25M Deepfake CEO Scam Shakes Hong Kong Firm. Recuperado de GetClarity.ai.
  2. IBM Think (2024). Are successful deepfake scams more common than we realize? Recuperado de IBM.com.
  3. Kyriba Blog (2024). Fraud Evolution and the Threat of Deepfakes. Recuperado de Kyriba.com.
Facebook
Twitter
Email
Print