En 2025, los ataques de ingeniería social han alcanzado un nuevo nivel de sofisticación gracias al uso de deepfakes, una tecnología que utiliza inteligencia artificial para crear contenido audiovisual hiperrealista. Estos ataques no solo son más convincentes, sino que también están afectando a empresas, gobiernos e individuos de formas sin precedentes. Desde fraudes financieros hasta campañas de desinformación, los deepfakes representan una amenaza significativa en el panorama actual de la ciberseguridad.

Ya comentamos en el artículo El ano acaba de empezar, los malos seguirán… que el usuario es el eslabón más débil en la cadena de seguridad. La ingeniería social está en ague y los deepfakes son la punta de lanza de los ciberdelincuentes. En este artículo vamos a ver qué son los deepfakes, cómo funcionan y cómo protegernos de ellos.

¿Qué son los deepfakes y cómo funcionan?

Los deepfakes son medios audiovisuales generados por inteligencia artificial que imitan rostros, voces o gestos de personas reales con un nivel de realismo casi indistinguible. Utilizan redes generativas antagónicas (GANs) para crear imágenes y audios sintéticos que se integran perfectamente en escenarios reales. Por ejemplo:

  • Deepfake de voz: puede replicar el tono y estilo de una persona con solo unos segundos de grabación.
  • Deepfake de video: penera videos donde alguien parece decir o hacer algo que nunca ocurrió.

En 2025, la tecnología detrás de los deepfakes ha avanzado tanto que incluso expertos tienen dificultades para distinguir entre contenido real y manipulado. Según informes recientes, un intento de deepfake ocurre cada cinco minutos en promedio.

Casos reales: cómo se usan los deepfakes en ataques

Vamos a ver algunos ejemplos de cómo los deepfakes se utilizan en ataques:

  • Fraudes financieros: los ciberdelincuentes utilizan deepfakes para suplantar identidades y cometer fraudes millonarios. Un ejemplo reciente es el caso de un empleado en Hong Kong que fue engañado mediante una videollamada falsa con su “jefe”, lo que resultó en la transferencia de 20 millones de dólares a cuentas controladas por criminales. Este tipo de ataque combina ingeniería social clásica con tecnología avanzada para aumentar su efectividad.

  • Suplantación ejecutiva: los atacantes crean videos o audios falsificados de ejecutivos pidiendo transferencias bancarias o acceso a datos confidenciales. Estas tácticas son particularmente efectivas porque explotan la confianza existente dentro de las organizaciones.

  • Campañas de desinformación: en el ámbito político, los deepfakes se usan para manipular la opinión pública mediante videos falsos que muestran a líderes políticos diciendo cosas que nunca dijeron. Esto puede influir en elecciones o generar tensiones geopolíticas.

  • Robo y extorsión: los atacantes también utilizan deepfakes para extorsionar a individuos o empresas, creando contenido comprometedor falso para obtener dinero o favores.

Casualmente estos casos ya se han visto diversas veces en el telediario, o conoces a alguien que te ha contado alguna historia similar. La tecnología deepfake ha llegado para quedarse y debemos estar preparados para enfrentarla.

Por qué los deepfakes son tan peligrosos

La combinación de accesibilidad y sofisticación hace que los deepfakes sean una herramienta poderosa para los atacantes:

  • Hiperpersonalización: los ciberdelincuentes analizan datos públicos (como redes sociales) para crear ataques dirigidos que sean más convincentes.
  • Multicanal: los ataques no se limitan a correos electrónicos; ahora incluyen llamadas telefónicas falsas, videollamadas y mensajes en redes sociales.
  • Dificultad para detectarlos: incluso sistemas avanzados tienen problemas para identificar deepfakes debido a su realismo.

Además, estos ataques explotan nuestra tendencia natural a confiar en las interacciones humanas, lo que aumenta su tasa de éxito. Por tanto, los deepfakes representan una amenaza significativa para la seguridad y la privacidad en un mundo cada vez más digitalizado.

Cómo protegerse contra los deepfakes

Aunque la amenaza es real, existen medidas efectivas para mitigar el riesgo:

  • Herramientas tecnológicas: empresas como Reality Defender están desarrollando sistemas basados en inteligencia artificial para detectar contenido manipulado. Estas herramientas analizan inconsistencias en patrones faciales, movimientos o iluminación.

  • Verificación manual: antes de actuar sobre solicitudes sospechosas, verifica directamente con la persona u organización involucrada utilizando un canal confiable (por ejemplo, una llamada telefónica directa).

  • Educación y concienciación: capacitar a empleados y usuarios sobre cómo identificar señales típicas de deepfakes (como parpadeo anormal o distorsión visual) es clave para reducir su impacto.

  • Regulaciones y políticas: gobiernos e instituciones están trabajando en marcos regulatorios para limitar el uso malintencionado de esta tecnología y fomentar estándares éticos en su desarrollo.

Al final, si nos fijamos en lo que tienen en común todas estas recomendaciones es la necesidad de estar informados y ser críticos con la información que recibimos. La educación y la concienciación son nuestras mejores armas contra los deepfakes, y el atacante lo sabe. Él sabe que el eslabón más débil en la cadena de seguridad es el ser humano, y por eso apunta a nuestra confianza y credulidad.

El futuro: un juego del gato y el ratón

A medida que la tecnología detrás de los deepfakes avanza, también lo hacen las herramientas diseñadas para detectarlos. Sin embargo, este es un juego constante entre atacantes y defensores:

  • Los atacantes mejoran sus métodos utilizando inteligencia artificial generativa o deep learning para crear deepfakes más realistas.
  • Las empresas desarrollan sistemas más robustos basados en aprendizaje automático y análisis forense.

La clave estará en combinar tecnología avanzada con educación y políticas sólidas para minimizar el impacto negativo de esta tecnología. Nunca podremos eliminar completamente los deepfakes, pero podemos reducir su efectividad y proteger a las personas y organizaciones contra sus consecuencias.

Conclusión

El auge de los ataques de ingeniería social con deepfakes representa uno de los mayores desafíos en ciberseguridad en 2025. Desde fraudes financieros hasta campañas masivas de desinformación, estas amenazas exigen una respuesta proactiva por parte de empresas, gobiernos e individuos.

No hay que llegar al extremo, per debemos ser conscientes de que los deepfakes son una realidad y que debemos estar preparados para enfrentarlos. Cada vez es más complicado y las tecnologiás avanzan a pasos agigantados. Si tienen la mínima sospecha de que algo no es real, no duden en verificarlo. Y en caso de que lo utilicen para extorsionarlos, no duden en denunciarlo a la policía. La ciberseguridad es responsabilidad de todos.