En un mundo donde todo está conectado, los ciberataques ya no son obra de hackers solitarios encerrados en un sótano. Hoy, los delincuentes digitales cuentan con un nuevo y poderoso aliado: la inteligencia artificial (IA). Y con él, los ataques han evolucionado a una velocidad y complejidad nunca antes vista.
Este artículo explora cómo la IA ha transformado el panorama de la ciberseguridad, los riesgos que plantea y por qué, aunque no es la “culpable” directa, sí es el catalizador principal de una nueva era de amenazas digitales.
La nueva cara del cibercrimen: ataques potenciados por IA
La IA ya no es ciencia ficción: está integrada en buscadores, asistentes virtuales, diagnósticos médicos y… también en herramientas de ataque. Informes recientes como el Tendencias de ciberdelincuencia 2025 revelan que el 94% de las organizaciones ha notado un aumento de ataques vinculados a IA, y la gran mayoría espera que esta tendencia se mantenga.
Solo en 2024, los ataques web crecieron un 33% impulsados por herramientas automáticas de análisis y explotación de vulnerabilidades en APIs. Estos datos no dejan lugar a dudas: la IA ha pasado de ser una promesa tecnológica a una amenaza concreta cuando cae en las manos equivocadas.
¿Cómo usan la IA los ciberdelincuentes?
Los delincuentes digitales han aprendido a utilizar la IA para optimizar prácticamente todos los aspectos de un ataque. Uno de los usos más extendidos es la automatización del phishing, donde algoritmos generativos crean mensajes personalizados y extremadamente realistas que engañan incluso a usuarios experimentados.
También se ha incrementado la creación de deepfakes, con videos y audios falsificados que se emplean para campañas de extorsión, manipulación o fraude. Y de estos temas ya hemos hablado en artículos anteriores, como El auge de los ataques de ingeniería social con Deepfakes.
Y esto irá a peor con las últimas tecnologías capaces de generar contenidos cada vez más realistas. Por ejemplo, Google Veo 3 es un modelo de IA que crea vídeos a partir de texto, con una calidad sin precedentes. Antes, generar un vídeo convincente requería conocimientos técnicos avanzados; ahora, basta con escribir una frase y adjuntar un ejemplo visual para producir un contenido casi indistinguible de la realidad.
La IA también permite el desarrollo de malware adaptativo, que cambia su comportamiento en tiempo real según el entorno para evadir las defensas. Paralelamente, sistemas basados en aprendizaje automático pueden escanear miles de objetivos en minutos, encontrar vulnerabilidades y lanzar ataques sin necesidad de intervención humana.
Por si fuera poco, los atacantes combinan cada vez más técnicas multicanal: ciberespacio, ingeniería social y manipulación de información para maximizar el impacto y dificultar la atribución.
Curiosamente, los atacantes no solo actúan en el entorno digital: también han rescatado tácticas del mundo físico. Como vimos en el artículo Seguridad para no informáticos: estafas en papel, algunos fraudes han vuelto a emplear métodos tradicionales, como cartas impresas. Antes, por ejemplo, las entidades bancarias enviaban la tarjeta de crédito por correo postal y, en una carta separada, el PIN. Incluso existía un proceso de activación telefónica. Aunque la tecnología ha cambiado, las tácticas de engaño siguen evolucionando con la misma lógica básica: atacar puntos débiles, ya sean humanos o técnicos.
IA ofensiva: por qué ahora los ataques son más peligrosos
El verdadero peligro de la IA en ciberseguridad no radica solo en la cantidad de ataques, sino en su calidad, precisión y eficiencia. Gracias a la automatización, es posible lanzar campañas masivas con rapidez y casi sin esfuerzo, como por ejemplo escanear miles de sistemas a la vez y generar exploits personalizados al instante.
Los algoritmos pueden analizar datos personales y patrones de comportamiento para personalizar ataques de phishing, lo que eleva la tasa de éxito de manera alarmante.
Otro factor crítico es el acceso generalizado a estas herramientas. Hoy en día, cualquier persona con intenciones maliciosas puede aprovechar plataformas de IA generativa para crear ataques complejos, incluso sin conocimientos técnicos avanzados.
Y lo más preocupante: estos sistemas no son estáticos. Aprenden de los intentos fallidos y adaptan sus técnicas para evadir nuevas barreras defensivas. Es decir, la IA ofensiva evoluciona más rápido que muchos sistemas de seguridad actuales.
¿Y la defensa? La IA también lucha del lado bueno
Afortunadamente, la inteligencia artificial no solo es usada por los atacantes. Las organizaciones también han comenzado a integrar IA en sus sistemas de defensa.
Por ejemplo, pueden analizar grandes volúmenes de datos en tiempo real para detectar patrones inusuales que podrían indicar un ataque en curso, identificando y neutralizando amenazas antes de que causen daño significativo.
Además, la IA defensiva permite anticiparse a los movimientos del malware, detectar código malicioso oculto y automatizar la respuesta ante incidentes, reduciendo el tiempo de reacción y el impacto del ataque.
También es una herramienta clave para la supervisión continua de infraestructuras críticas, algo imprescindible en un mundo hiperconectado. Sin embargo, la capacidad ofensiva basada en IA avanza más rápido que la defensiva, y eso genera una brecha peligrosa: solo 1 de cada 4 profesionales se siente preparado para identificar y detener amenazas alimentadas por IA, según el informe citado al inicio.
Riesgos emergentes y desafíos pendientes
La integración masiva de IA ha ampliado la superficie de ataque. Cualquier sistema conectado —desde una simple API hasta la cadena de proveedores— puede ser explotado. Y muchas organizaciones aún no tienen mecanismos eficaces para proteger todos esos puntos.
A esto se suma una regulación que no va al mismo ritmo. La falta de marcos normativos claros sobre el uso de IA generativa dificulta la atribución de ataques, impide establecer responsabilidades claras y retrasa las respuestas legales.
También surgen desafíos relacionados con la privacidad: la IA puede manejar datos sensibles a gran escala y combinarlos de formas no previstas, exponiendo información sin autorización o supervisión.
Si esta tecnología se manipula o se entrena malintencionadamente, puede convertirse en una vulnerabilidad crítica desde dentro.
Conclusión: ¿culpable o catalizadora?
La inteligencia artificial no tiene voluntad ni intención propia, pero su poder está siendo aprovechado cada vez más por quienes sí tienen intenciones maliciosas. No es correcto señalarla como la “culpable” de los ciberataques, pero sí es justo afirmar que se ha convertido en el catalizador más potente para su evolución reciente.
Negar su papel sería irresponsable, pero también lo sería rechazar sus beneficios. En esta nueva era, el desafío no está en eliminar la IA, sino en entenderla, regularla y utilizarla también para defendernos. La batalla ya no es solo entre hackers y empresas, sino entre IA ofensiva e IA defensiva.
Y en esa batalla, la preparación, la innovación y la educación serán nuestras mejores armas.
¿Te preocupa tu seguridad digital? Lee también nuestros artículos sobre Seguridad para no-informáticos: contraseñas seguras y cómo Prepara tu seguridad para 2025.
Foto de GuerrillaBuzz en Unsplash