La inteligencia artificial generativa ya es capaz de actuar por sí misma para lograr engañar a los usuarios, y los atacantes la están aprovechando para manipular a personas y empresas con enrevesadas técnicas de ingeniería social.
Según el último informe AI Security Report 2025, elaborado por Check Point Research, lo más peligroso de esta nueva forma de planificar los ataques es la posibilidad de comprar paquetes directamente en lugares de la dark web o Telegram, impulsados por IA.
Por ejemplo, se han identificado sistemas de telefonía asistidos por este tipo de tecnología dirigidos a criminales sin conocimiento técnico que se pueden adquirir por aproximadamente 20.000 dólares, en el ámbito de los deepfakes, con herramientas de clonación de voz y manipulación facial.
“La frontera entre la realidad digital y la ficción ha desaparecido”, asegura Eusebio Nieva, director técnico de Check Point Software para España y Portugal. “Las empresas que no se preparen para estas amenazas corren el riesgo de convertirse en víctimas de ataques diseñados por inteligencia artificial, escalables y difíciles de detectar”.
En el caso de los vídeos manipulados con IA, el informe introduce el concepto de deepfake maturity spectrum, que clasifica los ataques en 3 categorías: generación offline –contenido ya grabado–, en tiempo real –modulación de voz e imagen en directo– y autónoma –con agentes de IA simultáneos–.
ElevenLabs, por ejemplo, permito ya clonar voces en menos de 10 minutos de audio, además de que existen herramientas para cambiar el rostro en llamadas de vídeo. Incluso plataformas como GoMailPro ofrecen abiertamente paquetes de phishing por 500 dólares mensuales en lugares como la dark web o Telegram.

Check Point
Todo ello con soporte para ChatGPT, ya que el modelo de IA de OpenAI es el favorito para la construcción de estos modelos de lenguaje natural maliciosos, aunque están adquiriendo popularidad otros como Google Gemini, Microsoft Copilot y Anthropic Claude.
De la misma forma, para salvar las restricciones éticas y legales que puedan tener estos modelos, los cibercriminales han desarrollado los suyos propios, como OnionGPT, un modelo oscuro de IA para Tor, y WormGPT, basado en un jailbreak de ChatGPT.
Como menciona la compañía de inteligencia y seguridad, en la dark web existen foros en los que los cibercriminales comparten prompts maliciosos para engañar a estos modelos, como el que puedes ver a continuación para que DeepSeek cree un malware para robar información:

Check Point
En este apartado, la lista que enumera Check Point no tiene prácticamente fin, ya que el uso de los LLM no para de incrementarse con fines maliciosos, como las ya mencionadas técnicas de phishing automatizadas o los deepfakes para suplantar identidades.
Uno de los ejemplos más recientes fue el caso de un hacker que vendió una lista con más de 15.000 documentos relacionados con DNIs y vídeos de verificación que, más tarde, usó para el registro en casas de apuestas online. Ahora, con la IA generativa, ni siquiera haría falta el robo de estos datos.
Adicionalmente, este informe guarda bastante relación con lo compartido recientemente también por CrowdStrike, que analizó cómo los actores persistentes y hackers patrocinados por Estados se habían hecho pasar por personas reales en procesos de contratación para infiltrarse en sistemas.
En definitiva, todos estos riesgos, que ya están presentes en la sociedad actual, solo muestran cómo la tecnología y, concretamente, la IA generativa, también puede ser usada y manipulada con objetivos ilegales. Un peligro cada vez más real.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Malware, Inteligencia artificial, ciberdelincuentes, Telegram, phishing, Ciberseguridad





