Existen muchas herramientas de inteligencia artificial capaces de clonar cualquier tipo de voz sin que suene chirriante o mecánica, de forma que el tono sea natural, cercano e, incluso, parezca que tiene sentimientos.
Con el perfeccionamiento de este tipo de aplicaciones, se ha vuelto extremadamente complejo diferenciar si esa persona que llama al otro lado del teléfono es realmente quien dice ser o, por el contrario, se trata del comienzo de una estafa elaborada.
El engaño puede comenzar perfectamente con una llamada de un número desconocido que se hace pasar por una empresa legítima, así como por una cuenta robada en WhatsApp que parece ser real, aunque detrás simplemente hay un estafador o un chatbot con IA.
Según algunos de los últimos datos disponibles, todo el conjunto de estafas que utilizan IA han crecido hasta un 148% durante los primeros meses de 2025, en comparación con el mismo período del año anterior.
Mayormente por varios factores que hacen de la IA una herramienta perfecta para el engaño: la democratización de las herramientas, la facilidad de uso y el coste económico asequible de las aplicaciones.
Por ello, si quieres evitar este tipo de estafas, lo mejor es que configures una contraseña con familiares y amigos. Aunque aquí tampoco vale todo.
Los consejos del FBI para que la IA no te engañe
A finales del año pasado, el FBI publicó un comunicado para advertir a los consumidores y usuarios sobre el crecimiento de las estafas y el fraude financiero gracias a la utilización de herramientas de IA generativa.
Hay varios métodos que pueden utilizar, como la generación de texto automático sin errores gramaticales, así como la creación de imágenes para falsificar fotos de perfil de redes sociales, documentación oficial de identificación y otros recursos de apoyo.
Aunque algunos de los peores métodos son la generación de voces relacionadas con personajes públicos o, directamente, relaciones personales en caso de que los cibercriminales conozcan el nombre de familiares o amigos, algo no muy complicado mediante una simple búsqueda en redes sociales.
El primer consejo del FBI, prácticamente obligatorio para no caer en este tipo de fraudes, es el de la creación de una palabra o frase secreta con familiares para verificar su identidad. El procedimiento es el mismo que el de una contraseña para redes sociales o servicios en internet.
Para ello, lo recomendable es no usar algo habitual en vuestro entorno, como apellidos, identificadores que os relacionen, nombres de mascotas, lugares de nacimiento o fechas de cumpleaños y otros eventos.
Además de este paso obligatorio, no conviene apuntar la palabra o frase secreta en ningún lugar, y recordarla para usarla siempre que se dude de una llamada, así como cambiar la misma cada cierto tiempo, por ejemplo, cada 6 meses para que sea más seguro el proceso.
Si ya tenéis vuestra contraseña para familiares y amigos, el primer paso para blindarse ante las estafas con IA, el FBI también ofrece otro tipo de pasos a seguir para protegerte a ti y a tus seres queridos:
- Busca cualquier tipo de imperfección en imágenes y vídeos. Pueden ser partes del cuerpo distorsionadas, boca y ojos poco realistas, accesorios como gayas y joyas deformados, alguna marca de agua o coincidencia entre la voz y la boca en caso de que sea un vídeo.
- Revisa el tono y la forma de hablar. A pesar de que la clonación de voz se ha perfeccionado, habrá algunas expresiones que puedan hacerte dudar.
- Limita el contenido de tu imagen y voz en internet. Puede que esto sea más complicado si tienes redes sociales o eres un profesional de la comunicación, aunque siempre es aconsejable limitar la cantidad de información que ofreces, así será más complicado usar software de IA generativa para suplantar tu identidad.
- Verifica la identidad de la persona que llama. Si dudas, lo mejor es colgar el teléfono y, directamente, buscar en la web oficial del servicio en cuestión el número de atención al cliente y llamar.
Además de estas líneas generales para no caer en estafas con IA, siempre hay que seguir la máxima de no ofrecer datos sensibles, como números bancarios, así como tampoco enviar ninguna cantidad de dinero a personas que solo conozca mediante medios telefónicos o digitales.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial, Estafa, Ciberseguridad
Ingeniero de Sistemas especializado en Inteligencia Artificial y Automatización de Procesos. Con una trayectoria enfocada en la convergencia entre tecnología de vanguardia y comunicación digital, Ramón lidera la implementación de modelos generativos aplicados al periodismo dominicano. Su trabajo garantiza que la información que llega a la diáspora no solo mantenga nuestra identidad “del patio”, sino que cumpla con los más altos estándares de veracidad y optimización técnica de la web moderna (2026).





