El truco de la contraseña entre amigos y familiares, la única táctica que podría salvarte de las estafas

Existen muchas herramientas de inteligencia artificial capaces de clonar cualquier tipo de voz sin que suene chirriante o mecánica, de forma que el tono sea natural, cercano e, incluso, parezca que tiene sentimientos.

Con el perfeccionamiento de este tipo de aplicaciones, se ha vuelto extremadamente complejo diferenciar si esa persona que llama al otro lado del teléfono es realmente quien dice ser o, por el contrario, se trata del comienzo de una estafa elaborada.

El engaño puede comenzar perfectamente con una llamada de un número desconocido que se hace pasar por una empresa legítima, así como por una cuenta robada en WhatsApp que parece ser real, aunque detrás simplemente hay un estafador o un chatbot con IA.

Los estafadores emplean la IA para usar datos antiguos robados, advierten los expertos

Según algunos de los últimos datos disponibles, todo el conjunto de estafas que utilizan IA han crecido hasta un 148% durante los primeros meses de 2025, en comparación con el mismo período del año anterior.

Mayormente por varios factores que hacen de la IA una herramienta perfecta para el engaño: la democratización de las herramientas, la facilidad de uso y el coste económico asequible de las aplicaciones.

Por ello, si quieres evitar este tipo de estafas, lo mejor es que configures una contraseña con familiares y amigos. Aunque aquí tampoco vale todo.

Los consejos del FBI para que la IA no te engañe

A finales del año pasado, el FBI publicó un comunicado para advertir a los consumidores y usuarios sobre el crecimiento de las estafas y el fraude financiero gracias a la utilización de herramientas de IA generativa.

Hay varios métodos que pueden utilizar, como la generación de texto automático sin errores gramaticales, así como la creación de imágenes para falsificar fotos de perfil de redes sociales, documentación oficial de identificación y otros recursos de apoyo.

Aunque algunos de los peores métodos son la generación de voces relacionadas con personajes públicos o, directamente, relaciones personales en caso de que los cibercriminales conozcan el nombre de familiares o amigos, algo no muy complicado mediante una simple búsqueda en redes sociales.

El primer consejo del FBI, prácticamente obligatorio para no caer en este tipo de fraudes, es el de la creación de una palabra o frase secreta con familiares para verificar su identidad. El procedimiento es el mismo que el de una contraseña para redes sociales o servicios en internet.

Para ello, lo recomendable es no usar algo habitual en vuestro entorno, como apellidos, identificadores que os relacionen, nombres de mascotas, lugares de nacimiento o fechas de cumpleaños y otros eventos.

Además de este paso obligatorio, no conviene apuntar la palabra o frase secreta en ningún lugar, y recordarla para usarla siempre que se dude de una llamada, así como cambiar la misma cada cierto tiempo, por ejemplo, cada 6 meses para que sea más seguro el proceso.

Si ya tenéis vuestra contraseña para familiares y amigos, el primer paso para blindarse ante las estafas con IA, el FBI también ofrece otro tipo de pasos a seguir para protegerte a ti y a tus seres queridos:

  • Busca cualquier tipo de imperfección en imágenes y vídeos. Pueden ser partes del cuerpo distorsionadas, boca y ojos poco realistas, accesorios como gayas y joyas deformados, alguna marca de agua o coincidencia entre la voz y la boca en caso de que sea un vídeo.
  • Revisa el tono y la forma de hablar. A pesar de que la clonación de voz se ha perfeccionado, habrá algunas expresiones que puedan hacerte dudar.
  • Limita el contenido de tu imagen y voz en internet. Puede que esto sea más complicado si tienes redes sociales o eres un profesional de la comunicación, aunque siempre es aconsejable limitar la cantidad de información que ofreces, así será más complicado usar software de IA generativa para suplantar tu identidad.
  • Verifica la identidad de la persona que llama. Si dudas, lo mejor es colgar el teléfono y, directamente, buscar en la web oficial del servicio en cuestión el número de atención al cliente y llamar.

Además de estas líneas generales para no caer en estafas con IA, siempre hay que seguir la máxima de no ofrecer datos sensibles, como números bancarios, así como tampoco enviar ninguna cantidad de dinero a personas que solo conozca mediante medios telefónicos o digitales.

Conoce cómo trabajamos en ComputerHoy.

Etiquetas: Inteligencia artificial, Estafa, Ciberseguridad

¿Tú qué opinas? Cuéntalo aquí:

Hot this week

La UE le ‘Baja Línea’ a Rusia: ¡Sanciones Cripto a otro nivel!

¡Klk, mi gente! La Unión Europea ha metido un...

La Vega celebra a sus ‘tígueres’ de la excelencia académica: ¡una vaina bacana!

La Vega, esa provincia que siempre se ha fajado...

¡Se ‘armó un bochinche’! Comunicador suelta una ‘bofetada’ en el Palacio de Justicia

Un ambiente de pura tensión se vivió este lunes...

¡Qué ‘Vaina’! La Prensa ‘Bloqueada’ en la Casa Rosada y la Iglesia Pide Diálogo

¡Qué 'vaina' más complicada se ha armado en Argentina!...

La ‘Vaina’ Minera en San Juan: GoldQuest anuncia estudios listos este año

¡Klk, mi gente! La situación en San Juan de...

Temas

spot_img

Related Articles

Categorias Populares

spot_imgspot_img