Si tienes una grabación de tu voz en Internet, bórrala inmediatamente

Date:

El periódico The Washington Post publica una minuciosa investigación en la que asegura que en 2022, solo en Estados Unidos, 36.000 personas denunciaron haber sido estafadas con grabaciones falsas de voz de sus familiares mediante inteligencia artificial, llegando a pagar 11 millones de dólares.

La inteligencia artificial ha avanzado tanto en el último año, que es capaz de mantener charlas en lenguaje natural con ChatGPT, o crear dibujos o fotos con solo unas palabras. Pero la IA es solo una herramienta, y puede usarse para hacer el bien… o el mal.

El Washington Post cita en su investigación un nuevo tipo de estafa llamado voice scam, que suplanta la voz de un familiar para hacer creer a la víctima que está en peligro. En 2022 se registraron 36.000 denuncias solo en Estados Unidos, por esta estafa. Las 5.000 víctimas que pagaron, sumaron 11 millones de dólares.

¿Cómo funciona el voice scam?

Este nuevo tipo de estafa se aprovecha de la capacidad de la inteligencia artificial más avanzada para clonar la voz de una persona con solo 3 segundos de audio grabado. Aunque en la mayoría de los casos se requiere un poco más de audio, alrededor de medio minuto.

Los ciberdelincuentes obtienen el audio de vídeos de youtube, vídeos en foros, Facebook o Instagram, grabaciones de diferentes tipos que mucha gente sube a Internet. También usan llamadas telefónicas falsas para hacer que la víctima hable unas frases.

Utilizando una IA, son capaces de clonar la voz, es decir, pueden pronunciar cualquier frase con cualquier tono, con la misma voz que la víctima.

ChatGPT

A continuación buscan en las redes sociales de esa persona, o hackean su correo, para localizar a sus padres o, mejor aún, abuelos. El Washington Post indica que la mayoría de los estafados son personas mayores.

Usando la voz falsa creada por la inteligencia artificial, hacen una llamada telefónica a su padre, madre o abuelos, diciendo, entre gritos y sollozos, que están en una situación de emergencia. Desde que han sido secuestrados, hasta que han tenido un accidente. La IA puede crear frases en tiempo real, convirtiendo texto en voz según cómo transcurra la conversación.

La persona que recibe la llamada se queda en shock, porque reconoce la voz de su familiar, y se bloquea. Esa voz pide dinero para evitar el secuestro, o para poder pagar daños de un accidente, un billete de avión para volver a casa, etc. Muchas víctimas, en shock por el realismo de la voz, acaban pagando.

El Washington Post cita el caso real de un matrimonio que pagó 15.000 dólares en un terminal de Bitcoin, porque creían que su hijo había sido secuestrado por una banda callejera.

Cómo luchar contra el voice scam

Por desgracia, es muy complicado combatir esta nueva estafa. En la mayoría de los casos los ciberdelincuentes ni siquiera están en el país, son extranjeros que no se pueden rastrear.

La policía afirma que la única defensa es informar a la gente, que sepa que esta estafa existe, para no caer en ella. Pedir a la “voz” que de pruebas de que es él no suele funcionar, porque enseguida responde que la están haciendo daño, o se pone a llorar.

En estos casos, mientras se mantiene la llamada, hay que intentar llamar por otro móvil al familiar al que están suplantando, para ver si es verdad.

La inteligencia artificial nos va a dar muchas alegrías, pero también nuevos tipos de estafas y engaños, como el voice scam, o la suplantación de voz por IA. La información, y el sacar a a luz cómo funcionan estos engaños, es la mejor defensa.

Share post:

Subscribe

spot_imgspot_img
spot_imgspot_img

Populares

Otras Noticias
Related