Estafa con inteligencia artificial a padres de familia: No era su hija, era un robot haciéndose pasar por ella

Date:

La Era de la Estafa con Inteligencia Artificial.

En la era digital de hoy, el aumento de las amenazas cibernéticas ha generado preocupación tanto para individuos como para organizaciones. La inteligencia artificial, con su capacidad de aprendizaje y adaptación, está desempeñando un papel cada vez más prominente en este panorama. Si bien proporciona herramientas avanzadas para proteger datos y sistemas, también se está utilizando para perpetrar estafas cada vez más elaboradas y convincentes, desafiando las medidas de seguridad tradicionales.

Paddric Fitzgerald estaba en su lugar de trabajo cuando recibió una llamada de un número desconocido que lo sumergió en una situación aterradora. Según reportó Financial Times, escuchó a su hija gritando al otro lado de la línea, suplicando ayuda, mientras afirmaba estar en peligro inminente. “Ella gritaba diciendo que la iban a lastimar mientras yo estaba en la llamada. Estaba dispuesto a darles todo lo que tenía”, reveló Fitzgerald.

Sin embargo, para su alivio, poco después recibió un mensaje de texto de su hija desde su teléfono móvil, lo que lo llevó a darse cuenta de que la voz en la llamada no pertenecía a su hija. Era una voz generada por inteligencia artificial. Este incidente ilustra una nueva y alarmante estrategia que los delincuentes están empleando para engañar a las personas, aprovechando la tecnología para crear falsas emergencias y extorsionar a sus víctimas.

Quiénes son el principal blanco de robo

Según datos de la Federal Trade Commission citados por FT, las personas mayores son particularmente vulnerables a estas estafas, con pérdidas económicas promedio que aumentan significativamente con la edad. Por ejemplo, los adultos mayores de 80 años experimentan pérdidas que duplican a las sufridas por individuos más jóvenes.

Ruth Card, una mujer de 73 años, experimentó en carne propia la astucia de estos estafadores. Recibió una llamada que creyó provenía de su nieto Brandon, cuya voz sonaba idéntica a la suya. “Abuela, estoy en problemas, necesito dinero para salir de la cárcel”, le dijo la voz al otro lado del teléfono. Sin dudarlo, Ruth y su esposo acudieron al banco y retiraron 3,000 dólares canadienses para ayudar a su nieto.

QUIZAS ESTO LE INTERESE : l extraño caso del adolescente chino que fue hallado vivo en una montaña de Utah tras ser víctima de un secuestro cibernético

Sin embargo, gracias a la intervención del director del banco en otra sucursal, se percataron de que estaban siendo víctimas de una estafa. Otro cliente había experimentado una situación similar y había detectado que la voz en la llamada no coincidía con la del supuesto nieto. Era un audio generado por un sistema de inteligencia artificial, un “deepfake” de audio, según informó The Washington Post.

Cómo protegerse de estos audios

Para defenderse contra este tipo de estafas, es crucial que las personas verifiquen la identidad de los llamadores a través de canales de comunicación alternativos. Además, nunca se debe proporcionar información personal o financiera durante llamadas no verificadas. Es importante también educar a familiares y amigos sobre estas técnicas de fraude, estableciendo una red de alerta y prevención que pueda reducir la vulnerabilidad ante estos sofisticados engaños tecnológicos.

Share post:

Subscribe

spot_imgspot_img
spot_imgspot_img

Populares

Otras Noticias
Related