«Hola, Soy tu Nieto y Necesito 3.000 Dólares»: Ya Hay Estafas a Ancianos Con Voces Generadas Por ia

Tiempo estimado de lectura: 5 minuto(s)


Imagen Destacada

«Hola, soy tu nieto y necesito 3.000 dólares»: ya hay estafas a ancianos con voces generadas por IA ya hay estafas a ancianos con voces generadas por IA, un anciano de 73 años, recibió una llamada de su nieto Brandon.

O eso creyó ella, porque la voz que sonaba al otro lado del teléfono era exacta a la de su nieto. «Abuela, estoy en la cárcel, sin cartera, sin teléfono», le contó esa voz, agobiada más o menos con esas palabras. «Necesito dinero para la fianza».

Ruth y su marido se fueron sin pensarlo al banco a sacar 3.000 dólares canadienses y al intentar hacer lo mismo en otra oficina, el director del banco detectó que algo raro pasaba y habló con ellos: otro cliente había pasado por lo mismo y se había dado cuenta de que la voz que sonaba al otro lado no era de quien se suponía que era.

Era una voz generada por un sistema de inteligencia artificial. Un deepfake de audio. Lo contaban en The Washington Post y advertían de una nueva oleada de fraudes en los que las voces generadas por IA sirven para engañar y timar a todo tipo de personas, a menudo los mayores de edad. Simular que sus familiares están en problemas suele funcionar para esas víctimas.

No te creas nada de lo que oigas, llegan los «deep fakes» de audio Datos de la FTC revelan que en 2022 este tipo de fraudes en los que alguien suplanta la identidad de otra persona fueron los segundos más frecuentes, con más de 36.000 denuncias de gente que fue engañada (o casi) por otros que simulaban ser amigos o familiares.

Las grandes estafas con este tipo de sistema están a la orden del día: a finales de 2021 alguien logró robar 35 millones de dólares a un banco usando esta tecnología. Con la nueva generación de motores de IA que son capaces de emular cualquier voz humana a través de un pequeño entrenamiento —Microsoft presentaba el potente VALL-E hace apenas unas semanas—, las cosas se han puesto aún peor.

En todos los casos el sistema es esencialmente el mismo: un impostor suplanta la identidad de alguien de confianza —un niño, un amante, un amigo— y convence a la víctima de que envíe dinero porque está en un problema importante.

El factor fundamental aquí es que esa suplantación de identidad es mucho más convincente cuando oyes cómo la voz de esa persona te habla de ese problema. Es una voz imitada artificialmente, pero los avances en IA —este tipo de sistemas llevan años desarrollándose— hacen que sea difícil distinguirla, sobre todo cuando quien recibe la llamada lo hace con ese tono de urgencia y preocupación.

Y para personas mayores, menos conocedoras de estos avances o de lo que es capaz de hacer esta tecnología, eso se convierte en una amenaza muy real. Las voces ni siquiera se necesitan tomar de alguien de forma voluntaria: basta un vídeo de YouTube, un podcast o un clip en TikTok, Instagram o Facebook para acabar generando una voz artificial sorprendentemente creíble. A partir de ahí, el ciberdelincuente puede decir lo que quiera con esa voz.

Perseguir a estos estafadores es especialmente difícil. Will Maxson, de la división de marketing de la FTC, explicaba que esos delincuentes pueden usar un teléfono en cualquier parte del mundo y eso complica asuntos como las jurisdicciones sobre cada caso particular.

El consejo de este organismo es claro: si recibes una llamada de alguien querido que te pide dinero con urgencia, trata de poner esa llamada en espera e intenta llamar a esa persona por separado. El número puede parecer suyo, pero los estafadores pueden haberlo suplantado también. Jamás se debe dar dinero en forma de tarjetas regalo porque son difíciles de monitorizar, y desde luego hay que estar muy atento y no atenter a esas peticiones de dinero que sobre todo se suelen pedir con urgencia.  vídeos

Facebook Comentarios

Graba tu opinión (máximo 10 segundos)

Opiniones de otros usuarios:

Aún no hay opiniones.

#concordia #diariodeconcordia #concordiadirecto
WP2Social Auto Publish Powered By : XYZScripts.com
Regresar