Internet

Alerta: Aumentan las estafas con voces familiares clonadas con Inteligencia Artificial

Te traemos dos casos preocupantes.

El avance de la Inteligencia Artificial se ha convertido en una espada de doble filo. Si la visión positiva es enorme, la negativa no deja de crecer: en este último ámbito se encuentran las estafas con voces familiares clonadas.

CBS publicó recientemente el caso de la estadounidense Jennifer Destefano, que recibió una llamada desesperada de su hija Brianna, de 15 años. No era ella, sino una clonación realizada con IA.

“Ella dice: ‘Mamá, estos hombres malos me tienen, ayúdame, ayúdame, ayúdame”, relató Destefano. “Y este hombre se pone muy agresivo, ‘Estucha, tengo a tu hija’. Y entonces fue cuando entré en modo de pánico”.

Publicidad

La persona le exigió el pago de un millón de dólares. Afortunadamente, Destefano se dio cuenta a tiempo, contactó a su hija y evitó la estafa.

“Una voz es como una huella dactilar. Esa es esa huella dactilar única que está siendo explotada y convertida en arma. Tiene que parar”, contó Destefano a CBS.

Cuando esto ocurre con personas de mayor edad, las estafas suelen ser exitosas para los delincuentes.

El caso de los abuelos ante “la gravedad” de su nieto

Pudo ser el caso de Ruth Card y Greg Grace, de 73 y 75 años, que contaron lo ocurrido al Washington Post. Una voz similar a la de su nieto, Brandon, les llamó, diciendo que estaba en la cárcel, sin billetera ni teléfono móvil, y que necesitaba dinero para pagar la fianza.

“Definitivamente tuvimos este sentimiento de… miedo… que tenemos que ayudarlo ahora mismo”, dijo Ruth al diario estadounidense. Ambos salieron hacia su banco en Regina, Saskatchewan, para retirar 3 mil dólares canadienses.

Como ese era el límite establecido en la entidad, fueron hacia otro banco para retirar más dinero.

Pero un gerente de ese banco se percató de la situación y los llevó a su oficina: otro cliente había recibido una llamada similar. La voz había sido clonada por Inteligencia Artificial y la persona del teléfono, muy probablemente, no era su nieto.

Publicidad

¿Cómo evitar sufrir estafas por clonaciones de voz de Inteligencia Artificial?

Frente a este tipo de situaciones, lo recomendado siempre es tomarse el llamado con calma y tratar de verificar por otro medio si realmente es el familiar el que los telefonea.

Hace poco publicamos en FayerWayer las recomendaciones de Niklas Myhr, profesor de la Universidad de Chapman, para evitar ser estafado por clonación de voz.

Publicidad

La primera: acordar con los seres queridos una palabra secreta, que sirva de clave en casos de presión.

Y la segunda: desconfiar siempre, ser escéptico frente a este tipo de circunstancias.

Te dejamos el link con las recomendaciones de Myhr a continuación.

Síguenos en Google News:Google News

Contenido Patrocinado

Lo Último