Internet

Inteligencia Artificial: Así puedes evitar las estafas por clonación de voz

Cada vez hay más casos de este tipo.

Cuidado con las estafas
Cuidado con las estafas Imagen genérica

Una voz advierte, llorosa: “Me secuestraron, papá. Necesito que me ayudes”. La desesperación se apodera del padre, que intenta hacer todo lo posible para evitar que a su hijo le hagan algún daño. Pero el secuestro no existe: clonaron la voz de la falsa víctima gracias a la Inteligencia Artificial.

PUBLICIDAD

Cada vez hay más casos de este tipo, y con los avances de la tecnología el futuro no parece ser muy alentador.

Misterio
Misterio Imagen genérica

En Estados Unidos, el Comité Especial sobre el Envejecimiento, perteneciente al Senado, envió una carta al presidente de la Comisión Federal de Comercio. El objetivo es expresar la preocupación por las “amenazas crecientes que plantean los fraudes y estafas relacionados con la Inteligencia Artificial”.

Recomendados

De acuerdo con los senadores, existe “un aumento en los casos de estafadores que utilizan IA para hacerse pasar por seres queridos y estafar a las personas, a menudo a los ancianos”.

Sin embargo, hay formas de evitar las estafas por clonación de voz.

La prevención frente a las estafas por clonación de voz a través de Inteligencia Artificial

Lo primero es saber que mientras más usemos las redes sociales en audios o videos, más posibilidades hay de que clonen nuestra voz. Se recomienda siempre disminuir, por no decir dejar de realizar esto.

Pero si ya la clonación ocurrió, ¿qué hacer?

Niklas Myhr, profesor de la Universidad de Chapman, recomienda dos pasos importantes para prevenir los fraudes.

Cuidado con las estafas
Cuidado con las estafas Imagen genérica

El primero: acuerde con sus seres queridos una palabra secreta. “Necesitas verificar de alguna forma que se trata de la persona real”, señala Myhr.

Y el segundo: desconfiar siempre, ser escéptico ante este tipo de circunstancias. No solo de las voces, sino de los videos. “No hay que ceder a la presión. Hoy existen las imitaciones de voces, y pronto habrá más personas tratando de hacer estafas con suplantaciones de videos. Hay que estar atentos”, recalcó.

Tags


Lo Último