Una voz advierte, llorosa: “Me secuestraron, papá. Necesito que me ayudes”. La desesperación se apodera del padre, que intenta hacer todo lo posible para evitar que a su hijo le hagan algún daño. Pero el secuestro no existe: clonaron la voz de la falsa víctima gracias a la Inteligencia Artificial.
Cada vez hay más casos de este tipo, y con los avances de la tecnología el futuro no parece ser muy alentador.
En Estados Unidos, el Comité Especial sobre el Envejecimiento, perteneciente al Senado, envió una carta al presidente de la Comisión Federal de Comercio. El objetivo es expresar la preocupación por las “amenazas crecientes que plantean los fraudes y estafas relacionados con la Inteligencia Artificial”.
De acuerdo con los senadores, existe “un aumento en los casos de estafadores que utilizan IA para hacerse pasar por seres queridos y estafar a las personas, a menudo a los ancianos”.
Sin embargo, hay formas de evitar las estafas por clonación de voz.
La prevención frente a las estafas por clonación de voz a través de Inteligencia Artificial
Lo primero es saber que mientras más usemos las redes sociales en audios o videos, más posibilidades hay de que clonen nuestra voz. Se recomienda siempre disminuir, por no decir dejar de realizar esto.
Pero si ya la clonación ocurrió, ¿qué hacer?
Niklas Myhr, profesor de la Universidad de Chapman, recomienda dos pasos importantes para prevenir los fraudes.
El primero: acuerde con sus seres queridos una palabra secreta. “Necesitas verificar de alguna forma que se trata de la persona real”, señala Myhr.
Y el segundo: desconfiar siempre, ser escéptico ante este tipo de circunstancias. No solo de las voces, sino de los videos. “No hay que ceder a la presión. Hoy existen las imitaciones de voces, y pronto habrá más personas tratando de hacer estafas con suplantaciones de videos. Hay que estar atentos”, recalcó.