El FBI ha lanzado una alerta seria sobre una nueva tendencia que se está observando de forma reciente, en donde los delincuentes comenzaron a utilizar la tecnología de Inteligencia Artificial más moderna para crear videos deepfake que son utilizados para chantajear a sus víctimas en una dinámica conocida como “sextorsión”.
PUBLICIDAD
Todo este año 2023 se ha distinguido por el despegue de estas plataformas como ChatGPT o Midjourney, que producen resultados cada vez más impactantes en una fracción de tiempo armando imágenes, videos, retratos, audios y hasta música que pueden confundirse con reales incluso para el ojo más entrenado.
En mayo del 2022 incluso presenciamos el inicio de un furor y tendencia incómoda a la larga, cuando TikTok comenzó a plagarse de videos deepfake protagonizados por supuestas celebridades. Es así como Tom Cruise y otras estrellas comenzaron a protagonizar clips en situaciones aleatorias distintivas de dicha plataforma de video.
Por desgracia ese era sólo el inicio y lo que empezó como algo curioso ahora ha escalado para convertirse en un problema de seguridad, en donde incluso el FBI ya ha reaccionado, advirtiendo de una nueva clase de crimen en donde cualquiera que haya subido una foto suya a internet puede ser víctima de una nuevo tipo de extorsión.
FBI advierte sobre alza de casos de sextorsión con videos deepfake que usan Inteligencia Artificial
A través de un comunicado en su sitio web oficial el Buro de Investigación Federal del FBI ha lanzado una advertencia a la ciudadanía sobre el incremento sustancial de casos de estafas de sextorsión. En donde los criminales usan estos videos falsos en situaciones comprometedoras para extorsionar a las víctimas con amenazas de difundir el material si no pagan dinero, les dan tarjetas de regalo u otras formas de pago.
Los deepfakes son vídeos o fotos generados mediante alguna Inteligencia Artificial (IA) que sustituyen el rostro o el cuerpo de una persona por otro mostrando a la víctima en escenas por lo general demasiado explícitas y comprometedoras en caso de que fuesen verdaderas. El gran problema es que son bastante convincentes.
Esta imágenes falsas de contenido sexual se lograrían, según describe la Agencia, cuando los delincuentes acceden a imágenes públicas e inofensivas de sus víctimas que compartieron previamente en sus propias redes sociales u otras fuentes.
PUBLICIDAD
A partir de ahí los atacantes usan técnicas de IA para crear vídeos o fotos explícitas, después exigen dinero aunque el material no sea reala sabiendas de que la mayoría de las personas lo tomarán por cierto.
Otro punto delicado es que ahora incluso los estafadores también pueden pedir a las víctimas que les envíen contenido explícito real para evitar difundir el material deepfake, lo que implica aún más riesgos.
Desde abril de 2023 se habría disparado el registro de casos y denuncias de este tipo en donde muchas de las víctimas no son conscientes de que sus imágenes fueron copiadas, manipuladas y circuladas hasta que alguien se lo hace saber o las encuentran en internet.