La empresa de ciberseguridad ESET ha identificado varias técnicas comunes utilizadas por estos delincuentes, por lo que señalan que es fundamental ser cauteloso con la información que se comparte en línea, ya que la inteligencia artificial no es ni buena ni mala, sino que todo depende de las intenciones con las que se utilice.
Deepfake: la amenaza de las identidades falsas
Uno de los métodos más destacados de estafa con IA es el uso de deepfakes.
Esta técnica, que utiliza IA generativa, puede crear audios y videos falsos con la voz y el rostro de cualquier persona, incluso a partir de unos pocos segundos de grabación obtenidos de redes sociales como Instagram o TikTok.
Los deepfakes no solo se utilizan para difundir información falsa sobre figuras públicas, sino que también permiten a los ciberdelincuentes superar los sistemas de verificación de identidad al superponer imágenes falsificadas sobre rostros reales, engañando así a los sistemas de seguridad.
Suplantación y doxing: revelar información sensible
La IA generativa también se emplea para crear engaños que persuaden a las víctimas a revelar información sensible. Esta técnica, conocida como doxing, consiste en publicar datos personales para intimidar o extorsionar.
Los ciberdelincuentes utilizan herramientas como GPT-4 para generar mensajes convincentes que engañan a las víctimas para que compartan información confidencial. Inluso existen servicios que integran ChatGPT y permiten a los atacantes perfeccionar el contenido de sus correos electrónicos maliciosos.
Servicios de jailbreak facilitan el ransomware
En lugar de desarrollar sus propios modelos de IA, los cibercriminales están optando por contratar servicios de jailbreak. Esto les permite escribir códigos para ejecutar ransomware u otro tipo de malware, eludiendo así las restricciones de las herramientas originales.
Según los expertos, esta práctica facilita la creación y distribución de software malicioso sin necesidad de conocimientos avanzados en programación.
Ingeniería social y manipulación
Los ciberatacantes también utilizan IA para mejorar sus técnicas de ingeniería social, utilizando la manipulación psicológica como una herramienta efectiva para extorsionar a las víctimas.
Al analizar patrones de comportamiento y preferencias personales, los delincuentes pueden crear mensajes altamente personalizados que aumentan las probabilidades de éxito en sus ataques.
Phishing automatizado
Finalmente, la IA permite automatizar y mejorar los ataques de phishing. Al analizar grandes volúmenes de datos, los cibercriminales pueden identificar objetivos potenciales y crear correos electrónicos y mensajes que parecen genuinos.
La automatización de estos ataques no solo aumenta su eficiencia, sino que también dificulta su detección por parte de las víctimas.