Si la Inteligencia Artificial ChatGPT ya era vista con algo de recelo, ahora directamente tendrá que ser monitoreada por las autoridades mundiales. La creación de OpenAI, aún en su versión beta, es utilizada para escribir código malicioso en la Dark Web, generando malware funcional.
La empresa de seguridad Check Point reseñó que las capacidades de ChatGPT han impresionado incluso a los ciberdelincuentes, según lo visto en sus foros.
“El análisis de Check Point de varias de las comunidades clandestinas de hackers muestra que ya hay primeros casos de ciberdelincuentes que usan OpenAI para desarrollar herramientas maliciosas”, indica la empresa en su investigación.
“Es solo cuestión de tiempo hasta que los actores de amenazas más sofisticados mejoren la forma en que usan las herramientas basadas en IA para hacer el mal”.
Los ejemplos de código malicioso elaborado por la Inteligencia Artificial ChatGPT
Recordemos que ChatGPT es un chatbot basado en aprendizaje automático que sirve para interactuar de manera conversacional. Responde todo tipo de preguntas, e incluso puede elaborar ensayos, algo que generó alarmas en instituciones educativas.
Pero de acuerdo con Check Point, con unos pocos ajustes por parte de los ciberdelincuentes ChatGPT está creando código malicioso.
El primer ejemplo localizado es el de un código basado en Python para buscar archivos comunes, copiándolos en una carpeta Temp, comprimiéndolos y cargándolos en un servidor FTP codificado.
En otra muestra, hallaron un fragmento de código basado en Java capaz de descargar un cliente SSH / Telnet (PuTTY) y luego ejecutarlo de forma encubierta en el sistema usando Powershell.
Mientras, otros ciberdelincuentes usaron ChatGPT para crear una herramienta de cifrado, generando claves criptográficas, además de permitir cifrar archivos y comparar hashes.
Check Point señala que, pese a estos indicios, aún es demasiado pronto para decir si el chatbot de OpenAI “se convertirá o no en la nueva herramienta favorita para los participantes de la Dark Web”.