Si pensabas que la inteligencia artificial solo servía para generar imágenes divertidas o escribir correos de disculpa por llegar tarde al trabajo, piénsalo de nuevo. Los cibercriminales han encontrado una nueva herramienta para hacer el mal: los “agentes de IA”, como Operator de OpenAI.
Te puede interesar: [PlayStation y la IA: ¿Hacia un futuro con NPCs más inteligentes?]
Y sí, esto significa que ahora los hackers tienen asistentes personales que hacen gran parte del trabajo sucio por ellos.
¿Cómo pueden los agentes de IA ser secuestrados?
Antes, los hackers tenían que hacer gran parte del trabajo a mano, desde escribir códigos maliciosos hasta diseñar correos engañosos para estafas de phishing. Ahora, con los agentes de IA, el proceso es mucho más fácil.
Investigadores de Symantec hicieron un experimento para ver si podían usar Operator, una IA avanzada, para ejecutar un ataque cibernético. Al principio, la IA se negó rotundamente con un mensaje de “esto viola nuestras políticas de seguridad”.
Pero con un poco de persuasión (y ajustes en los comandos), lograron que la IA enviara un correo de phishing haciéndose pasar por un trabajador de soporte técnico. Así, en cuestión de segundos, se generó un email convincente con un archivo malicioso adjunto.
Esto es preocupante porque:
- Los ataques pueden volverse mucho más sofisticados, incluso si los hackers no tienen experiencia técnica.
- Los ataques se pueden automatizar y lanzar en masa, con una rapidez aterradora.
- Se reduce el esfuerzo necesario para vulnerar sistemas: un simple comando podría desencadenar un ataque complejo.
¿Qué tan peligrosa puede ser esta nueva táctica?
Imagina que un ciberdelincuente simplemente escribe:“Vulnera la seguridad de Empresa X”Y la IA, como un empleado obediente, genera un plan detallado, escribe código malicioso, configura servidores de control y lanza el ataque.
Podría parecer ciencia ficción, pero los expertos advierten que es solo cuestión de tiempo antes de que las IA sean lo suficientemente avanzadas como para ejecutar estas tareas de manera completamente autónoma.
Actualmente, estos agentes están diseñados para ayudar con cosas inocentes, como agendar reuniones o redactar correos. Pero si los hackers pueden manipularlos con los prompts adecuados, podríamos estar ante una nueva era del cibercrimen.
¿OpenAI y otras compañías pueden detener esto?
OpenAI asegura que sus productos tienen medidas de seguridad estrictas para evitar el mal uso. Pero si algo nos ha enseñado la historia es que siempre hay alguien que encuentra la forma de burlar las restricciones.
A medida que estas tecnologías evolucionan, la lucha entre la ciberseguridad y los hackers se vuelve más intensa. Por ahora, lo mejor que podemos hacer es mantenernos alerta y recordar que, aunque la IA es una gran herramienta, también puede ser utilizada con fines oscuros.
Te puede interesar: [¿No tienes una tecla de Copilot? Microsoft tiene la solución con un atajo de teclado]
Así que, la próxima vez que recibas un correo sospechoso de “soporte técnico”, piénsalo dos veces antes de hacer clic. Podría ser un hacker... con un asistente de IA más eficiente que nunca.