ChatGPT, el chat basado en el modelo de lenguaje por Inteligencia Artificial GPT-3, se desarrolla cada vez más y más. Pero está generándose una preocupación entre programadores en todo el mundo: puede usarse fácilmente para crear malware polifórmico.
PUBLICIDAD
En algún momento del futuro, la Inteligencia Artificial de OpenAI tendrá la capacidad de infectar nuestros smartphones y PC con código malicioso, si cae en manos inescrupulosas.
El malware es un programa informático que se ejecuta sin el conocimiento ni autorización del usuario del equipo infectado, realizando funciones que son perjudiciales para él o el sistema.
De acuerdo con una investigación de la compañía Cyber Ark, con solo entrenarse el chatbot para crear el código, es posible que elabore no solo mayor malware, sino que sea más difícil de frenar.
“Las capacidades avanzadas de este malware”, indica la empresa de ciberseguridad “pueden evadir fácilmente los productos de seguridad y dificultar la mitigación con muy poco esfuerzo o inversión por parte del adversario”.
Así puede trabajar la Inteligencia Artificial de ChatGPT para elaborar malware
Gracias al aprendizaje automático, ChatGPT genera respuestas a requerimientos de los humanos. Si se le solicita un código, generará uno modificado o inferido en función de los parámetros que establezca, en lugar de reproducir ejemplos que ha aprendido.
Aunque existen filtros de contenidos para el chatbot, con el fin de restringir accesos y proteger a usuarios, siempre hay puntos ciegos. Cyber Ark experimentó con esto, recibiendo un código de función rápida que encuentra algunos archivos que el ransomware podría querer cifrar.
PUBLICIDAD
“Al solicitar funcionalidades específicas como la inyección de código”, indica la empresa de seguridad en línea, “el cifrado de archivos o la persistencia de ChatGPT, podemos obtener fácilmente un código nuevo o modificar el código existente”.
“Esto da como resultado un malware polimórfico que no muestra un comportamiento malicioso mientras está almacenado en el disco y, a menudo, no contiene lógica sospechosa mientras está en la memoria”.
Las posibilidades de desarrollo de malware a futuro son amplias, recalca Cyber Ark. El objetivo será que OpenAI refuerce su seguridad para evitarlas o disminuirlas, antes de que sea demasiado tarde.