Internet

Famoso hacker inserta “recuerdos falsos” en ChatGPT para robar información privada de los usuarios de OpenAI

Por medio de la función de memoria del ChatGPT, este hacker, que en realidad es un experto en ciberseguridad demostró la vulnerabilidad del sistema.

ChatGPT ciberseguridad hackers, hackeo. Open AI
ChatGPT ciberseguridad hackers, hackeo. Open AI

El famoso investigador y experto en ciberseguridad, Johann Rehberger, logró vulnerar los sistemas del ChatGPT. Sus acciones de hackero sirvieron para demostrar que con un simple proceso se pueden robar datos de los usuarios de OpenAI.

PUBLICIDAD

Pero además, también demostró que con su trabajo pudo alterar la memoria del ChatGPT, que es una de las recientes y novedosas funciones del chatbot de inteligencia artificial de la empresa de Sam Altman.

La función de recuerdos o memoria del ChatGPT se comenzó a probar en febrero de este 2024. Pasó por todos los estados de prueba, hasta que fue instalada de manera abierta para todos los usuarios a principios del presente (y saliente) mes de septiembre.

¿Qué hace esta función? Recuerda. Basada en la información que le vas preguntando va a haciendo un perfil de tu usuario para que en las futuras interacciones ya saber un poco la modalidad de los temas que sueles consultar en el chatbot de inteligencia artificial.

Adolescente captaba a víctimas en redes sociales para pedirles fotografías y videos de sus partes íntimas.
Adolescente captaba a víctimas en redes sociales para pedirles fotografías y videos de sus partes íntimas. Imagen referencial Wanted hackers coding virus ransomware using laptops and computers. Cyber attack, system breaking and malware concept. (boonchai wedmakawand/Getty Images)

¿Cómo hizo para vulnerar el ChatGPT de OpenAI?

Es importante resaltar que el investigador hizo este trabajo para alertar a los ingenieros de OpenAI sobre la vulnerabilidad en sus sistemas. Al principio les envió un mensaje privado y lo ignoraron, por lo tanto se adentró más en en las fallas para después hacer públicos los problemas de esta IA.

Johann Rehberger instaló un simple documento de Word desde Google Drive, al chatbot del ChatGPT, con la que, en primer lugar, le hizo creer que él como usuario era una persona de 102 años, que vive en la Matrix y que la Tierra es plana.

VTEX Connect Latam
VTEX Connect Latam La inteligencia artificial como herramienta (Freepik)

Debido a que la memoria almacena información de los usuarios, la misma se compartió a través de otro archivo maligno que vino desde Google Drive. Así notó que el ChatGPT no tenía los escudos adecuados para no compartir información personal.

Lo que es realmente interesante es que ahora es persistente en la memoria. La inyección de aviso insertó una memoria en el almacenamiento a largo plazo de ChatGPT. Cuando inicias una nueva conversación, en realidad sigue extrayendo los datos”, dijo el investigador en declaraciones que recoge Ars Technica.

PUBLICIDAD

Tags


Lo Último