ArsTechnica ha detectado una situación preocupante en las últimas horas, ya que varios usuarios han informado sobre errores y filtraciones de datos y contraseñas relacionadas con ChatGPT.
En un informe, se revela que un usuario proporcionó capturas de pantalla que mostraban pares de nombres de usuario y contraseñas vinculados a un sistema de soporte utilizado por los empleados de un portal de medicamentos recetados de farmacia.
Un usuario específico compartió capturas de pantalla que incluían varios pares de nombres de usuario y contraseñas, aparentemente conectados a un sistema de apoyo utilizado por empleados de una plataforma de medicamentos recetados de farmacia.
El usuario notó conversaciones adicionales en su historial después de realizar una consulta en ChatGPT, y estas conversaciones no eran suyas ni parecían pertenecer al mismo usuario.
Whiteside, el usuario afectado, comentó: “Fui a hacer una consulta (en este caso, ayuda para encontrar nombres inteligentes para los colores de una paleta) y cuando volví a acceder momentos después, me di cuenta de las conversaciones adicionales”.
Estas conversaciones incluían detalles sobre una presentación en la que alguien estaba trabajando, información sobre una propuesta de investigación inédita y un script en lenguaje de programación PHP.
No es la primera vez
En marzo de 2023, OpenAI, la entidad detrás de ChatGPT, desconectó el chatbot de IA después de que un error expusiera títulos del historial de chat de un usuario activo a personas no relacionadas.
Además, en noviembre, investigadores informaron que podían utilizar consultas para provocar que ChatGPT revelara información privada, como direcciones de correo electrónico, números de teléfono y datos incluidos en el material utilizado para entrenar el modelo de lenguaje de ChatGPT