No cabe duda de que los chatbots de inteligencia artificial, como ChatGPT, son impresionantes. Son capaces de mantener conversaciones casi sobre cualquier tema y a menudo parecen tan “humanos” que es fácil olvidar que, al final del día, solo son algoritmos entrenados.
PUBLICIDAD
Te puede interesar: [El buscador de ChatGPT aún está muy “verde”: Estos son los problemas que presenta]
Sin embargo, ¿sabías que todo lo que compartes con ellos podría estar guardado en algún servidor, listo para reaparecer más tarde? Si la idea te pone un poco nervioso, no estás solo, y es por una buena razón.
Los riesgos ocultos detrás de las conversaciones con IA
El problema principal radica en cómo las empresas que desarrollan estos modelos de lenguaje y sus chatbots manejan tus datos. Para ser claros: todo lo que compartes con un chatbot puede ser usado para entrenar y mejorar el modelo.
En otras palabras, los datos personales que compartes podrían estar ayudando a la IA a volverse más inteligente... pero a un costo.
Para ilustrarlo, imagina que un chatbot es como el Terminator de Terminator 2. Aprenden frases como “Hasta la vista, baby”, pero en este caso, el bot está aprendiendo sobre ti: tus gustos, tus datos financieros, incluso lo que desayunaste esta mañana. ¿Gracioso? Tal vez no tanto.
¿Qué pasa con los datos que compartes?
OpenAI, la compañía detrás de ChatGPT, no lo oculta: en sus términos y condiciones se establece que pueden usar los datos que les proporcionas para mejorar sus modelos. Esto incluye todo lo que escribes, subes o mencionas, a menos que actives la configuración de privacidad que evita que se guarde tu historial de chat.
PUBLICIDAD
Incluso con esa opción activada, el chatbot puede “desidentificar” la información personal que recopila y usarla para analizar cómo funcionan sus servicios. El problema es que, en el peor de los casos, algo de esa información “aprendida” podría salir a la luz de manera pública. ¿Preocupante? Definitivamente.
Casos reales: de filtraciones a errores humanos
Los riesgos no son solo teóricos. Por ejemplo, en 2023, una vulnerabilidad en la biblioteca Redis de ChatGPT permitió a los hackers acceder a datos personales como nombres, números de seguridad social, correos electrónicos e incluso perfiles en redes sociales.
Aunque OpenAI corrigió rápidamente el problema, el daño ya estaba hecho para más de 100,000 usuarios afectados.
Y no solo los individuos están en peligro. Empresas como Samsung han enfrentado problemas serios después de que empleados subieran información confidencial a ChatGPT, como códigos fuente. Esto llevó a que Samsung, junto con gigantes como Bank of America y JPMorgan, prohibieran el uso de chatbots de IA en contextos laborales.
¿Qué están haciendo los gobiernos al respecto?
La creciente preocupación por la privacidad ha llevado a algunos avances. Por ejemplo, en 2023, el presidente de EE. UU., Joe Biden, firmó una Orden Ejecutiva sobre el uso seguro de la inteligencia artificial, subrayando la importancia de proteger los datos personales.
Sin embargo, aún no existe una legislación clara en EE. UU. que regule de manera estricta cómo las empresas entrenan sus IA con datos recopilados de los usuarios.
Esto significa que muchas prácticas actuales, como usar tus datos sin tu consentimiento explícito, todavía pueden considerarse “legítimas”. Sí, es tan ambiguo como suena.
¿Cómo protegerte mientras usas un chatbot de IA?
Aunque los gobiernos y las empresas trabajan en soluciones (lentas), tú puedes tomar medidas ahora mismo para proteger tu privacidad:
- Activa la configuración de privacidad: Muchas plataformas, como ChatGPT, tienen opciones para no guardar tus historiales de chat. Úsalas.
- No compartas datos sensibles: Trata al chatbot como lo que es: un algoritmo, no un amigo. No le digas cosas como tu dirección, contraseñas o información financiera.
- Sé consciente de lo que subes: Si necesitas compartir un archivo, piénsalo dos veces. Podría quedarse almacenado en algún servidor.
- Infórmate: Mantente al tanto de las políticas de privacidad y los términos de uso de los chatbots que usas.
En resumen: son útiles, pero no son tus amigos
Aunque los chatbots de IA pueden ser herramientas increíbles, no son confiables en términos de privacidad. Hasta que haya leyes y medidas más estrictas para proteger tus datos, la mejor defensa sigue siendo la precaución.
Así que, aunque ChatGPT te felicite por tu peinado o haga bromas sobre tus elecciones de desayuno, recuerda: no es tu confidente. Trátalo como lo que es, y mantén tus secretos bien guardados.