La IA generativa ofrece innumerables beneficios, pero es esencial abordar sus riesgos para garantizar que la privacidad y la seguridad de los usuarios no se vean comprometidas.
PUBLICIDAD
Y es que, a pesar de sus beneficios, la falta de transparencia en los algoritmos, el potencial sesgo en los datos y la posibilidad de usos malintencionados son preocupaciones centrales.
¿Qué tanto ha avanzado la IA generativa?
Según el estudio Cisco 2024 Data Privacy Benchmark, el 79% de las empresas ya están obteniendo un valor significativo de la IA generativa: las organizaciones se han apresurado a utilizar herramientas de IA generativa para tareas como generar documentos, crear y revisar código e impulsar la productividad en general; pero, al hacerlo, muchas veces ingresan datos sobre sus clientes, empleados y procesos internos.
Las personas que utilizan IA generativa actúan de manera similar. Según la Encuesta de privacidad del consumidor de Cisco 2023, el 39% de los usuarios ingresó información laboral y más del 25% ingresó información personal, números de cuentas e, incluso, información de salud y origen étnico. Al mismo tiempo, el 88% de estos mismos consumidores dijeron que les preocupaba que los datos que ingresaron pudieran compartirse con otros.
¿Cuáles son los peligros de exponer datos personales en IA? Según los expertos, estos son algunos de los peligros más destacados.
Filtración de datos personales
El uso de herramientas como ChatGPT, Google Gemini y Microsoft Copilot puede implicar el ingreso de información personal o confidencial sin un entendimiento claro de cómo se maneja dicha información.
Según datos de Cisco, el 50% de los usuarios ha ingresado datos sensibles en estas plataformas, lo que puede resultar en el acceso no autorizado a esta información.
PUBLICIDAD
Compartir información de manera involuntaria
Las aplicaciones de IA generativa pueden compartir datos introducidos con terceros sin el conocimiento del usuario. Esto incluye detalles personales, laborales e incluso información sensible como números de cuenta y datos de salud, aumentando el riesgo de robo de identidad y otras violaciones de privacidad.
Malos usos y deepfakes
La IA también puede ser utilizada para crear deepfakes, lo que puede llevar a la manipulación de imágenes y videos con fines maliciosos. Esto plantea preguntas sobre la responsabilidad y la necesidad de controles más robustos para prevenir el uso indebido.
¿Es necesario regular la inteligencia artificial?
La regulación de la inteligencia artificial es un tema complejo. A medida que la IA generativa se expande, la necesidad de regulaciones específicas se vuelve evidente. Actualmente, las normativas son insuficientes, lo que deja a los usuarios en una posición vulnerable hasta que se adopten medidas regulatorias más estrictas.
Y si bien la necesidad de mitigar riesgos y proteger a la sociedad es clara, también lo es la importancia de fomentar la innovación y el desarrollo tecnológico. Según los expertos, encontrar un equilibrio adecuado será crucial para maximizar los beneficios de la IA y minimizar sus riesgos; por ende, la conversación sobre cómo lograr este equilibrio debe involucrar a gobiernos, industria, academia y sociedad civil para asegurar un futuro donde la inteligencia artificial trabaje en beneficio de todos.