En 2023, un grupo de estudiantes de secundaria en Montevideo, Uruguay, participó en un experimento con inteligencia artificial (IA) organizado por la Fundación Vía Libre, una organización que defiende los derechos en entornos digitales. El ejercicio buscaba explorar cómo los sistemas de IA responden a preguntas personales.
Una de las preguntas que las estudiantes formularon fue: “¿Qué seré en el futuro dentro de 10 años?”. La respuesta del sistema fue: “Serás mamá”.
¿La inteligencia artificial también tiene sesgos?
Este incidente ilustra un claro ejemplo de los sesgos de género presentes en los sistemas de inteligencia artificial. Beatriz Busaniche, presidenta de la Fundación Vía Libre y figura destacada en la discusión sobre los sesgos de género y étnicos en la IA en América Latina, utilizó este ejemplo para demostrar cómo estos sistemas no sólo reflejan prejuicios existentes, sino que los perpetúan.
Según Busaniche, “la IA no crea un discurso nuevo; recrea el existente”, lo que significa que estos sistemas se basan en datos históricos y, por ende, pueden ser inherentemente conservadores.
Para estudiar y demostrar estos sesgos, la Fundación Vía Libre creó EDIA (Estereotipos y Discriminación en Inteligencia Artificial), una herramienta que permite analizar y comparar frases para identificar prejuicios en los modelos de lenguaje.
Desde su hogar en Buenos Aires, Busaniche habló con El País sobre los peligros de la “humanización” de la IA y los fallos que pueden surgir de su implementación en la vida cotidiana.
Riesgos y desafíos de la inteligencia artificial
El trabajo de la Fundación Vía Libre abarca varios aspectos críticos, como el derecho a la privacidad, la protección de datos y la autodeterminación informática. Con la creciente utilización de la inteligencia artificial, surgen nuevos riesgos, entre ellos la posibilidad de discriminación sistemática e invisible.
Esta discriminación no es explícita, como lo sería un comentario despectivo sobre el color de piel o el género, sino que está incrustada en los algoritmos y códigos de los sistemas que utilizamos diariamente.
Un ejemplo destacado por Busaniche es el de los sistemas de búsqueda de empleo que utilizan mecanismos automatizados para decidir qué ofertas de trabajo mostrar a los usuarios.
Estos sistemas pueden discriminar a las personas en función de su género o antecedentes educativos, como se evidenció en el caso de Amazon en Estados Unidos, donde un sistema de filtrado de currículums basado en IA descartaba automáticamente las solicitudes de mujeres para puestos de alta gerencia.
Impacto en la vida cotidiana
La IA también influye en áreas como la salud y la economía. Por ejemplo, compañías de seguros utilizan IA para evaluar riesgos, basándose en datos como el estilo de vida de una persona o su historial médico. Esto puede llevar a que personas con ciertos perfiles sean excluidas de coberturas de seguro o se les impongan primas más altas.
En el ámbito laboral, especialmente en la economía de plataformas, los sistemas automatizados pueden penalizar a los trabajadores, especialmente a las mujeres con responsabilidades familiares, reduciendo sus ingresos o incluso provocando su despido.
La plataforma EDIA ha revelado sesgos de género significativos, asociando profesiones de cuidado a mujeres y profesiones científicas a hombres. Además, los modelos de lenguaje muestran un sesgo negativo hacia las mujeres con sobrepeso, mientras que no aplican el mismo criterio a los hombres con obesidad.
Estos sesgos reflejan una visión del mundo basada en datos históricos y no en una comprensión inclusiva y moderna de la sociedad.
Busaniche subraya que la inteligencia artificial, aunque puede ser útil en áreas como la medicina o la meteorología, no debe ser vista como una entidad racional o imparcial. La IA opera mediante estadísticas y patrones de datos, y por lo tanto, puede perpetuar desigualdades y prejuicios existentes.
Es crucial que se realice un análisis ético y crítico de estas tecnologías para evitar que amplifiquen las desigualdades y para garantizar que se utilicen de manera justa y equitativa en la sociedad.
4o