El algoritmo de recorte automático de fotos en Twitter favorecía a “rostros jóvenes, delgados y de piel clara”, de acuerdo con los resultados de un concurso realizado por la red social.
La empresa desactivó el recorte automático de fotos en marzo de este año. Muchos usuarios destacaron que, al momento de publicar una imagen grupal, aparecían destacadas las personas blancas sobre las negras.
El concurso organizado por Twitter corroboró la situación. Los participantes, expertos en Inteligencia Artificial, resaltaron cuáles eran los sesgos que alimentaron al sistema de la red.
Los ganadores demostraron que el algoritmo favorecía a los “rostros jóvenes, delgados y de piel clara, textura de piel suave, con rasgos estereotipadamente femeninos”. El primer puesto fue para Bogdan Kulynych, un estudiante graduado en EPFL: recibió 3.500 dólares.
En el segundo lugar se destacó que estaba sesgado contra las personas con cabello blanco o gris, lo que implica una discriminación por edad.
Mientras, en el tercero se apuntó que favorecía el inglés sobre la escritura árabe en las imágenes.
Buscando las mejoras en la Inteligencia Artificial de Twitter
Recordemos que el sistema está en constante desarrollo, por lo que es aún perfeccionable. Lo que Twitter buscaba era, en base a las opiniones y descubrimientos de expertos, un mejor lineamiento para el recorte automático de fotos.
Rumman Chowdhury, directora del equipo META de Twitter, analizó los resultados.
“Cuando pensamos en sesgos en nuestros modelos, no se trata solo de lo académico o lo experimental”, indicó la ejecutiva. (Se trata sobre) cómo eso también funciona con la forma en que pensamos en la sociedad”.
“Utilizo la frase ‘la vida imitando el arte, y el arte imitando la vida’. Creamos estos filtros porque pensamos que eso es lo hermoso, y eso termina entrenando a nuestros modelos e impulsando estas nociones poco realistas de lo que significa ser atractivo”.
El equipo META de Twitter estudia la ética, la transparencia y la responsabilidad del aprendizaje automático.
¿Cómo llegó el ganador a su conclusión?
Para que Bogdan Kulynych llegara a su conclusión sobre el algoritmo de Twitter utilizó un programa de Inteligencia Artificial denominado StyleGAN2. Con él generó un gran número de rostros reales que varió según el color de la piel, además de los rasgos faciales femeninos frente a los masculinos y la delgadez.
Como explica Twitter, Kulynych alimentó las variantes en el algoritmo de recorte automático de fotos de la red, encontrando cuál era su preferido.
“(Recortaron) aquellos que no cumplen con las preferencias del algoritmo de peso corporal, edad y color de piel”, resaltó el experto en sus resultados.
Empresas y sesgos raciales, ¿cómo los enfrentan?
Twitter, con su concurso confirmó la naturaleza generalizada del sesgo social en los sistemas algorítmicos. Ahora viene un nuevo desafío: ¿cómo luchar contra estos sesgos?
“La IA y el aprendizaje automático son solo el salvaje oeste, sin importar cuán hábil creas que es tu equipo de ciencia de datos”, apuntó Patrick Hall, investigador de Inteligencia Artificial.
“Si no estás encontrando tus errores, o las recompensas de errores no están encontrando tus errores, ¿quién está encontrando tus errores? Porque definitivamente tienes errores”.
Sus palabras obedecen al trabajo de otras compañías cuando tienen similares fallos. The Verge recuerda que cuando un equipo del MIT encontró sesgos raciales y de género en los algoritmos de reconocimiento facial de Amazon, la empresa desacreditó a los investigadores.
Posteriormente tuvo que prohibir temporalmente el uso de esos algoritmos.