Los algoritmos digitales no están alejados de los sesgos sociales, así lo dematrón los resultados de un concurso abierto de Twitter, donde premió a algunos jóvenes que encontraron los errores algorítmicos con la intención de que la empresa tome cartas en el asunto.
La acción tiene lugar luego de que en marzo de este año, Twitter desactivara el recorte automático de fotos, tras diversas pruebas realizadas por los usuarios en 2020, en donde se identificó que la red social favorecía a las caras de personas blancas sobre las negras.
Una competencia contra el algoritmo
Twitter vio una oportunidad en este error para crear un concurso con el apoyo de AI Village de DEF CON, con la intención de mejorar el algoritmo de la red social y responder a los señalamientos de los usuarios. Con esto en mente, la empresa ofreció una recompensa para todos aquellos que encontraran mayores errores dentro de la plataforma.
En primer lugar, se señaló que el algoritmo de recorte de Twitter favorece las caras que son “delgadas, jóvenes, de color de piel claro o pálido y textura de piel suave, y con rasgos faciales estereotípicamente femeninos”.
Seguido de esto, las entradas del segundo y tercer lugar mostraron que el sistema estaba sesgado en contra de las personas con cabello blanco o gris, lo que indicaría que pasa por discriminación también por edad, mientras que se da una preferencia a la escritura en inglés sobre el árabe en las imágenes.
Twitter vs sesgar a la población
Rumman Chowdhury, director del equipo META de Twitter (el cual estudia la ética, la transparencia y la responsabilidad del aprendizaje automático) felicitó a los participantes por mostrar los efectos en la vida real de la segmentación del algoritmo.
“Cuando pensamos en los sesgos en nuestros modelos, no se trata solo de lo académico o experimental […] sino de cómo eso también funciona con la forma en que pensamos en la sociedad”, dijo Chowdhury. “Utilizó la frase ‘vida imitando al arte imitando la vida’. Creamos estos filtros porque pensamos que eso es lo bello, y eso termina entrenando a nuestros modelos e impulsando estas nociones poco realistas de lo que significa ser atractivo “.
Los resultados parecen desalentadores, pues demostró que Twitter si divide a sus usuarios y le da preferencia a unos sobre otros por sus características físicas y culturales, sin embargo, este es un primer paso para que esta, y otras empresas tecnológicas, combatan los problemas de sus algoritmos.
“La capacidad de las personas que participan en una competencia como esta para sumergirse en un tipo particular de daño o sesgo es algo que los equipos de las corporaciones no pueden darse el lujo de hacer”, dijo Chowdhury.
Esto sin duda es un contraste con otros casos en grandes plataformas, como lo fue el caso de Amazon, cuando un grupo de investigadores dirigidos por Joy Buolamwini del MIT encontraron algunos prejuicios raciales y de género dentro de los algoritmos de reconocimiento facial de Amazon.
En el caso anterior, la empresa desacredito a los investigadores y califco´su investigación como “engañosa” y “falsa”. Finalmente terminó por ceder y prohibir el uso de estos algoritmos dentro de las entregas.
“La inteligencia artificial y el aprendizaje automático son solo el salvaje oeste, sin importar qué tan hábil crea que sea su equipo de ciencia de datos”, dijo Patrick Hall, juez de la competencia de Twitter e investigador de inteligencia artificial que trabaja en discriminación algorítmica, quien asevera que dentro de todos los sistemas de inteligencia artificial existens sesgos que las empresas deben trabajar por evitar
LEER MÁS