El algoritmo de recorte de fotos de Twitter está sesgado hacia las caras blancas – PanaTimes


Un equipo de investigadores descubrió que la herramienta de recorte automático del gigante de las redes sociales discriminaba más fuertemente a favor de las mujeres blancas.

Un nuevo análisis publicado por Twitter ha confirmado que el algoritmo de recorte automático de fotografías de la empresa discrimina en función de la etnia y el género.

Si se le presenta una imagen con un hombre negro y una mujer blanca, el algoritmo elegiría mostrar a la mujer el 64 por ciento de las veces y al hombre el 36 por ciento de las veces, encontraron los investigadores de Twitter.

En las comparaciones de hombres y mujeres, hubo una diferencia del 8% a favor de las mujeres. El algoritmo también mostró un sesgo general del 4 por ciento hacia mostrar imágenes de personas blancas en lugar de personas negras.

En respuesta, la red social dijo que eliminaría la función y la reemplazaría con nuevas herramientas que permitirían a los usuarios ver una “vista previa real” de las imágenes agregadas a los tweets.

“Una de nuestras conclusiones es que no todo en Twitter es un buen candidato para un algoritmo, y en este caso, cómo recortar una imagen es una decisión que mejor toman las personas”, escribió el director de ingeniería de software de Twitter, Rumman Chowdhury, en un blog anunciando los resultados.

Una prueba similar para la “mirada masculina”, que tenía como objetivo descubrir si el algoritmo tendía a enfocarse en diferentes partes de los cuerpos de presentación masculina y femenina, no encontró evidencia de sesgo.

Cuando se aplica a tecnologías como el reconocimiento facial, las consecuencias de los algoritmos sesgados podrían ir mucho más allá de una foto recortada injustamente, según Nicholas Kayser-Bril de la ONG Algorithmwatch con sede en Berlín.

“Se sabe que los algoritmos de visión por computadora representan a las personas con tonos de piel más oscuros como más violentos y cercanos a los animales, basándose en viejos tropos racistas. Es muy probable que esto tenga un efecto directo en las personas racializadas cuando dichos sistemas se utilizan para detectar situaciones anormales o peligrosas , como ya es el caso en muchos lugares de Europa “, dijo a Euronews.

¿Cómo funciona el algoritmo de Twitter?

Hasta hace poco, las imágenes publicadas en Twitter se recortaban automáticamente mediante un algoritmo entrenado para centrarse en la “prominencia”, una medida de la probabilidad de que el ojo humano se sienta atraído por una parte particular de una imagen.

Las áreas de alta prominencia de una imagen suelen incluir personas, texto, números, objetos y fondos de alto contraste.

Sin embargo, un algoritmo de aprendizaje automático (ML) como el que usa Twitter es tan imparcial como la información con la que está entrenado, explicó Kayser-Bril.

“Si un algoritmo de aprendizaje automático se entrena en un conjunto de datos que no contiene datos sobre ciertos grupos o ciertos atributos, generará resultados sesgados”, dijo a Euronews.

“Construir un conjunto de datos justo es imposible si se aplica a una sociedad que no es justa en primer lugar. Por lo tanto, lo que optimiza un modelo es más importante que el conjunto de datos con el que fue entrenado.

“Las comunidades de inteligencia artificial utilizan puntos de referencia para sus algoritmos; muy raramente se relacionan con la equidad”.

El informe de inclusión y diversidad de Twitter de 2021 mostró que sus empleados en todo el mundo eran 55,5% hombres, 43,6% mujeres y menos del 1% no binarios.

Las cifras de los empleados de Twitter en los Estados Unidos, el único territorio para el que la empresa publica estadísticas de etnia, muestran que el 7,8 por ciento del personal es negro, cayendo al 6,2 por ciento cuando solo se tienen en cuenta los empleados que desempeñan funciones técnicas.

El problema con el algoritmo de recorte de Twitter llamó la atención generalizada el año pasado, cuando el estudiante de doctorado canadiense Colin Madland notó que siempre elegiría mostrárselo a él en lugar de a su colega, un hombre negro, cuando se le presentaran fotos de los dos hombres.

El tweet de Madland sobre el descubrimiento se volvió viral, lo que llevó a otros usuarios a publicar imágenes muy largas con varias personas en un esfuerzo por ver cuál elegiría mostrar el algoritmo.

En ese momento, la portavoz de Twitter, Liz Kelley, dijo que la compañía “probó el sesgo antes de enviar el modelo y no encontró evidencia de sesgo racial o de género en nuestras pruebas”, y agregó que estaba claro que Twitter tenía “más análisis por hacer”.

.



Source link