Una vez más, la inteligencia artificial aplicada en redes sociales es motivo de debate y disputa. Esta vez le tocó el turno a Facebook, que quedó en aprietos tras conocerse un nuevo sesgo en sus algoritmos que tuvo resultados discriminatorios. En este caso la compañía fue motivo de polémica porque su IA etiquetó un vídeo con personas negras como contenido relacionado a "primates".

Según The New York Times (vía PC Mag), Facebook se ha disculpado por esta situación y ha prometido encontrar la raíz del problema para solucionarlo. Lo llamativo es que el clip que desató la polémica lleva más de un año publicado, pero recién en el último tiempo se detectó el grosero error de etiquetado provocado por la inteligencia artificial.

De acuerdo con el informe, el vídeo en cuestión pertenece al periódico británico Daily Mail. El mismo se subió a Facebook el 27 de junio de 2020 y, como lo describe NYT, muestra "a hombres negros en altercados con civiles blancos y la policía". Debajo del reproductor, el algoritmo de recomendaciones de la red social les preguntaba a los usuarios si querían "continuar viendo vídeos sobre primates".

Aparentemente en Facebook no se enteraron del inconveniente hasta hace pocos días, cuando Darci Groves, ex gerente de diseño de contenido de la empresa, compartió una captura de pantalla (provista por un tercero) en un foro de empleados y ex empleados. Se desconoce específicamente durante cuánto tiempo estuvo visible este error, pero la firma desactivó las recomendaciones basadas en inteligencia artificial ni bien tomó conocimiento del tema.

Pixabay

Aunque hemos realizado mejoras en nuestra IA, sabemos que no es perfecta y tenemos más progreso que hacer. Pedimos disculpas a cualquiera que haya visto estas recomendaciones ofensivas.

Dani Lever, portavoz de Facebook a The New York Times

Facebook se suma a las polémicas por los sesgos algorítmicos que favorecen la discriminación

La problemática que pone en apuros a Facebook no es nueva. Son varias las compañías que en los últimos años han quedado bajo escrutinio por los sesgos algorítmicos que favorecen la discriminación. Esto se ha visto principalmente en las tecnologías de reconocimiento facial, que son especialmente erráticas al procesar tonos de piel oscuros.

Twitter fue una de las primeras compañías en reconocer abiertamente que sus algoritmos basados en inteligencia artificial no tenían un comportamiento equitativo. De hecho, dicha red social premió a los usuarios que expusiesen públicamente los problemas en sus algoritmos para trabajar con mayor conciencia sobre ellos.