IBM se sale de la carrera por desarrollar algoritmos de reconocimiento facial mediante sistemas de inteligencia artificial. Así lo afirmó su CEO, Arvind Kirsha, en una carta enviada al congreso estadounidense el pasado lunes. ¿La justificación? Dice oponerse al uso de esta tecnología para la vigilancia masiva y el control racial.
"IBM ya no ofrece el software de reconocimiento facial o el software de análisis de propósito general de IBM", afirma Kirsha. Tampoco la de otros proveedores:
"IBM se opone firmemente y no aprobará el uso de ninguna tecnología, incluida la tecnología de reconocimiento facial ofrecida por otros proveedores, para la vigilancia masiva, la elaboración de perfiles raciales, las violaciones de los derechos humanos y las libertades básicas, o cualquier otro propósito que no sea coherente con nuestros valores y principios de confianza y transparencia.
El reconocimiento facial de IBM, descartado
IBM cita su propuesta, con fecha de 1953 y más de una década anterior a la Ley de Derechos Civiles, en la que defendían el "igual derecho a vivir y trabajar en Estados Unidos". Más específicamente en IBM, donde se contrataría a las personas "independientemente de la raza, el color o el credo". Una respuesta que contrasta fuertemente con un más que documentado colaboracionismo con el régimen nazi en los años 30 y 40 del pasado siglo.
El reconocimiento facial de IBM se irá apagando progresivamente, puesto que algunos de sus clientes actuales seguirán recibiendo soporte. No obstante, dejarán de comercializar, vender o actualizar estos sistemas, sobre los que había trabajado para mejorar su imparcialidad.
El reconocimiento facial juega un rol de relevancia creciente en las agencias policiales en múltiples países. Bajo la crítica tras el asesinato de George Floyd el 25 de mayo, IBM adelanta además algunas propuestas para que el Congreso de Estados Unidos pueda reformar los cuerpos y legislar de una forma "responsable" con esta tecnología. Según Axios, IBM afirma que esta decisión se toma tras una evaluación de varios meses y ya ha sido transmitida a sus clientes.
Arvind apunta al control que debemos ejercer sobre los sistemas de inteligencia artificial para evitar que reproduzcan los sesgos todavía latentes en la sociedad. Un ejemplo evidente de esto está en estos sistemas de reconocimiento facial.
Riesgos sesgados y pérdida de privacidad
Tal y como recuerda The Verge, en 2018 cuando los investigadores Joy Buolamwini y Timnit Gebru analizaron los sesgos de género y color de piel. Ambos resultaron estar efectivamente presentes, con el peor de los resultados para el software de IBM. Las caras de los hombres de piel clara se reconocían con un 99,7% de precisión, mientras que las de las mujeres negras caía hasta un 65,3%.
Esta se considera una de las pruebas de que los sistemas de inteligencia artificial reproducen tendencias nocivas en nuestra sociedad, incluso aunque no hayan sido planteadas activamente con este fin. Por supuesto, este tipo de efecto se suma a las preocupaciones por la privacidad.
No obstante, IBM se enfrenta también a las críticas de haber dado el paso atrás con una tecnología en la que ha sido superada por la competencia.