Pressmaster - Shutterstock

¿Puede una inteligencia artificial comportarse como una imbécil? Desde luego, al fin y al cabo, admitámoslo, tiene a los mejores maestros, los seres humanos. Pero al menos podemos decir que el racismo, el sexismo y la discriminación no son sólo cosa de nuestra especie. Lo que ahora conocemos como atentar contra la diversidad es un serio problema que afecta a todas y cada una de las estructuras sociales y profesionales del mundo. Pero ¿y si pudiéramos usar una herramienta para predecir y combatir este tipo de discriminación? Y, ¿quién sería capaz de crear una herramienta así de potente? Un equipo del Instituto de Física y Tecnología de Moscú (MIPT) y el Center for Healthy Aging, de la Universidad de Copenhague han conseguido dar los primeros pasos en ese sentido. Gracias a las redes neuronales, han conseguido crear índices de diversidad que explican la discriminación de las compañías con respecto al sexo, la edad y la raza de sus directivos. ¿Y cuál ha sido el resultado?

##El algoritmo anti-racista

¿Se puede enseñar a un algoritmo a ser racista? ¿O sexista? Por supuesto, es la magia de la inteligencia artificial. La cuestión es si se puede emplear este efecto en algo positivo. Para profundizar en el tema, hemos contactado con uno de sus autores, Alex Zhavoronkov, profesor en el MIPT, cofundador y director general de Insilico Medicine. «Ya que la mayoría de los sistemas de Inteligencia Artificial aprenden de los desarrolladores, en el caso de que los entrenamientos estén sesgados, es probable que la IA esté sesgada», explica Alex al preguntarle si una Inteligencia Artificial puede ser discriminadora. «Es un problema muy conocido entre los investigadores. Incluso los motores de búsqueda estarán ‘contaminados’ a pesar de los muchos esfuerzos de las compañías por evitar la discriminación». Para ejemplificar este hecho, el experto nos cuenta como en el pasado, al buscar una imagen a partir de la palabra «criminal», se obtenía un número desproporcionado de fotografías de minorías debido a la mayor representación de estos en los muchos sitios web. Era claramente una manifestación discriminatoria. «A día de hoy, la mayor parte de las imágenes contiene caras blancas porque los motores de búsqueda están tratando de equilibrar la respuesta».

Estos sesgos pueden ser introducidos por factores no humanos como el equipo empleado o el medio ambiente. Por ejemplo, en el caso de que esté probando su reconocimiento facial IA en la oscuridad, usando una cámara obsoleta, puede discriminar a las personas con el pelo o la piel más oscuros. Pero estos algoritmos también tienen un apartado interesante. «En muchos casos las características que son muy discriminativas también son muy predictivas. Por ejemplo, en genética clínica, los médicos aprenden a identificar rasgos en la cara o el cuerpo relacionados con algunas de las condiciones de una enfermedad. La IA puede aprender estas características para alcanzar una capacidad de diagnóstico sobrehumana», explica el experto. Los sesgos, como vemos, son buenos para diagnósticos, por ejemplo. Pero no cuando quieres emplear tu algoritmo para contratar a alguien. «Mi interés personal», explica el investigador, «es utilizar esta IA para reducir todo tipo de prejuicios relacionados con la edad de la persona. Por ejemplo, muchos ensayos clínicos para fármacos muy potentes tienen una tope de edad tras el cual los pacientes no pueden inscribirse». En este y otros ensayos clínicos, pacientes posiblemente aceptables que podría beneficiarse de un ensayo clínico caen fuera de las pruebas. «Podemos identificar la edad biológica del paciente, eliminando la discriminación a muchos niveles, para hacerlos, posiblemente, elegibles en ciertos ensayos clínicos».

##Analizando el panorama mundial

El equipo dirigido por Alex ha tratado de comprobar hasta que punto se puede emplear una IA en recursos humanos. «Hemos demostrado que ahora podemos utilizar la Inteligencia Artificial para identificar el sesgo humano más rápido y de una manera muy independiente. En nuestro trabajo sobre la diversidad organizacional, utilizamos un algoritmo para identificar el sexo, la raza y la edad de los altos directivos de las grandes corporaciones y comparar la diversidad de las corporaciones con la diversidad en sus países de origen». Para hacerlo, se han utilizado redes neuronales con la intención de predecir la discriminación con más de 7.000 personas pertenecientes a 500 de las compañías más poderosas del mundo, según Forbes. El equipo de Alex cogió los datos y las fotografías de los ejecutivos, con máxima calidad, lo que permitió al algoritmo discernir por compañía una serie de valores. Estos valores se emplearon en predecir la discriminación existente en estas compañías y obtener unos índices que explican hasta que punto la realidad coincide con la discriminación que se espera.

¿Cómo se aplica esto a una empresa?, le preguntamos a Alex: «Podemos darle un enlace con los perfiles ejecutivos y evaluar en segundos el índice de diversidad organizacional y compararlo con otras empresas». El resultado es muy interesante ya que se puede interpretar qué países son más discriminatorios en comparación con el resto y según sus compañías. Pero lo más importante no es esta interpretación, sino la posibilidad de usar este algoritmo en la selección de personal, evitando en la medida de lo posible la discriminación. ¿Evitándola cómo? Aunque el modelo todavía está un poco en pañales, ha conseguido demostrar que se puede emplear la inteligencia artificial en el desarrollo de un método imparcial de gestión de personal que ayude a combatir la discriminación. Porque, aunque no lo creamos, todavía vivimos en un mundo racista, sexista y discriminador. «El algoritmo hizo una lista de las empresas por diversidad, comparándolas. Y aunque todavía hay imperfecciones, este proceso no toma casi nada de tiempo y requiere poca intervención humana», explica Alex. «También es posible utilizar este mismo mecanismo para comparar la diversidad de los diversos grupos sociales, organizaciones gubernamentales e incluso las administraciones presidenciales para ver cuán representativos son de su electorado».

##Algunos resultados interesantes

Pongámonos de nuevo en harina. ¿Cuáles son los resultados encontrados por este algoritmo? Tras analizar e indizar el contenido revisado (las más de 7.000 fotografías), se obtuvo una predicción de discriminación por edad, sexo y raza. Esta predicción aporta una serie de valores que nos permiten comparar. Así, entre dichos valores podemos observar que, por ejemplo, entre el número de mujeres que se esperan dentro de una compañía, según predecía el algoritmo discriminador, y el número real de ejecutivas, según los datos de las propias empresas, ¡es aún menor! Y de esto no se libra ningún país, por muy moderno que sea. Eso sí, algunas compañías procedente de Japón, China, Korea o Arabia Saudí cumplieron con las expectativas del algoritmo: cero mujeres en el apartado ejecutivo de la compañía. Aún así, los valores comparados son cada vez más positivos. En cómputo total, el índice de diversidad según el sexo es alto en casi todos los países, a excepción de los mencionados, algo que muestra el cambio paulatino en la discriminación sexual la boral. Aunque todavía queda mucho por hacer.

Foto: TheNextWeb

Otro de los índices examinados fue el de la raza. Aquí los resultados también son sorprendentes. Aunque según lo predicho por el algoritmo, los índices son mayores de lo esperado, la realidad es que en el cómputo total todavía existe un gran racismo incosciente. A excepción de zonas de África o Indonesia, la diversidad racial en las compañías es bastante pobre, tal cómo se aprecia en los índices. América del Norte, India, Australia y España son honrosas excepciones, aunque no especialmente diferentes al resto. Sorprende que en Europa el índice de diversidad sea tan pequeño, en general, mientras que en Latam es casi cero. Por último, en cuanto a la edad, existe una visión heterogénea. En Europa y al sur de los Estados Unidos parece existir mayor diversidad, mientras que Asia y Latam, de nuevo, trabaja con los mismos rangos de edades. Huelga decir que esta investigación es todavía un poco ligera. Es una aproximación y nada más.

Pero también supone un interesante comienzo. En primer lugar porque demuestra que existen herramientas modernas que nos pueden ayudar a combatir la discriminación de forma objetiva. Luchar contra los prejuicios nos ayuda a aumentar la diversidad. La diversidad es importante porque supone una ventaja. Lo sabe cualquiera con conocimientos biológicos; pero también lo conoce aquél que se haya enfrentado a problemas de diversa índole. Arrojar los prejuicios al abismo es necesario para evolucionar como especie. Este algoritmo está diseñado para evaluar la diversidad. Pero podría emplearse, incluso, en evaluar si alguien está sesgado observando su círculo social y comportamiento online. «Creo que en el futuro, las IAs serán capaces de hacer a los humanos mejores; más inclusivos y altruistas analizando su comportamiento rápidamente para prevenir y penalizar la discriminación».

Ahora en Hipertextual

Suscríbete gratis a Hipertextual

Estamos más ocupados que nunca y hay demasiada información, lo sabemos. Déjanos ayudarte. Enviaremos todas las mañanas un correo electrócnio con las historias y artículos que realmente importan de la tecnología, ciencia y cultura digital.