La cantidad de información digital que se genera actualmente no se compara con nada que la humanidad haya conocido en la antigüedad. Esta situación ha dado lugar a la creación de técnicas para manejar dicha cantidad de información en periodos de tiempo más cortos y poder obtener resultados de manera inmediata.
El Big Data, por ejemplo, se encarga de manejar toda aquella información que, debido a su volumen, no puede ser procesada o analizada utilizando procesos o herramientas tradicionales. Estas técnicas de manejo de información están transformando la manera de realizar investigaciones y tomar decisiones relacionadas con el ámbito científico, investigación ambiental y biomédica, educación, salud, seguridad nacional, entre otros.
El comportamiento del software está determinado por la influencia humana.
Recordemos que el software es diseñado y escrito por personas y, por lo tanto, no está libre de la influencia humana. Los algoritmos, que son una serie de instrucciones escritas por los programadores, a menudo se describen como una caja negra; es difícil saber qué sitios web producen ciertos resultados.
Los algoritmos de aprendizaje automático, como la función de autocompletado, basan su comportamiento en lo que aprenden de las personas. Como resultado, los investigadores en Ciencias de la Computación, Ética y Derecho, afirman que los algoritmos pueden reforzar los prejuicios humanos.
A principios del mes de Julio, una noticia relacionada con los algoritmos de reconocimiento de contenido que utiliza Google causó gran polémica y disgusto entre la población afroamericana, al etiquetar a una pareja como "Gorilas". Ante el error, Google tuvo que salir a pedir disculpas y mencionó que este tipo de problemas quedarían resueltos con el lanzamiento de Google Fotos y su función para editar el etiquetado automático.
Una investigación realizada por la Universidad de Washington encontró que al realizar una búsqueda en Google Imágenes para "CEO", los resultados obtenidos sólo mostraron a un 11% de mujeres, a pesar de que el 27% de los directores ejecutivos de los Estados Unidos son mujeres. Por si fuera poco, la primera imagen de una mujer que aparecía en la segunda página, era la muñeca Barbie CEO.
Investigadores de Carnegie Mellon hicieron un estudio en el que construyeron una herramienta para simular usuarios de Google que comenzaron sin historial de búsqueda y luego visitaron sitios web de empleo. Más tarde, en un sitio de noticias de terceros, Google mostró un anuncio para un cargo ejecutivo 1,852 veces a hombres y 318 veces a las mujeres.
De forma similar una investigación de la Universidad de Harvard en la que se seleccionaron nombres asociados a personas de raza negra y se ingresaron al buscador de Google, el 90% de los resultados se relacionaron con la palabra "detención". Por el contrario, al buscar nombres como "Emma" o "Geoffrey", atribuidos a personas de raza blanca, las cifras descienden hasta el 23%.
"Incluso si no están diseñados con la intención de discriminar a esos grupos, si se reproducen las preferencias sociales, incluso de una manera completamente racional, también se obtendrán formas de discriminación." dijo David Oppenheimer, profesor de la Universidad de Berkeley, California.
Aunque sería imposible para los seres humanos supervisar cada decisión de un algoritmo realiza, es evidente que las empresas deberían ejecutar periódicamente simulaciones para probar los resultados de sus algoritmos. De hecho, la Federal Trade Commission (Comisión Federal de Comercio) ha advertido contra el uso de grandes volúmenes de datos para discriminar a grupos minoritarios o de bajos ingresos.
Es evidente que el diseño de este tipo de software debe ser cuidado más a detalle para evitar futuros errores. Sin embargo, esta situación sólo da cuenta de nuestro comportamiento como miembros de una sociedad falta de igualdad y respeto.