Un hombre negro fue arrestado injustamente gracias al reconocimiento facial. Un reportaje de The New York Times menciona cómo Robert Julian-Borchak Williams, de 42 años, fue víctima del algoritmo en una detención efectuada por la policía de Detroit.
Los hechos ocurrieron en enero de este año, cuando Williams se encontraba en su oficina. El hombre recibió una llamada de la policía para acudir a la estación porque sería arrestado. El Departamento de Policía de Detroit utilizó datos de reconocimiento facial para identificar al ladrón de una boutique.
El sistema arrojó la información de Williams, quien en un principio pensó que era broma. El hombre afroamericano fue arrestado más tarde frente a su casa y llevado a la estación. Los policías le hicieron preguntas respecto al robo de una tienda Shinola, donde el ladrón hurtó cinco relojes.
Al ver las fotos, el acusado se deslindó de inmediato. No solo no había estado en el lugar en la hora y momento indicado, sino que el ladrón ni siquiera se parecía a él. El Departamento de Policía se basó en la evidencia de un video de vigilancia ofrecido por la aseguradora. Con las imágenes, los investigadores usaron un software de la empresa DataWorks para compararlas con una base de datos.
Dos algoritmos asociaron la imagen del ladrón con una licencia de conducir de Williams, aunque especificando que era una simple pista y no causa de arresto. Los investigadores estaban obligados a revisar más evidencia antes de detener al presunto sospechoso, sin embargo, una simple identificación visual les dio luz verde para arrestar, de forma equivocada, a Williams.
Los sistemas de reconocimiento facial no funcionan en mujeres y minorías
El caso de Robert Julian-Borchak Williams parece ser un ejemplo más de los fallos que existen en el sistema de reconocimiento facial en las personas de color. La tecnología, que lleva varios años en uso, solo funciona en hombres blancos. Prueba de esto se documentó en un estudio realizado por el MIT al software utilizado Amazon.
Investigadores descubrieron que Rekognition, tecnología desarrollada por la empresa de Bezos, se desempeña peor al identificar el sexo de un individuo si es mujer o si tiene tez oscura. El software confundió a mujeres con hombres el 19% de las veces, mientras que las de piel oscura fueron identificadas de forma errónea el 31% de las veces.
Meses después, Microsoft se negó a venderle su tecnología de reconocimiento facial a la policía de California por temor a que se cometieran detenciones arbitrarias. La tecnológica dijo que su algoritmo fue entrenado, principalmente, con imágenes de hombres blancos, lo que provocaría que más inocentes fueran detenidos.
A mediados de 2019, la Universidad de Essex auditó los sistemas de detección de sospechosos de la Policía de Londres. El resultado fue escalofriante, ya que la discrepancia en la tasa de fallos podría superar el 80%. La agencia policial utiliza tecnología de NEC, la misma que provee para el Departamento de Policía de Detroit y otras corporaciones del orden en el mundo.
Según el estudio el sistema arroja datos de sospechosos que, en una cifra del orden de 4 de cada 5 ocasiones, corresponde con ciudadanos inocentes.