Los sistemas de reconocimiento facial ganan popularidad entre los servicios de seguridad de todo el mundo. Más presentes en China, algunos departamentos de policía occidentales también se han interesado en estos sistemas. Es el caso de Londres, que cuenta desde hace años con muchas más cámaras de las que pueden revisar a tiempo real y se relegan a su revisión como prueba testimonial.

Con la llegada de algoritmos de inteligencia artificial más modernos y potentes, esto está cambiando recientemente, ya que prometen ser capaces de detectar cuando los individuos bajo su campo visual están realizando actividades sospechosas e identificarlos. Al menos, en teoría.

Identificación automática, en teoría

Según cuentan en Sky News, en la capital inglesa vienen testeando sistemas de detección basados en machine learning desde al menos 2016. El sistema en cuestión, llamado Neoface, está proporcionado por una empresa japonesa, NEC.

Tras encargar a académicos de la Universidad de Essex, en Reino Unido, a que revisaran la precisión de estos sistemas, la Policía de Londres descubrió que era impreciso en el 81% de los casos. De las 42 correspondencias que arrojaba el sistema, solo ocho encajaban con las caras que estaban buscando.

Este sistema está por tanto arrojando datos de sospechosos que, en una cifra del orden de 4 de cada 5 ocasiones, se corresponden con ciudadanos inocentes o lo que es peor: inexistentes. En cuatro de las coincidencias detectadas por el sistema, nunca se pudo obtener una correspondencia final con un individuo real, pues estos falsos positivos perdían entre la multitud.

La policía, en cambio, alega que el ratio de error bajaría a tan solo una de cada mil reconocimientas. Para ello, utiliza una métrica distinta: el número de veces que asocia una cara cualquiera correctamente con el individuo al que corresponde. El informe publicado afirma finalmente que es "altamente probable" que el uso de este sistema sea considerado ilegal ante una reclamación en los tribunales.