Imagina que en medio de los tediosos controles de los aeropuertos, un lector biométrico te permitiera entrar sin necesidad de pasaporte ni tarjeta de embarque. También que en una concurrida estación de autobuses, tras una sospecha de atentado, un sistema de cámaras de vigilancia pudiera detectar en un momento dado los rostros de los pasajeros por si alguno de ellos tienen antecedentes. Que por supuesto, la Policía también tenga acceso a programas de reconocimiento facial para atajar crímenes o seguir a delincuentes en las calles de las ciudades. Y, por último, que cuando tomes una bici o una moto de alquiler en uno de los muchos sistemas de sharing, la empresa prestadora pueda cobrarte más o menos si a través de tu rostro te tiene fichado como un usuario un tanto irresponsable o uno modélico.
Pues bien, como imaginarás, todo esto ya está ocurriendo.
La tecnología de reconocimiento facial se lleva usando desde hace varias décadas, pero ha sido en los últimos años cuando ha tomado la calle por medio de aplicaciones que actúan en nuestro día a día. Desde JetBlue, aerolínea americana de bajo coste que está implantando el reconocimiento facial para acceder a sus vuelos en Estados Unidos -algo que también está probando ya Aena en España-, pasando por varios cuerpos de Policía norteamericanos que usan Rekognition, software de Amazon, para chequear la cara de posibles delincuentes, hasta China, donde el reconocimiento facial se ha implantado desde los usos más comunes -como entrar al metro- hasta levantar polémicas sobre seguimiento a minorías étnicas.
Un compendio de aplicaciones que seguramente hagan nuestra vida más cómoda -imagina pasar los estresantes embarques del aeropuerto por la cara-, posiblemente más segura -ayudando a los cuerpos de seguridad a reconocer y seguir criminales- pero todo ello a cambio de una cesión tan vasta de nuestra privacidad e imagen como es nuestro rostro.
Este particular choque entre qué estamos dispuestos a dar y a cambio de qué ya tiene sus primeros campos de batalla. En San Francisco, el gobierno de la ciudad cuna de la innovación tecnológica prohibió el pasado mes de mayo el uso de sistemas de reconocimiento por parte de la Policía después de que varios estudios señalaran que los software tienen especiales problemas a la hora de diferenciar los rostros de mujeres y de personas negras. En Gales, un vecino inició con éxito un pleito judicial contra la Policía al entender que no es lícito que se capture su rostro en las miles de cámaras de seguridad que hay en la calle.
Pero en esta especie de parábola a lo Gran Hermano de Orwell las cosas no son o blanco o negro. A favor de los sistemas de reconocimiento facial está por ejemplo la experiencia de La India, donde se ha conseguido encontrar a más de 3.000 niños desaparecidos gracias a su uso. O las cuentas que echan las aerolíneas, que dicen que los vuelos que cuentan con controles biométricos cumplen mejor con los horarios y registran menos incidentes. Como hemos dicho, comodidad, seguridad y privacidad están ahora mismo echando un pulso por tu cara.
Los problemas: sesgos raciales y la 'distopía' de China
China es el país donde como decimos más insertada está ya la tecnología de reconocimiento facial, y donde seguramente se esté viendo también su perfil más perverso. Con multitud de sistemas conectados, y pruebas para dotar a la Policía de gafas que incorporan también la tecnología, son varias las organizaciones a favor de los derechos humanos que aseguran que en el gigante asiático también se está valiendo de ella para perseguir minorías.
En concreto, en la provincia occidental de Xinjiang, donde desde hace décadas viven oprimidos la etnia de los uigures, un pueblo islámico que en distintas etapas ha reclamado la independencia del territorio que habitan. China se escuda en el uso de esta tecnología para prevenir ataques terroristas, pero las acusaciones de persecución están ahí.
En Pekín también se está experimentando con lo que se ha llamado un sistema de 'crédito social', donde por medio de diferentes sistemas biométricos se podría contar con una base de datos para poner una 'nota' a un ciudadano en función de sus multas, delitos o conducta que después se pueda tener en cuenta para aplicarle recargos o descuentos al contratar algún servicio público. Si te recuerda en algo al capítulo Nosedive de Black Mirror, es porque es así. Sesame Credit, perteneciente a Alibaba, sería una de las primeras empresas que están trabajando en estas bases de datos por si algún día acaban de tocar tierra.
Pero fuera de China también el reconocimiento facial ha traído problemas, y tiene mucho que ver con otros fallos que también se acusan a algoritmos y otras nuevas tecnologías: la brecha que muchas veces impone entre las personas de distintas razas y género.
Hay varios estudios que ya han investigado esto. El año pasado uno impulsado por el MIT puso a prueba los sistemas de IBM, Microsoft y Face ++ -esta última una empresa China-, concluyendo que tenían un índice de error de hasta un 34,4% más alto para las mujeres de piel más oscura que para los hombres de piel más clara a la hora de reconocer sus rostros. La Unión Estadounidense por las Libertades Civiles (ACLU por sus siglas en inglés), un think-tank con sede en California, también encontró que Rekognition de Amazon tenía más probabilidades de identificar erróneamente a los miembros del Congreso que no eran blancos que a los que sí lo eran.
De forma más reciente, un nuevo estudio que comparaba las habituales fotografías para sus fichas de los jugadores de la NBA también sacó como conclusión que catalogaba con mucha más facilidad a los jugadores blancos como sonrientes y a los de raza negra como iracundos, a pesar de que en estas fotos los jugadores siempre tienden a mostrarse risueños.
Algunos desarrolladores aseguran que estos supuestos sesgos se deben exclusivamente a que los sistemas no cuentan todavía con una base de datos lo suficientemente amplia de personas de etnias minoritarias, y que es simplemente una cuestión de entrenamiento.
Mientras, también se ha criticado a algunas de las empresas prestadoras por cómo han introducido el software en el día a día de organismos públicos. Amazon, por ejemplo, vendió sus sitema Rekognition a varios cuerpos de policía de Oregón dentro de un paquete mucho más amplio de servicios en la nube. Es decir, como si fuera un añadido a otros productos sí requeridos, y no el principal.
En busca de la regulación
Con todo, parece que como en otras tantas cosas el problema no es desde luego la herramienta sino el uso que se le dé. Ahora mismo existe cierto vacío legal en cuanto a normativas sobre reconocimiento facial. En Estados Unidos, por ejemplo, cada policía ha ido proveyéndose de sus propios reglamentos.
Los gigantes tecnológicos que están implicado en su desarrollo también se han posicionado. En el estado de Washington, hogar de Microsoft y Amazon.com Inc, la compañía fundada por Bill Gates respaldó un proyecto de ley que habría requerido avisos visibles en lugares públicos donde se estaba utilizando el reconocimiento facial. Otro proyecto de ley, con la oposición de la empresa, habría prohibido su uso por parte del gobierno a menos que los funcionarios demuestren que la tecnología no conduciría a la discriminación. Amazon se opuso a ambas medidas, ninguna de las cuales llegó a aprobarse.
En Europa por otra parte el Parlamento Europeo ha aprobado la creación de una base de datos biométricos de la huella dactilar o de la cara del usuario de los más de 500 millones de habitantes de la UE. Esta información estará disponible para las fuerzas de seguridad, incluidas las responsables de los pasos fronterizos de los países miembros.
El quid de la cuestión es sin embargo qué se hace con nuestra imagen y con qué bases de datos se compara. En Estados Unidos las fotos de los viajeros extranjeros que participan en los controles biométricos de los proyectos pilotos que hay actualmente se mantienen durante 14 días, para después ser destruidas.
Mientras, voces como James O'Neill, comisario de la Policía de Nueva York, defendía hace unas semanas en The New York Times la seguridad y conveniencia de estos sistemas. “Nunca se compara una imagen captada por una cámara con fotos de Facebook u otras bases de datos, solo con los archivos de detenciones de la policía”, explicaba, aportando que en 2018, los agentes hicieron 7.024 solicitudes a la Sección de Identificación Facial de dicho cuerpo, y en 1.851 casos se devolvieron posibles coincidencias, lo que llevó a 998 arrestos que siempre pasaron varios filtros humanos. No es la máquina, ni mucho menos, quien decide que alguien es sospechoso.