La IA de Google encargada de revisar las imágenes que los usuarios envían a través de la aplicación de mensajes en Android, y cuyo objetivo es detectar y denunciar aquellos medios multimedia que contienen material de abuso sexual infantil (CSAM), ha bloqueado la cuenta de un padre después de que este tomara una foto de una infección en la ingle de su hijo para enviársela a su médico, según ha denunciado el propio progenitor a The New York Times.

El Padre, llamado Mark, envío la imagen a petición de una enfermera en febrero de 2021. Fecha en la que algunos centros de salud de Estados Unidos mantenían las visitas telemáticas pese a que las restricciones a causa de la pandemia habían disminuido. La enfermera, tras valorar la imagen y realizar una visita a través de videollamada con el adulto, pudo recetar antibióticos destinados a curar la infección. Esta, en concreto, estaba en la zona genital que el pequeño.

Google, en cambio, envío una notificación a Mark dos días después de la captura de la foto. En esta, la compañía advertía de haber detectado "contenido perjudicial" que, además, era "una grave violación de las políticas de Google y podría ser ilegal". Las cuentas del padre se bloquearon de inmediato después del aviso. Google, automáticamente, envío el reporte al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) para su posterior investigación.

Mark asegura a TNY que el bloqueo de su cuenta por parte de Google hizo que perdiera acceso a todos los servicios y plataformas enlazados con su usuario. Entre ellos, a su correo electrónico, contactos, imágenes o, incluso, número de teléfono, pues el padre utilizaba Google Fi, la OMV de la compañía.

El sistema de Google para detectar imágenes de abuso sexual infantil no convence a usuarios y expertos

Google | girl watching behind boy holding smartphone
Foto por Tim Gouw en Unsplash

Mark también fue investigado por la Policía de San Francisco en diciembre de 2021. El caso, sin embargo, se cerró después de que la Policía, con las pruebas presentadas, concluyera que no se cometió ningún delito.

El caso de Mark, no obstante, es una prueba más de los inconvenientes del sistema de detección de abuso infantil que compañías como Google o Apple están utilizando o van a emplear en un futuro. Este, en concreto, funciona mediante un sistema de inteligencia artificial, el cual escanea las imágenes que se envían a través de mensaje para encontrar coincidencias con la base de datos hash del Centro Nacional para Niños Desaparecidos y Explotados. Si se encuentran, un humano revisará esas imágenes para categorizarlas como CSAM, bloquear la cuenta e iniciar la investigación. Ciudadanos y expertos, sin embargo, creen que este método es un atentado a la privacidad de los usuarios.

Google, no obstante, ha asegurado a The Verge que el equipo de expertos encargados de revisar las imágenes también realiza consultas con los pediatras para "identificar casos en los que los usuarios puedan estar buscando asesoramiento médico". La imagen de Mark, en la que se mostraba la infección de su hijo, sin embargo, se reportó directamente a la NCMEC.

Deja un comentario

Deja tu comentario