Apple continúa resolviendo dudas y ofreciendo información adicional sobre el sistema de detección de imágenes categorizadas como material de abuso sexual e infantil (CSAM, en sus siglas en inglés). Se trata de una medida para proteger a los más pequeños que ha sido foco de polémica por parte muchos usuarios y expertos en seguridad. En concreto, dudan sobre la privacidad de esta herramienta y temen un mal uso por parte de algunos gobiernos. Un nuevo documento detalla algunas novedades del proceso de revisión que desconocíamos hasta ahora.

Apple, recordemos, comprobará las imágenes almacenadas en el iPhone y en iCloud para detectar material relacionado con abusos infantiles. En el nuevo informe, la compañía ha destacado que este proceso se llevará a cabo comparando imágenes almacenadas en las bases de datos de aquellas asociaciones o administraciones que se encargan de luchar contra los abusos infantiles y que no operan bajo el control del mismo gobierno.

"Neural Hash no sabe nada en absoluto acerca de las imágenes CSAM. Es un algoritmo diseñado para responder en el caso de que una imagen sea realmente la misma que otra, incluso si se han aplicado algunas transformaciones que alteran la imagen (como la transcodificación, el cambio de tamaño y el recorte)".

Mención de Apple en el documento.

Apple realizará un proceso manual si se detectan 30 imágenes relacionadas

Por lo tanto, uno de los varios procesos de revisión que la compañía ha detallada en múltiples ocasiones, será realizar una comparativa con las fotografías que están almacenadas en las mencionadas bases de datos. El algoritmo no puede detectar por si solo si una imagen "desconocida" contiene material de abuso sexual infantil. Apple, además, no iniciará un proceso de revisión manual hasta que no se encuentren, al menos, 30 imágenes relacionadas con contenido explícito donde aparezcan menores. Destaca, eso sí, que el número podría ser inferior una vez mejore el sistema.

Adicionalmente, Apple ofrecerá diferentes herramientas para solventar las dudas y preocupaciones de los usuarios. La compañía publicará en su web un documento con la información sobre el hash raíz de la base de datos hash CSAM. Este se actualizará con cada versión de iOS. Apple, además, parece estar facilitando información a los empleados minoristas para que revuelvan las dudas de los clientes que preguntan sobre de esta herramienta.