Apple anunció hace unos días una serie de medidas para proteger a los más pequeños. En concreto, la compañía escaneará las fotos del iPhone que se suban a iCloud para detectar material relacionado con abusos infantiles. Apple insiste en que el escaneo se realizará en local, de manera privada y por un algoritmo, pero a algunos usuarios les preocupa que esta herramienta pueda comprometer la privacidad si los gobiernos hacen un mal uso de ella. Las inquietudes, de hecho, también han llegado a los trabajadores de Apple.

Reuters asegura que algunos empleados de la compañía han estado debatiendo sobre las nuevas medidas en un canal interno de Slack. La aplicación comenzó a utilizarse entre los empleados durante el teletrabajo a causa de la pandemia. Actualmente también sirve, según la citada fuente, como una plataforma para compartir y debatir opiniones.

La mayoría de empleados coinciden en la preocupación de que esta nueva serie de herramientas que protegen a los menores pueda ser explotada por gobiernos que "buscan encontrar otro material para la censura o los arrestos". Otros, además, aseguran que esto va en contra de la intención de Apple de crear un iCloud completamente cifrado.

Apple insiste en que no cederán a las presiones de los gobiernos

Las dudas de los empleados coinciden con la de muchos consumidores y expertos en seguridad. La principal inquietud es que Apple ceda a la presión de los gobiernos para utilizar esta herramienta más allá de la detección de imágenes de abuso infantil. La compañía, sin embargo, ya ha mencionado que rechazará cualquier solicitud de este tipo. Algo que ya han hecho en el pasado con peticiones de algunas administraciones que ponían en peligro la privacidad y seguridad del usuario.

Las nuevas medidas, recordemos, permitirán a Apple escanear las fotos del iPhone e iCloud en busca de material de abuso infantil o contenido relacionado. Para ello, Apple comprobará las imágenes de forma privada y detectará, mediante una serie de algoritmos, coincidencias con aquellas fotografías explícitas de menores que estén registradas en la base de datos del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC).

Si se encuentra material de este tipo en el dispositivo de un usuario, Apple facilitará la información a las autoridades. La compañía, además, también añadirá nuevas opciones en su app Mensajes que servirán para evitar que los más pequeños accedan a contenido explícito.