Apple ha decidido retrasar el lanzamiento de las polémicas medidas de protección infantil. La compañía ha confirmado que se "tomarán un tiempo" para recopilar información y mejorar esta característica antes de que se lance al público.

"Sobre la base de los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos un tiempo adicional en los próximos meses para recopilar información y hacer mejoras antes de lanzar estas características de seguridad infantil de importancia crítica". Confirma la compañía en un comunicado (vía iMore).

Apple, recordemos, anunció una serie de herramientas que pretendían proteger a los menores de edad que usan sus dispositivos. Una de estas medidas es la de escanear las imágenes de los iPhone —y también aquellas publicadas en iCloud— con el objetivo de detectar material de abuso infantil.

El sistema de revisión de imágenes basado se encargará de inspeccionar las fotografías que coincidan con aquellas almacenadas en las bases de datos de asociaciones que protegen al menor. Sin embargo, ha sido criticado por una gran cantidad de usuarios y expertos en la privacidad.

En concreto, preocupa que Apple ceda ante las presiones de los gobiernos con el fin de que utilicen esta herramienta como algo que va más allá de la detección de imágenes de abuso infantil. De hecho, hasta los empleados de Apple mostraron su preocupación por estas nuevas medidas.

Apple insiste en que las nuevas medidas no suponen un riesgo para la privacidad

Apple / Podrás encontrar tu iPhone apagado con iOS 15

Finalmente, Craig Federighi, vicepresidente de ingeniería de software de Apple, admitió el error de comunicación a la hora de anunciar las dos nuevas medidas de protección infantil. Destacando, además, que las herramientas no supondrán un riesgo de privacidad para los usuarios.

En un documento, la compañía menciona que "Neural Hash", el algoritmo de detección de imágenes, no es capaz de detectar fotografías CSAM por si solo. Sino que respondía en el caso de que una imagen sea realmente la misma que otra.

En este caso, la comparación se hará con las imágenes de abuso infantil almacenadas en las bases de datos de asociaciones o administraciones encargadas de luchar contra el abuso infantil. El proceso de revisión manual, además, no se iniciará a no ser que el algoritmo haya detectado más de 30 imágenes categorizadas como CSAM.

Por el momento, se desconoce cuándo comenzarán a implementarse las nuevas herramientas, que llegaran primero a Estados Unidos.