Tras los rumores que surgieron en las últimas horas, Apple hizo oficial (vía 9to5Mac) una serie de características que pretenden proteger a los menores que usan sus dispositivos. Entre ellas se encuentra la de escanear las fotos del iPhone e iCloud con el objetivo de detectar material de abuso infantil. Por otra parte, se reforzará la seguridad en Mensajes y se ofrecerá información y recursos de ayuda para niños a través de Siri y Búsqueda. Cabe mencionar, eso sí, que toda esta iniciativa iniciará su camino únicamente en Estados Unidos.

Escaneando fotos sin comprometer la privacidad

Apple recurrirá a un complejo sistema de revisión de imágenes que le permitirá identificar material de abuso infantil. Pornografía, por ejemplo. No obstante, los de Cupertino dejan claro que esta iniciativa fue diseñada con la privacidad como eje principal. Antes de que una imagen se suba a iCloud, el iPhone ejecutará un proceso de comparación de imágenes que se realiza de forma completamente local. Es decir, la imagen no se envía a servidores externos para el análisis.

Apple se basa en una serie de métodos criptográficos conocidos como "CSAM Hashes", con los cuales es posible identificar material de abuso infantil sin comprometer la privacidad. Y es que el análisis no se hace sobre la parte visual de la imagen, sino sobre el hash de las mismas. ¿Qué es un hash? Es un bloque de datos generado a partir de otro bloque de entrada. En este caso, la entrada son las imágenes.

Sin entrar en términos demasiado técnicos, el iPhone hará la comparación apoyándose en una base de datos de hashes de material previamente identificado como abuso infantil. Si se encuentra alguna coincidencia, se generará una alerta cifrada que protege el resultado de la comparación. Ni siquiera Apple puede verlo.

Apple Hashes

Ahora bien, si se alcanza un cierto número de coincidencias —no especificaron la cifra—, Apple podrá analizar manualmente el material para verificar que, efectivamente, se tratan de imágenes de abuso infantil. Aquí es importante indicar que esta verificación manual no se hace interviniendo el iPhone o extrayendo las imágenes de manera remota, sino en las fotos que ya se subieron a iCloud. Recordemos que todo este proceso ocurre antes de que la imagen se respalde en la nube.

Apple reforzará la seguridad de Mensajes

En lo que corresponde a Mensajes, cuando un niño menor de 13 años pertenece a una familia en iCloud, habrá medidas reforzadas de seguridad. Por ejemplo, si recibe una imagen sexualmente explícita, se verá borrosa. Si insiste en verla presionando el botón "Ver foto", verá más información de la "censura" y su padre o tutor recibirá una alerta rápidamente. La advertencia será similar al intentar enviar una foto con contenido sexual explícito. Para identificar si el material cumple esas condiciones, Apple usará aprendizaje automático. Las novedades en Mensajes llegarán hasta finales del presente año con futuras actualizaciones de iOS 15, iPadOS 15 y macOS Monterey —en Estados Unidos—.

Para finalizar, Apple quiere que Siri y Búsqueda sean más útiles al momento de proporcionar recursos valiosos para "ayudar a los niños y a los padres a mantenerse seguros en línea y obtener ayuda con situaciones inseguras". Además, agregan que "Siri y Búsqueda también se están actualizando para intervenir cuando los usuarios realizan consultas relacionadas con material de abuso infantil. Estas intervenciones le explicarán a los usuarios lo dañinos y problemáticos que son, y proporcionarán recursos para obtener ayuda con el problema".

One reply on “Es oficial: Apple va a escanear las fotos en el iPhone para detectar material de abuso infantil, pero garantizando tu privacidad”