Apple ha comenzado a desplegar globalmente una de las herramientas que anunció el pasado año para garantizar la protección de aquellos menores de 13 años que utilizan un iPhone, iPad o Mac. La compañía, en concreto, ha activado en Reino Unido, Canadá, Australia y Nueva Zelanda, las alertas de desnudez en Mensajes, función también conocida como "seguridad de comunicación en Mensajes", que pretende evitar que los más pequeños pueda ver imágenes explícitas que recibe a través del servicio de mensajería.

Esta herramienta, que debe activarse de forma manual a través de los ajustes, realiza un escaneo de las fotografías que se envían a través de la app Mensajes con el objetivo de detectar desnudez o cualquier otro tipo de contenido sexual explícito. Todo ello, eso sí, conservando el cifrado de extremo a extremo de los archivos multimedia. Si el sistema detecta que una imagen es explícita porque contiene un desnudo o cualquier otro tipo de actividad sexual, la desenfocará y mostrará en el chat un mensaje advirtiendo que la imagen puede ser sensible.

Mensajes utiliza el aprendizaje automático en el dispositivo para analizar los archivos adjuntos de imágenes y determinar si una foto parece contener desnudez. La función está diseñada para que Apple no tenga acceso a las fotos.

Apple.

Apple propondrá una serie de medidas a los menores que reciben imágenes explícitas

La app, además, permitirá al usuario escoger entre escribir un mensaje a un contacto adulto para alertar que ha recibido una imagen de carácter sensible o bloquear al contacto. También mostrará un acceso directo a "otras formas de buscar ayuda". En este último caso, Apple redirigirá al usuario a una web con recursos y consejos para no continuar con la conversación.

Si el usuario finalmente decide escoger ver la fotografía, la app Mensajes alertará de nuevo sobre el tipo de contenido que puede tratar la imagen. Ofrecerá, además, la posibilidad de ignorarla o contactar con un adulto.

Apple, por otro lado, también ha comenzado a activar una función adicional de protección infantil. En este caso, destinado a las búsquedas de las búsquedas Spotlight, Siri y Safari, según The Verge. Cuando un usuario acceda a uno de estos tres servicios para buscar temas relacionados con el abuso sexual infantil, los resultados que se mostrarán ofrecerán contenido y recursos de seguridad.

Mientras tanto, la función de CSAM continúa sin estar disponible. Esta herramienta, recordemos, escanea las fotografías de los iPhone antes de que se suban a iCloud para detectar material sexual infantil. Apple terminó retrasando su lanzamiento a causa de las múltiples preocupaciones de usuarios y expertos en seguridad y privacidad.