Ha sido una semana ajetreada para Apple tras dar a conocer sus nuevas medidas para proteger a los menores de edad. El anuncio del escaneo de imágenes subidas a iCloud en busca de pornografía infantil, sumado al refuerzo en la seguridad de Mensajes para menores de edad, no cayó del todo bien entre el público. De hecho, los propios empleados de la firma de Cupertino expresaron su preocupación al respecto. Por eso, en las últimas horas, fue Craig Federighi (vicepresidente de ingeniería de software de Apple) quien trató de echar un poco de luz al asunto.

En una entrevista con The Wall Street Journal, el ejecutivo de Apple hizo foco en dos aspectos. Por un lado, reconoció que dar a conocer las dos medidas en simultáneo fue un error y provocó confusión entre el público; por el otro, ratificó que las nuevas herramientas no ponen en riesgo la privacidad de los usuarios.

"Está realmente claro que muchos mensajes se mezclaron bastante mal en términos de cómo se entendieron las cosas. Desearíamos que esto hubiese salido un poco más claro para todos, porque nos sentimos muy positivos y con fuerza sobre lo que estamos haciendo", indicó Federighi, y agregó: "En retrospectiva, la introducción de estas dos características al mismo tiempo fue una receta para este tipo de confusión".

Las aclaraciones de Apple sobre el escaneo de fotos en iCloud

Photo by Omar Al-Ghosson on Unsplash

Tal como se anunció en un principio, el escaneo de fotos en iCloud en busca de pornografía infantil se basa en "CSAM hashes". Sirviéndose de una base de datos con imágenes de abuso infantil, el método adoptado por Apple emitirá un alerta en caso de encontrar coincidencias. En su diálogo con WSJ, Craig Federighi clarificó bajo qué circunstancias se activará esta herramienta:

Si, y solo si, alcanzas un umbral de alrededor de 30 imágenes de pornografía infantil conocidas que coincidan, entonces Apple sabrá sobre tu cuenta y sobre esas imágenes. Y en ese momento solo sabrá de esas, y no sobre cualquiera de tus otras imágenes.

Esto no es un análisis sobre por qué tenías una foto de tu hijo en la bañera. O, para el caso, si tenías una imagen pornográfica de cualquier otro tipo. Literalmente, esto solo coincide con las fingerprints exactas de imágenes específicas de pornografía infantil conocidas.

Craig Federighi

Otro punto que remarcó el ejecutivo de Apple es que el proceso en búsqueda de coincidencias se realiza directamente en el dispositivo (un iPhone, por ejemplo) y no en los servidores de iCloud, lo que significa una ventaja de seguridad. Además, al ser consultado sobre la posibilidad de que la base de imágenes de pornografía infantil sea alterada, lo descartó enfáticamente.

De acuerdo con la firma de Cupertino, la base de datos se compone por "la intersección de imágenes de múltiples organizaciones de seguridad infantil". Al menos dos de dichas entidades están en jurisdicciones distintas; las mismas, junto a un auditor independiente, se encargarán de verificar qué tipo de material se incluye, según explicó Federighi.

¿Serán suficientes las declaraciones del directivo de Apple para cambiar la percepción negativa del público ante los anuncios recientes? Por lo pronto, los de Cupertino avanzan con su plan. Recordemos que, en días pasados, reconocieron que considerarían ampliarlo para que también sea compatible con apps de terceros.