A fines de 2022, Apple canceló su iniciativa para detectar fotos de abuso sexual infantil almacenadas en iCloud. Desde su anuncio, el plan generó gran controversia debido a que, pese a sus buenas intenciones, podía derivar en una problemática de privacidad inimaginable. Y si bien los de Cupertino se mantuvieron apegados a su estrategia inicial pese a las críticas del público y de decenas de organizaciones civiles, terminaron echando todo por la borda sin dar mayores explicaciones. Hasta ahora.

Por primera vez, Apple precisó por qué dio de baja la iniciativa para escanear fotos guardadas en iCloud en busca de material de abuso infantil. Erik Neuenschwander, vicepresidente de privacidad de los usuarios y seguridad infantil de la firma californiana, lo detalló en una carta enviada a Sarah Gardner, CEO de Heat Initiative, un grupo de seguridad infantil (vía WIRED).

En principio, Gardner envió un correo electrónico a Tim Cook y otros directivos de Apple manifestando su descontento por el retraso inicial y la posterior cancelación del plan para detectar fotos de abuso infantil en sus dispositivos y servicios en la nube. Además, les informó que su agrupación iniciaría una campaña para presionarlos públicamente para implementar un sistema que sirva para detectar, reportar y eliminar pornografía infantil almacenada en iCloud. Como también para impulsar la creación de un mecanismo que permita a los usuarios de sus productos reportar la existencia de este tipo de material.

La respuesta de Neuenschwander al reclamo es muy interesante. El ejecutivo reconoció abiertamente que Apple no logró dilucidar los aspectos técnicos necesarios para desarrollar un sistema de detección de fotos de abuso infantil que fuera efectivo, pero que no comprometiera la privacidad de los usuarios.

Apple consultó con expertos en tecnología, seguridad y derechos humanos, y estudió la tecnología de escaneo "desde todo ángulo virtualmente posible". Y la conclusión fue contundente: lo que se pretendía lograr era imposible sin hacer concesiones en materia de privacidad.

Apple y la cancelación de su iniciativa para detectar fotos de abuso infantil en iCloud

Apple y la cancelación de su iniciativa para detectar fotos de abuso infantil en iCloud
Photo by Tim Gouw on Unsplash

En el correo electrónico enviado a la líder de Heat Initiative, Neuenschwander remarca que la pornografía infantil es aborrecible, y enumera las múltiples medidas que Apple ha tomado para proteger a los menores que usan sus dispositivos. No obstante, luego procede a detallar por qué se optó por cancelar la iniciativa para detectar este tipo de material en iCloud.

"Las empresas utilizan habitualmente el escaneo de datos personales en la nube para monetizar la información de sus usuarios. Si bien algunas compañías han justificado esas prácticas, nosotros hemos elegido un camino muy diferente: uno que prioriza la seguridad y la privacidad de nuestros usuarios. Estimamos que escanear el contenido de iCloud almacenado de forma privada por cada usuario plantearía graves consecuencias no deseadas para ellos. [...] Escanear la información almacenada de forma privada en iCloud crearía nuevos vectores de amenazas que los ladrones de datos podrían encontrar y explotar.

También inyectaría la posibilidad de una pendiente resbaladiza de consecuencias no deseadas. La búsqueda de un tipo de contenido, por ejemplo, abriría la puerta a la vigilancia masiva y podría crear el deseo de analizar otros sistemas de mensajería cifrada en busca de otras categorías y tipos de contenido (como imágenes, vídeos, texto o audio). ¿Cómo pueden estar seguros los usuarios de que una herramienta para un tipo de vigilancia no ha sido reconfigurada para vigilar otro contenido como actividad política o persecución religiosa? Las herramientas de vigilancia masiva tienen implicaciones negativas generalizadas para la libertad de expresión y, por extensión, para la democracia en su conjunto. Además, diseñar esta tecnología para un gobierno podría requerir aplicaciones para otros países con nuevos tipos de datos.

Los sistemas de escaneo tampoco son infalibles, y hay evidencia documentada de otras plataformas en las que personas inocentes han sido arrastradas a redes distópicas que las han convertido en víctimas cuando no han hecho más que compartir fotografías perfectamente normales y apropiadas de sus bebés".

Fragmento del e-mail enviado por Erik Neuenschwander a Sarah Gardner.

No es usual que Apple hable abiertamente de decisiones sobre sus estrategias de productos o servicios, pero es evidente que su iniciativa para detectar fotos de abuso infantil en iCloud lo ameritaba. También es probable que el mensaje de Neuenschwander no haya sido pensado para su divulgación pública. Aunque al menos brinda un panorama más claro sobre qué pusieron en la balanza los de la manzana al lidiar con esta historia.

Uno de los planes más controversiales de Apple

iCloud

Recordemos que, en un principio, Apple se mantuvo firme en su decisión de escanear dispositivos como un iPhone en busca de fotos de abuso infantil. De hecho, Craig Federighi, el vicepresidente de ingeniería de software de la compañía, reconoció que el anuncio había generado confusión. Y hasta intentó explicar el enfoque que estaba tomando la empresa para preservar la privacidad de los usuarios.

En su momento, el ejecutivo mencionó que el sistema se basaría en CSAM Hashes. ¿Esto qué significaba? Que Apple utilizaría una base de datos de fotos de abuso sexual infantil creada por entidades de protección a menores y auditada de forma independiente. La tecnología a implementar emitiría una alarma solamente cuando se detectara un determinado número de coincidencias.

"Si, y solo si, alcanzas un umbral de alrededor de 30 fotos de pornografía infantil conocidas que coincidan, entonces Apple sabrá sobre tu cuenta y sobre ellas. Y en ese momento solo sabrá de esas, y no sobre cualquiera de tus otras imágenes. Esto no es un análisis sobre por qué tenías una fotografía de tu hijo en la bañera. O, si viene al caso, si tenías una imagen pornográfica de cualquier otro tipo. Literalmente, esto solo coincide con las huellas dactilares exactas de imágenes específicas de pornografía infantil conocidas", explicó Federighi a The Wall Street Journal en agosto de 2021.

Pese a aquella férrea postura inicial, Apple concluyó que no había forma de garantizar la privacidad en la búsqueda de fotos de abuso infantil. Ni siquiera si el procesamiento de la información se hacía, por ejemplo, dentro de un iPhone, y no en los servidores de iCloud.

Con la explicación de Neuenschwander, ahora al menos tenemos datos más precisos sobre esta historia. No olvidemos, de todos modos, que Apple ha continuado trabajando para mejorar la protección de los menores que utilizan sus dispositivos. Uno de los casos más notorios es el de las alertas de desnudez para las imágenes que se envían por iMessage.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: