Las nuevas medidas de protección infantil de Apple han provocado sentimientos encontrados en el público. Por un lado, nadie se opone a la existencia de herramientas que combatan el acoso y la pornografía infantil. Sin embargo, los métodos que se pretenden aplicar sí han sido criticados por considerar que representan un potencial peligro para la privacidad de los usuarios, y que abrirían la puerta al espionaje masivo.

En las últimas horas una coalición internacional conformada por organizaciones de la sociedad civil envió una carta a Apple para que abandone sus planes. La misiva fue dirigida a Tim Cook, CEO de la compañía californiana, y lleva la firma de 91 entidades de todo el mundo.

Como indica Reuters, la campaña fue organizada por el Center for Democracy & Technology de Estados Unidos. En su sitio web se explica por qué los firmantes se oponen a la implementación de las nuevas características.

Argumentan que, si bien se pensaron para proteger a los menores de edad y reducir la propagación de material de abuso sexual infantil (CSAM, por sus siglas en ingles), "crearán nuevos riesgos para los niños y podrían usarse para censurar el discurso y amenazar la privacidad y seguridad de las personas alrededor del mundo".

La carta enviada a Apple cuenta con el aval de organizaciones como la Electronic Frontier Foundation, The Tor Project, Eticas Foundation (España), Fundación Karisma (Colombia), R3D: Red en Defensa de los Derechos Digitales (México), y la Asociación por los Derechos Civiles (Argentina), entre muchas otras.

Las medidas de protección infantil de Apple

Photo by McKaela Taylor on Unsplash

En el anuncio del pasado 5 de agosto, Apple introdujo dos nuevas características de protección infantil. Una de ellas consiste en el escaneo de las imágenes que se suben a iCloud en busca de material relacionado al abuso sexual de menores de edad. El proceso consiste en el uso de "CSAM hashes"; con la implementación de métodos criptográficos, la compañía se propone rastrear las imágenes a partir de una base de datos específica creada por organizaciones de seguridad infantil.

Los de Cupertino aseguran que el proceso es completamente privado, y que se realiza directamente en el dispositivo y no en los servidores de iCloud. Además, se deben dar alrededor de 30 coincidencias para que se emita una alarma cifrada y se realice un procedimiento de revisión manual.

La otra utilidad está relacionado a Mensajes y tiene como fin evitar que menores de 13 años reciban imágenes con contenido sexual explícito en sus cuentas familiares. Para ello, Apple pretende utilizar aprendizaje automático. Así, al detectar las fotografías en cuestión las mostraría borrosas y los usuarios tendrían que acceder manualmente a ellas. En caso de hacerlo, se enviará una alerta a sus padres o tutores. Una advertencia similar se presentará si los niños tratan de enviar el mismo tipo de material.

¿Qué argumentan las organizaciones civiles?

En el caso del escaneo de imágenes que se suben a iCloud, aseguran que los gobiernos presionarán a Apple cuando lo incorpore a sus dispositivos. Así, este método podría utilizarse para buscar otro tipo de imágenes que no correspondan al abuso sexual infantil.

"Esas imágenes pueden ser de abusos a los derechos humanos, protestas políticas, imágenes que las empresas han etiquetado como 'terroristas' o de violencia extremista, o incluso imágenes poco halagadoras de los mismos políticos que presionarán a la empresa para que las busque", indican. Además, estiman que dicha imposición podría recaer sobre todas las imágenes almacenadas en un dispositivo, y no solamente en las que se cargan en la nube.

En cuanto al sistema de escaneo y alerta en Mensajes, también hay quejas. En primer lugar aseguran que los algoritmos para detectar material sexual explícito no son confiables. Pero también ponen la lupa sobre los casos en los que no existe una "relación saludable" entre los menores y sus padres o tutores. "Un adulto abusivo puede ser el organizador de la cuenta, y las consecuencias de la notificación parental podrían amenazar la seguridad y el bienestar del niño. Los jóvenes LGBTQ+ en cuentas familiares con padres poco comprensivos están particularmente en riesgo", aseveran.

En el cierre de la carta, la coalición urge a la firma de Cupertino a abandonar estos planes y ratificar su compromiso con la privacidad:

Apoyamos los esfuerzos para proteger a los niños y nos oponemos firmemente a la proliferación del material de abuso sexual infantil. Pero los cambios que Apple ha anunciado ponen en riesgo a los niños y al resto de usuarios, tanto ahora como en el futuro. Instamos a Apple a que abandone esos cambios y reafirme el compromiso de la empresa de proteger a sus usuarios con cifrado de extremo a extremo. También insistimos a Apple que consulte con más frecuencia a los grupos de la sociedad civil y a las comunidades vulnerables que pueden verse afectadas de manera desproporcionada por los cambios en sus productos y servicios.

Críticas y preocupación interna

Foto por Laurenz Heymann en Unsplash

Desde que se conocieron sus nuevas medidas de protección infantil, Apple se ha enfrentado a muchas expresiones de preocupación. Las mismas no solamente han sido externas, sino también de sus propios empleados.

Además, la propia compañía admitió que el anuncio no fue lo suficientemente claro para evitar dudas de este tipo. Craig Federighi, vicepresidente de ingeniería de software de Apple, reconoció que fue un error dar a conocer las dos características en simultáneo. "Está realmente claro que muchos mensajes se mezclaron bastante mal en términos de cómo se entendieron las cosas. Desearíamos que esto hubiese salido un poco más claro para todos", manifestó a The Wall Street Journal. Poco después, la firma californiana divulgó un nuevo documento aclaratorio sobre el funcionamiento de ambas herramientas.

Por el momento, Apple no se ha pronunciado públicamente sobre la carta recibida de parte de las organizaciones de la sociedad civil. De todos modos, desde Cupertino ya han manifestado que confían en que sus herramientas son lo suficientemente fuertes como para no ser doblegadas. Estaremos atentos a las novedades.