Apple podría empezar a escanear las de fotos almacenadas en el iPhone en búsqueda de imágenes de abuso infantil al tiempo que mantendría la seguridad y la privacidad de los usuarios, según un reporte.

El especialista en criptografía Matthew Green señala que la herramienta de Apple utilizaría un sistema de hashes para detectar material ilegal y se ejecutará del lado del cliente, es decir, localmente en el iPhone.

Precisamente, los hashes son funciones criptográficas que permiten comparar archivos sin abrirlos. Se trata, básicamente, de bloques de números y letras indescifrables que brindan un valor único para cada documento.

Con el objetivo de proteger la privacidad de los usuarios, Apple podría comparar los hashes de las fotos del iPhone con los de una base de datos de contenido ilegal previamente identificado.

En este sentido, en caso que se encuentren coincidencias en los hashes, la compañía de Cupertino podría detectar imágenes de abuso infantil, sin comprometer la privacidad. Sin embargo, Green señala que el algoritmo podría dar falsos positivos.

No obstante, la tarea de Apple no finalizaría allí. Las imágenes coincidentes se marcarían para una posterior revisión humana. En este paso, una persona sí abriría el archivo para corroborar sí se trata efectivamente de contenido ilegal.

Una herramienta conocida para Apple

Apple iPhone Locked
Foto por Franck en Unsplash

Esta herramienta, revelada por el especialista de la Universidad Jon Hopkins, no es nueva para Apple. Desde hace tiempo que la compañía monitorea automáticamente los correos electrónicos de iCloud en búsqueda de contenido ilegal.

Bajo el mismo sistema de hashes, la compañía es capaz de identificar fotos de abuso infantil. En caso de una detección positiva, la firma es la encargada de hacer un reporte a las autoridades competentes.

9To5Mac señala que, si bien los archivos almacenados en iCloud están cifrados, Apple, al igual que otras compañías, cuenta con las claves de descifrado. En ese sentido, si las fuerzas del orden se lo solicitan, la compañía podría brindar acceso a todas las fotos.

Green advierte que este tipo de sistemas pueden ser muy valiosos para detectar pornografía infantil, pero también pueden ser peligrosos a los ojos de un gobierno autoritario. Como resultado, se podrían ejecutar acciones de vigilancia y persecución antidemocrática.

Incluso predice que el panorama podrían complicarse aún más si en el futuro se agrega la posibilidad de escanear los contenidos enviados a través de comunicaciones encriptadas punto a punto (E2E) como iMessage y WhatsApp. No obstante, según los reportes, esto último no está actualmente en los planes de Apple.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: