PimEyes es, en la actualidad, una de las inteligencias artificiales que más peligro representa para la privacidad de cualquier persona. De hecho, podría resultar incluso más perjudicial que la controvertida tecnología de Clearview AI; y es que a diferencia de esta última; PimEyes está diseñada para hurgar en tus más oscuros secretos.

Uno de los apartados más alarmantes de PimEyes es su coste. Por solo 29.99 dólares al mes, puedes buscar en el pasado de cualquier persona. Esta 'herramienta', como la ha denominado su actual dueño, ha sido diseñada específicamente para encontrar resultados en "artículos de noticias, páginas de fotografía de bodas, sitios de reseñas, blogs y sitios de pornografía", reporta el New York Times.

Además, los resultados son extrañamente acertados. Las probabilidades de que encuentres a quien estás buscando son bastante altas. Esto también se suma a su peligrosidad, puesto que, las veces en las que suele equivocarse, suele mostrar resultados de páginas de pornografía. Por obvias razones, puede resultar alarmante a cualquiera que se vea reflejado en dichas imágenes; incluso si acaban siendo reales.

Cómo funciona la Inteligencia Artificial de PimEyes

Fuente: New York TImes

Para buscar en PimEyes, solo necesitas una suscripción y una foto. Con solo subir la imagen, la plataforma hará el resto por ti, escudriñando la web en búsqueda de resultados potencialmente acertados.

El mayor problema es, como ya comentamos anteriormente, los sitios que usa PimEyes para buscar. A diferencia de otras tecnologías de IA como Clearview, esta herramienta no hace sus búsqueda dentro de las redes sociales. De esta forma, no encontrarás contenido publicado en Twitter o Instagram. En su lugar, aparecerán resultados provenientes de noticias, artículos, revistas y, por algún motivo, sitios de pornografía.

Desde el New York Times tienen datos sobre las búsquedas que realizan los usuarios. Por ejemplo, comentan que uno de ellos -el cual pidió explícitamente permanecer anónimo-, "dijo que utilizó la herramienta para encontrar las identidades reales de actrices de películas pornográficas, y para buscar fotos explícitas de sus amigas en Facebook".

No hay que agregar mucho más para señalar los peligros que acarrea una 'herramienta' de este tipo, y mucho más al alcance de cualquiera. De hecho, Clearview AI se vio envuelta en un escándalo por sus intenciones de crear una base de datos reconocible de cualquier ser humano en el planeta. Tan solo imagina si una herramienta como PimEyes pudiese acceder a una colección de este estilo; o incluso organizaciones y compañías con tendencias a violentar la privacidad y los derechos de los usuarios de internet.

Giorgi Gobronidze, académico de 34 años y actual dueño de PimEyes, cree que la plataforma puede usarse para 'el bien'. Según el empresario, esta es tan solo una herramienta que muchas personas podrían usar para mantener un ojo sobre su reputación en internet.

Se supone que los usuarios de PimEyes sólo pueden buscar sus propios rostros o los de las personas que han dado su consentimiento, dijo el Sr. Gobronidze.

New York Times

A las puertas de una distopía

Reconocimiento Facial Clearview

Algo bastante común que se suele leer al hablar de reconocimiento facial es, por supuesto, las probabilidades de perder el derecho al anonimato. Con esta tecnología esta premisa se vuelve cada vez más seria. No es ser simplemente alarmista sin motivos, es reconocer que PimEyes cuenta con una tecnología que podría ser explotada por personas con intenciones dudosas.

Desde gobiernos autoritarios, hasta delincuentes buscando extorsionar. PimEyes es la receta perfecta para comenzar el desarrollo de una distopía digna de Orwell -al riesgo de sonar conspiranoicos-, y si lo combinamos con herramientas de reconocimiento facial como las de Clearview AI, muchísimo más.

Pero esto no es todo. Si deseas poner en práctica tu derecho al anonimato en PimEyes, tendrás que desembolsar una suma bastante alta. Esta práctica fue clasificada como "extorsión" por parte de una de sus usuarias, quien se vio gravemente afectada por los resultados expuestos en la herramienta.

El caso de Ms. Scarlett

Reconocimiento Facial

Cher Scarlett, ingeniera en computación, fue una de las víctimas de PimEyes. Durante uno de sus paseos por internet, la mujer decidió darle una oportunidad a la herramienta de reconocimiento facial y ver qué podía encontrar en la web acerca de su pasado. El resultado fue algo que no se habría esperado.

Entre las páginas de PimEyes, Scarlett encontró algo de su pasado que habría preferido olvidar. Con 19 años, la ingeniera decidió darle una oportunidad a la industria de la pornografía debido a su situación económica en el momento. Después de una terrible entrevista, Scarlett desechó la idea; pero parece que ese no fue el fin de la historia.

Allí estaba, frente a su pantalla, el trauma que le había tomado décadas enterrar. Además, no solo eran las imágenes. También se podía encontrar los enlaces que llevaban a cualquiera a descubrir dónde se encontraban alojadas las fotos. Por supuesto, junto a estas imágenes explícitas, también coexistían otras fotos y retratos de la mujer, quien había aparecido en los medios debido a una revuelta de empleados que lideró en las oficinas de Apple.

"Excluir de resultados públicos", fue uno de los botones que encontró Cher Scarlett cuando, desesperadamente, intentaba eliminar la imagen de la web. Aliviada, decidió probar suerte y tocarlo, quizá así desaparecería por completo de los resultados y su imagen no se vería comprometida.

Lamentablemente, así no es como funciona PimEyes. Scarlett lo descubrió por las malas, viendo cómo la web ofrecía una invitación a suscribirse al servicio PROtect, con un coste que oscila desde los 89.99 dólares, hasta los 299.99 dólares al mes. Desembolsando esta suma era la única forma de hacer que el resultado desapareciera de la página.

PimEyes cuenta con decenas de miles de suscriptores, según el Sr. Gobronidze, y la mayoría de los visitantes del sitio proceden de Estados Unidos y Europa. La mayor parte de su dinero procede de los suscriptores de su servicio PROtect, que incluye la ayuda del personal de apoyo de PimEyes para retirar las fotos de sitios externos.

NYT

Una IA de reconocimiento facial que puede volverse en tu contra

Derecho al anonimato IA

Clearview AI se ha estado enfrentando a serias consecuencias en Estados Unidos, Europa y Australia. De hecho, ciertos países del viejo contintente la han catalogado de ser "ilegal", y en regiones como el Reino Unido han exigido que la compañía elimine a todos sus residentes de su base de datos.

Ahora, parece que Clearview ha conseguido competencia. PimEyes podría convertirse en la siguiente víctima de estos organismos, y con justa razón. De hecho, en 2021 las investigaciones contra esta plataforma comenzaron desde la agencia de protección de datos en Alemania. Aunque la investigación continúa, podría acabar bastante mal para PimEyes.

Está claro que las regulaciones alrededor de la inteligencia artificial y la tecnología de reconocimiento facial tienen que endurecerse. De no hacerlo, podríamos acabar con la -ya de por sí- poca privacidad de los usuarios. Después de todo, cada día millones de personas publican todo tipo de imágenes e información en internet. Incluso peor, hay personas que lo hacen por ellos, y al desconocimiento de las víctimas.

Por supuesto, los usuarios también deben educarse sobre el tema y limitar los detalles que ofrecen en la web. Pero, como organismos mundiales, los gobiernos también tienen obligaciones bastante importantes en esta materia. De hecho, su participación es la más crucial de todas.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: