Google y Bing, los buscadores más importantes del mundo, están priorizando los deepfakes porno no consensuados de celebridades en sus páginas de resultados. Las principales víctimas son mujeres famosas, expuestas en desnudos o escenas sexuales falsificadas, creadas con inteligencia artificial.

La consulta de términos generales como «deepfakes porno» o «desnudos falsos» arroja millones de resultados sobre actrices, cantantes y otras artistas mujeres. Esto ocurre tanto en Google como en Bing. Algunos enlaces direccionan a reconocidos portales pornográficos y otros a sitios que se especializan en la generación de este tipo de contenidos falsos.

NBC News hizo un ejercicio más minucioso: buscó la palabra «deepfakes» junto al nombre de 36 celebridades femeninas. En los principales resultados de Google, encontró deepfakes porno no consensuados con la imagen de 34 de estas mujeres. En Bing, aparecieron fotos y vídeos falsos de 35 de ellas. Más de la mitad de los primeros resultados fueron enlaces a dos portales web que se promocionan como especializados en estos materiales creados con IA.

Sensity, una empresa con sede en Ámsterdam que se dedica a detectar contenido falso, ya advertía en 2019 que el 96 % de los vídeos deepfakes en Internet eran pornográficos. La mayoría tenían como víctimas a mujeres que no dieron su consentimiento. Toda esta violencia se ha potenciado ahora con el lanzamiento de nuevas herramientas de inteligencia artificial.

Google Chrome buscador

Los deepfakes porno, en pleno boom de la inteligencia artificial

La investigación de la NBC denuncia que buscar en Google «desnudos falsos» arroja dentro de sus primeros seis resultados varios enlaces a aplicaciones y programas para crear deepfakes porno. Estas páginas aparecen antes que los artículos que denuncian el daño y peligro de esta tendencia.

Copilot, el chatbot de inteligencia artificial de Microsoft, dijo a una consulta sobre el tema que «el uso de deepfakes no es ético y puede tener graves consecuencias». Sin embargo, Bing también ofrece en sus resultados destacados docenas de aplicaciones para crear deepfakes.

Google permite a las víctimas solicitar la eliminación de estos contenidos de los resultados de búsqueda a través de un formulario. Pero no busca ni elimina deepfakes porno de forma proactiva. «Solo revisamos las URL que usted o su representante autorizado envían en el formulario», dicen en la página de ayuda.

La Play Store de Google prohíbe «apps que promuevan o perpetúen imágenes, vídeos y/o textos demostrablemente engañosos o engañosos». Sin embargo, sigue alojando FaceMagic, una aplicación que llegó a promocionarse directamente como una herramienta para hacer deepfakes porno. 

El contenido que aparece en los principales resultados de búsqueda de imágenes de Bing incluye fotografías falsas explícitas de ex actrices adolescentes de Disney Channel. «Algunas de las imágenes utilizan fotografías de sus rostros que parecían tomadas antes de que cumplieran 18 años», dice el reporte de la NBC.

Microsoft-Bing-scaled IA

¿Qué dicen Google y Microsoft?

«Entendemos lo angustiante que puede ser este contenido para las personas afectadas por él y estamos trabajando activamente para brindar más protección a la Búsqueda», dijo un portavoz de Google a la NBC. La tecnológica explicó que, como cualquier motor de búsqueda, indexan todo el contenido que existe en la web. «Pero diseñamos activamente nuestros sistemas de clasificación para evitar sorprender a las personas con contenido explícito o dañino inesperado que no están buscando», agregaron en un comunicado.

«A medida que este espacio evoluciona, estamos en el proceso de construir salvaguardas más amplias, con un enfoque particular en eliminar la necesidad de que las víctimas conocidas soliciten la eliminación de contenido una por una»

Portavoz de Google.

Microsoft aclaró en agosto del año pasado que considera a la deepfakes porno dentro de su categoría de imágenes íntimas no consensuales (NCII). Al igual que Google, dispone de un formulario para que las víctimas denuncien este tipo de contenidos.

«La distribución de NCII es una grave violación de la privacidad y la dignidad personal con efectos devastadores para las víctimas», dijo un vocero de la compañía. «Microsoft prohíbe NCII en nuestras plataformas y servicios, incluida la solicitud de NCII o la promoción de la producción o redistribución de imágenes íntimas sin el consentimiento de la víctima».

La responsabilidad de frenar esta práctica violenta no queda solo en los buscadores. Pornhub, la página web de pornografía más grande del mundo, estableció desde 2018 que las deepfakes eran porno no consentido. Desde entonces, prohibió este tipo de material. Y en Ciudad de México, por ejemplo, se discute un proyecto de ley que busca castigar hasta con 12 años de prisión a quien genere contenido íntimo falso usando inteligencia artificial. 

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: