Instagram ayuda a promover una importante red de usuarios vinculados a la pedofilia. Según una investigación de The Wall Street Journal, la Universidad de Stanford y la Universidad de Massachusetts Amherst, los algoritmos de la red social conectan a consumidores y vendedores de pornografía infantil a través de recomendaciones. La plataforma, además, permitió hasta hace poco el uso de etiquetas explícitas sobre pedofilia.
Los investigadores descubrieron que Instagram, propiedad de Meta, permitía hashtags como #preteensex («sexo preadolescente»). Estos enlazaban con cuentas que anunciaban la venta de material sexual infantil. Los perfiles, a menudo, afirman que son administrados por los propios niños.
El Observatorio de Internet de Stanford usó etiquetas como estas para encontrar 405 vendedores de lo que los investigadores denominaron material de sexo infantil «autogenerado», o cuentas supuestamente administradas por niños mismos. De esas cuentas de vendedores, 112 sumaban 22.000 seguidores únicos. Algunos perfiles decían que pertenecían a niños de solo 12 años.
Los investigadores también crearon usuarios de prueba para evaluar el funcionamiento de los algoritmos. Bastó con que visitaran una sola de estas cuentas para que de inmediato recibieran sugerencias de supuestos vendedores y compradores de pornografía infantil. Siguieron a un puñado de estas recomendaciones con una de las cuentas de prueba y estalló de contenido que sexualiza a menores.
Estas redes de pedofilia en Instagram suelen publicar «menús» de contenido. Algunas invitan a los compradores a encargar actos específicos. También incluyen precios de videos de niños haciéndose daño a sí mismos. Otros proponen «reuniones» en persona.
Cientos de miles de cuentas en Instagram sobre pedofilia
«Que un equipo de tres académicos con acceso limitado pudiera encontrar una red tan grande debería activar las alarmas en Meta», dijo Alex Stamos, jefe del Observatorio de Internet de Stanford y director de seguridad de Meta hasta 2018, a The Wall Street Journal. Explicó que la compañía tiene herramientas mucho más efectivas para identificar su red de pedófilos que las personas externas. «Espero que la empresa reinvierta en investigadores humanos», agregó.
En respuesta a la investigación, Meta reconoció que tiene problemas para regular este tipo de material ilegal y estableció un grupo interno de trabajo. Informó, además, que en los últimos dos años eliminó 27 redes vinculadas a la pedofilia y está organizando más eliminaciones.
Instagram, también como consecuencia de este estudio, bloqueó miles de hashtags que sexualizan a los niños, algunos con millones de publicaciones. Además, explicó que restringió sus sistemas de sugerencias a los usuarios que busquen términos asociados con el abuso sexual infantil.
La venta de pornografía infantil es solo una de las manifestaciones de una red mucho más grande. Otras cuentas en Instagram, por ejemplo, publican habitualmente memes a favor de la pedofilia.
Empleados de Meta que han trabajado en iniciativas de seguridad infantil de Instagram estiman que la cantidad de usuarios que siguen estos contenidos es de cientos de miles, por no decir millones. Un portavoz de Meta dijo que eliminaron 490 mil cuentas por violar sus políticas de seguridad infantil solo en enero de este año.
Instagram, sin embargo, permitió a los usuarios buscar términos que sus propios algoritmos saben que pueden estar asociados con este tipo de material ilegal. Es estos casos, una pantalla emergente advertía: «Estos resultados pueden contener imágenes de abuso sexual infantil». La pantalla ofrecía dos posibilidades: «Obtener recursos» y «Ver resultados de todos modos». Instagram ya eliminó esta última opción, pero no explicó por qué existía.
Twitter, TikTok y otras redes
El equipo de la Universidad de Stanford encontró 128 cuentas que ofrecían vender material de abuso sexual infantil en Twitter. Es menos de un tercio de los usuarios vinculados a la pedofilia encontrados en Instagram. Twitter no recomendó cuentas pedófilas en la misma medida que Instagram y las eliminó mucho más rápido, explicaron los investigadores.
TikTok es una red en la que «este tipo de contenido no parece proliferar», dijo el informe del estudio. Snapchat se usa principalmente para su mensajería directa, una dinámica que no favorece la creación de redes.
«La plataforma más importante para estas redes de compradores y vendedores parece ser Instagram», resaltaron en el informe. Esta red social es una de las más grandes del mundo: tiene más de 1.300 millones de usuarios.
El Centro Nacional para Niños Desaparecidos y Explotados, una organización estadounidense sin fines de lucro, recibió en 2022 un total 31 millones de denuncias de pornografía infantil. Es un 47 % más que lo registrado dos años antes. El 85% de los informes de pornografía infantil presentados al centro tenían que ver con Meta. Del total, 5 millones de denuncias eran sobre Instagram.
Los investigadores también advirtieron que Instagram suele ser el canal hacia otros lugares en Internet donde hay abuso sexual infantil más explícito. La red social dijo que, de acuerdo con sus estadísticas internas, los usuarios ven explotación infantil en menos de una de cada 10 mil publicaciones vistas.
La Unión Europea exige medidas urgentes
La Comisión Europea exigió este jueves al director ejecutivo de Meta, Mark Zuckerberg, «actuar de inmediato» para proteger a los niños en Instagram. «El código voluntario de Meta para la protección infantil parece no funcionar. Ahora, Mark Zuckerberg debe explicarse y actuar de inmediato», dijo en Twitter el comisionado europeo de Mercado Interior, Thierry Breton.
El funcionario dijo que tiene planificado reunirse con Zuckerberg el próximo 23 de junio, en la sede central de Meta en Merlo Park (California, Estados Unidos). Instagram, al igual que otras empresas tecnológicas, fue clasificada en abril como una «plataforma en línea muy grande», de acuerdo con lo dispuesto por la nueva Ley de Servicios Digitales de la Unión Europea. Esto significa que ahora está obligada a informar con mayor transparencia aspectos clave de su funcionamiento interno y garantizar medidas de protección para sus usuarios.
Estas «plataformas grandes» tenían desde entonces cuatro meses para cumplir con las obligaciones de la ley, incluida la primera evaluación anual de riesgos. «Tras el 25 de agosto, bajo la Ley de Servicios Digitales, Meta tendrá que demostrar que toma medidas o enfrentarse a fuertes sanciones», recordó Breton.
La nueva reglamentación establece multas de hasta el 6 % de la facturación global de la compañía. Y, en caso extremo, una suspensión temporal del servicio.