TikTok está siendo el centro de debate para el Centro para Contrarrestar el Odio Digital (CCDH). Según una investigación de la organización, el algoritmo de la red social de moda entre los más jóvenes, estaría recomendando contenido relacionado con trastornos alimenticios y autolesiones a los más jóvenes de la plataforma una vez se interesan por la primera sugerencia.

Según el CCDH, este contenido se muestra, incluso, a las cuentas que se registran por debajo de la mayoría de edad. Para ello, la organización inició una investigación con cuentas en Estados Unidos, Reino Unido, Canadá y Australia. En todas las regiones, la cuenta estaba catalogada con una edad de 13 años. Por un lado, la edad mínima que se permite en TikTok y, por otro, el grupo más vulnerable a los contenidos de las redes sociales.

Para la investigación, se crearon varios modelos de cuenta. Algunas de ellas eran "normales", con un nombre de usuario e intereses estándar. Otras estaban catalogadas como vulnerables. Esto es, con nombres de usuarios de marcada tendencia: bajar de peso, depresión... Según explican en The Guardian, esto tenía un motivo claro: para la organización, muchas cuentas de usuario–ya no solo de TikTok, buscan un nombre que se relacione directamente con sus intereses. El algoritmo solo tendrá que estudiar el lenguaje para empezar a proveer de contenido vinculado al mismo.

Dicho y hecho. Según apuntan, en los 30 minutos iniciales de actividad, aparecieron las primeras sugerencias de trastornos alimenticios y salud mental. Huelga decir que el estudio no diferenció entre los que eran en tono positivo o negativo, aunque sí había una mayoría de usuarios –principalmente jóvenes– que hablaban sobre inseguridades y ansiedades. En cualquier caso, bastó unos segundos más de la cuenta en cada uno de esos vídeos para que el resto llegasen en cascada.

Según el mismo informe, para las cuentas de 13 años, el contenido relacionado con bajar de peso, dietas, bebidas para no engordar, autolesiones y trastornos alimentarios o, incluso, cirugías ad hoc, se mostraban cada 3 minutos aproximadamente. El contenido de suicidio se presentaba cada 3 minutos. De hecho, los contenidos más sensibles se mostraban con más asiduidad en las cuentas "sensibles", más que en las estándar.

No es el primer estudio contra TikTok

TikTok estrena su AI que genera imágenes

Aunque la red social ha hablado mucho sobre su trabajo activo para acabar con este tipo de situaciones, el trabajo que tienen por delante es demasiado grande. Para este caso concreto, TikTok declaró que el estudio no mostraba los usos y experiencias en la vida real. Una posición que está en línea con el análisis de los bulos y retos, muy populares en la red social. Unos que calificó de minoritarios, al menos para el sector de los retos y bulos más peligrosos.

En cualquier caso, no es el primer estudio que analiza el impacto que tiene TikTok sobre este y otro colectivo. Ya en verano de este año, una investigación de Bankrate apuntaba que Instagram y TikTok tenían un efecto nocivo sobre la felicidad y economía de los usuarios. Causantes de muchas compras compulsivas y expectativas fuera de la realidad. Especialmente cuando los jóvenes usan la propia plataforma como buscador antes que recurrir al propio Google.

Tampoco es la primera vez que se mira a TikTok en lo que a efectos nocivos para los trastornos alimentarios se refiere. Este mismo 2022, la polémica de los atracones de comida de Nikocado Avocado o las imágenes de promoción de la anorexia de Eugenia Cooney en las plataformas ponían el tema sobre la mesa. Eran la peor pesadilla de las personas con trastornos de la conducta alimentaria. Por, precisamente, tener que enfrentarse a las sugerencias de contenido de estos creadores.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: