El conflicto entre Israel y Palestina ha dado pie a una oleada de desinformación en internet, siendo X (Twitter) la plataforma que produce más contenido de este tipo. De acuerdo con un estudio de NewsGuard, los usuarios verificados generan el 74% de noticias falsas y muchas se vuelven virales. Las cuentas que pagan no solo obtienen la insignia azul, sino también prioridad en el algoritmo para difundir fake news
El estudio analizó las 250 publicaciones con mayor participación (me gusta, reenvíos, etc.) que promovían una de 10 narrativas falsas sobre el bombardeo a Palestina. Según los datos, 186 de ellas provienen de usuarios verificados de X. En apenas una semana, este contenido registró 1.349.979 interacciones y se visualizó más de 100 millones de veces en todo el mundo.
Entre el listado de noticias falsas o sin fundamento se encuentran el video de los niños palestinos enjaulados, el montaje de un niño israelí asesinado por Hamás o la teoría de que el ataque inicial es obra de Israel y Occidente. Si bien la desinformación ocurre en otras plataformas, NewsGuard decidió enfocarse en X, ya que es la única que ha reducido la moderación de contenido.
La organización utilizó Misinformation Fingerprints, un sistema que extrae y cataloga las principales narrativas falsas que se difunden en línea. Cada una se captura como una semilla de datos que contienen características específicas, como enlaces, hashtags o palabras clave que propagan la desinformación.
Según NewsGuard, la mayoría de las noticias falsas relacionadas con el bombardeo de Israel a Palestina se vuelven virales en X (Twitter) antes de extenderse a plataformas como TikTok o Instagram. Pese a que la red social cuenta con una función para etiquetar y dar contexto a cada publicación, no consigue desacreditar las fake news.
Twitter (X), ¿un nido de desinformación sobre Israel y Palestina?
El estudio de NewsGuard saca a relucir uno de los problemas más criticados de X durante la gestión de Elon Musk. Uno de los primeros movimientos del magnate tras comprar la red social fue despedir al equipo de moderación. Musk cree que es nocivo que la empresa sea responsable de determinar lo que es verdad o lo que se puede decir, ya que viola la libertad de expresión.
Para contrarrestar la falta de moderación, X (Twitter) implementó las Notas de la Comunidad, un sistema en el que las personas añaden contexto de forma colaborativa a publicaciones potencialmente engañosas. Aunque la intención es buena, su disponibilidad está limitada y en algunos casos se abusa de ella. En el conflicto de Israel y Palestina, NewsGuard asegura que esta función no logró desacreditar la información falsa el 70% de las veces.
“En la primera semana de la guerra entre Israel y Hamas, el análisis encontró que estas verificaciones de hechos se aplicaron de manera inconsistente a los principales bulos relacionados con el conflicto”, menciona la organización. Otro inconveniente que mencionan es que las notas de la comunidad no se aplicaron de manera efectiva en narrativas como la matanza de niños palestinos desde 2008 o el millonario paquete económico que enviaría Estados Unidos a Israel.
X (Twitter) no ha sancionado a los usuarios que propagan información falsa. El estudio identificó siete cuentas verificadas, algunas con cientos de miles de seguidores, que promueven la desinformación desde antes del conflicto. Algunas de ellas estaban suspendidas, pero se reactivaron tras la llegada de Elon Musk.
El algoritmo de X es un aliado de las noticias falsas
Si bien la desinformación viene de los dos frentes, es importante mencionar que X Premium es el culpable principal. El democratizar la insignia azul permite a cualquiera tener una cuenta verificada, por lo que el símbolo de notoriedad o confianza se pierde. Sumado a ello, el algoritmo favorece a aquellos que pagan una suscripción, por lo que sus publicaciones tienen mayor visibilidad.
La estrategia de Elon Musk no solo dificulta identificar el contenido falso, sino que le está jugando en contra en las finanzas. La empresa ha perdido a cientos de anunciantes desde la llegada del magnate debido a la falta de moderación. Algunas marcas temen que sus anuncios aparezcan junto a un tweet con discurso de odio, por lo que decidieron probar suerte en otras plataformas.