Ya no es el Papa luciendo Balenciaga. En marzo pasado, circuló un video del presidente de Ucrania, Volodímir Zelenski, anunciando su rendición incondicional. Es su rostro, es su voz. Casi en simultáneo, se publicó otro video en el que aparece el presidente de Rusia, Vladímir Putin, anunciando que se había alcanzado la paz. Los videos no son reales. Son deepfakes: falsificaciones como estas creadas con inteligencia artificial. Pero igual se viralizaron como si fueran noticias verídicas.

Un nuevo estudio intentó dimensionar el peligro de estas alteraciones en tiempos de guerra. Y utiliza como principales ejemplos a estos dos videos de Putin y Zelensky. «La guerra ruso-ucraniana presenta el primer ejemplo de la vida real del uso de deepfakes en la guerra», con una serie de contenidos que se «emplean para la desinformación y el entretenimiento», explican los investigadores en su reporte publicado esta semana en PLOS ONE.

YouTube video

Los investigadores del University College Cork (UCC) escogieron Twitter para el análisis. La red social que, según el equipo, difunde los casos más destacados de deepfakes. En esta plataforma, se hicieron virales las imágenes del falso arresto de Donald Trump y las postales del Papa. Analizaron un conjunto de 4869 tweets, publicados entre el 1 de enero de 2022 hasta el 1 de agosto de 2022.

El contenido relacionado con deepfakes creció constantemente durante la semana previa al inicio de la guerra y las primeras semanas del conflicto entre Ucrania y Rusia. Luego de revisar los mensajes, los analistas identificaron tres grandes tendencias. Dos de ellas apuntan al empleo de estas falsificaciones para desinformar —noticias falsas— o para crear contenido humorístico —un montaje de Putin en una escena del Señor de los Anillos, por ejemplo—.

Las deepfakes durante la guerra genera escepticismo

Pero el estudio llama especial atención en la tercera de estas tendencias: cómo, paradójicamente, la denuncia sobre las deepfakes genera escepticismo entre los usuarios. Dicho de otra manera, personas que desconfiaban de noticias legítimas por sospechar que se trataba de falsificaciones.

Muchos tweets en el conjunto de datos expresaron un «sano escepticismo» hacia los deepfakes. Es decir, usuarios que advertían sobre los peligros de esta práctica. «Desafortunadamente, la mayor parte de este tipo de discurso sobre los deepfakes durante la guerra consistió en un escepticismo malsano», apunta el reporte del estudio.

Los investigadores explican que, a menudo, el miedo a los deepfakes socavaba la confianza de los usuarios en las imágenes que recibían del conflicto, hasta el punto de desestimar cualquier información relacionada con el conflicto. «Ya no siempre podemos confiar en nuestros ojos» o «No es que este vídeo sea falso, pero hay que considerar todas las posibilidades», son dos ejemplos citados en el análisis.

También reportaron que el argumento sobre la proliferación de estas falsificaciones se utilizó en contra del periodismo y de medios de comunicación verificados. Y, de igual forma, para alimentar teorías conspirativas. «Esto pone de relieve cómo se puede emplear el discurso deepfake en argumentos que socavan la veracidad y confiabilidad de los medios de comunicación», señalan los investigadores.

Mujer sosteniendo un cartel que dice “Stop War, Help Ucraine”.

En busca de la información creíble

Los tweets revisados calificaron a los medios reales como falsos con más frecuencia que a las deepfakes relacionados con la guerra. «Lo que descubrimos fue que la gente empleaba el término deepfake como una palabra de moda para atacar a la gente en línea», dijo a John Twomey, investigador de la Escuela de Psicología Aplicada de la UCC y coautor del estudio, a Gizmodo.

Las grandes tecnológicas del mundo, desarrolladoras de las más potentes herramientas de inteligencia artificial, han reparado en el peligro. «Necesitamos tomar medidas para protegernos contra la alteración de contenido legítimo con la intención de engañar o defraudar a las personas mediante el uso de IA», dijo Brad Smith, presidente de Microsoft, en mayo pasado.

Microsoft y otras compañías como Google han implementado herramientas de etiquetado que permiten verificar si una imagen o video fue creado por una inteligencia artificial. El nuevo estudio advierte, sin embargo, que parte de la bienintencionada cobertura de los medios sobre los peligros de los deepfakes puede contribuir involuntariamente a un empeoramiento de la confianza.

«Hay más gente consciente de las deepfakes que de su prevalencia real», dice Twomey. Los medios y el periodismo, explica, deberán ser muy cuidadosos en cómo etiquetan los supuestos deepfakes para no causar sospechas sobre los medios de comunicación reales.