La creciente popularidad de las herramientas de generación de textos e imágenes mediante algoritmos de inteligencia artificial supone una amenaza directa a los intereses de cualquier gobierno totalitario. Para estos, el control de la información a la que puede acceder la nación es vital. Sin embargo, la tarea cada vez es más complicada: primero, Internet; luego, las redes sociales; ahora, la inteligencia artificial que genera los deepfakes.

Por eso la Administración del Ciberespacio de China aprobó en diciembre un nuevo conjunto de leyes que regulan la tecnología que usa técnicas de aprendizaje automático, realidad virtual y cualquier otro tipo de algoritmo capaz de generar imágenes, audio, vídeo o escenas virtuales de manera artificial. Estas medidas entran en vigor este mes.

Para el Gobierno chino, Internet siempre fue peligroso

No cabe sorpresa alguna. El Partido Comunista Chino ha supervisado estrictamente lo que se puede ver y poner en Internet desde su expansión. El internet chino no es el internet que tú y yo navegamos a diario y su uso no es anónimo, pues todo ciudadano debe enlazar su número de teléfono asociado a su documento de identidad. Además, toda red social es supervisada y moderada por el Partido gracias a algoritmos de inteligencia artificial que impiden la promoción de noticias, opiniones o formas de vidas opuestas a la visión de este.

La nueva normativa prohíbe crear o difundir “noticias falsas” generadas por herramientas de este tipo o información que sea “perjudicial para la economía o la seguridad nacional”. Esta ambigüedad meditada brinda un amplio margen de interpretación a las autoridades para la censura de casi cualquier tipo de contenido. También obliga a las compañías responsables de estas tecnologías a etiquetar de “forma destacada” las imágenes, vídeos y textos como generados “sintéticamente”, lo que se conoce como deepfakes cuando puedan ser malinterpretados como reales. Independientemente del contenido o el objetivo del material generado, el ciudadano debe conocer en todo momento que es algo elaborado por un ordenador.

China observa lo que está ocurriendo en Occidente y toma precauciones antes de que suponga un problema serio para el Gobierno. Desde 2014, varios individuos y organizaciones han coqueteado con la idea de generar deepfakes realistas mediante la inteligencia artificial. Su primer uso, como ha pasado habitualmente en Internet, fue la creación de material pornográfico empleando caras conocidas de mujeres famosas del cine, la industria musical o la política sin su consentimiento. Pronto tecnologías similares se adoptaron con un fin menos reprobable en forma de filtros dentro de Snapchat o TikTok.

El desempeño de los algoritmos y la facilidad de uso de estas herramientas han permitido crear audios, imágenes e incluso vídeos realistas capaces de manipular el discurso de un político para que aparentemente diga lo que no ha dicho.

Los más significativos avances se logran en Estados Unidos, pero las compañías chinas ya están desarrollando sus propios algoritmos que beben de la cultura china, ya que herramientas como DALL-E 2 y ChatGPT están influenciados claramente por la cultura y la industria anglosajona, que poco tiene que ver con la oriental o la visión ética y social del Partido Comunista Chino. No solo es una cuestión de controlar la IA, sino de desarrollar una propia, acorde a sus valores, para poder competir a nivel global con las demás naciones.

Qué puede pasar en Estados Unidos

En Estados Unidos el asunto es más complicado porque el Gobierno no tiene un control absoluto sobre Internet. El desafío es regular los posibles usos nocivos de estas tecnologías sin vulnerar formas legítimas de expresión protegidas bajo la Primera Enmienda y la Declaración Universal de Derechos Humanos. Un ciudadano tiene derecho a disponer de información veraz, pero también de crear contenido satírico o expresar libremente sus opiniones o ideas creativas.

Elon Musk transformado en Baby Yoda gracias a la IA

Pero el uso de deepfakes contenido presenta importantes problemas, como la manipulación del público, la creación de materiales que vulneren el derecho al honor de los ciudadanos, las violaciones del copyright o la propiedad intelectual…

Virginia, Texas y California ya han propuesto medidas. En Virginia, la ley penaliza a todos aquellos que distribuyan material pornográfico no consentido empleando tecnología deepfake y en Texas también se prohíbe la distribución de los que sean generados con la intención de difamar o dañar la reputación de candidatos políticos. Sin embargo, no hay un consenso claro sobre cómo legislar para proteger a todos los ciudadanos sin coartar sus derechos recogidos en la Constitución.

Según Aaron Moss, director del departamento de litigios del bufete Greenberg Glusker, los famosos han tenido cierto éxito demandando a anunciantes por el empleo no autorizado de sus imágenes al amparo de las llamadas leyes de derecho a la publicidad. Citó el acuerdo de 5 millones de dólares entre Woody Allen y American Apparel en 2009 por la aparición no autorizada del director en una valla publicitaria de la marca de ropa atrevida.

Las grandes compañías de IA como OpenAI podrían poner una marca de agua en cada imagen o vídeo generado, pero esto minaría claramente su valor artístico o comercial. La protección ante un mal uso de esas herramientas estropea las posibilidades de darles el mejor uso posible.

Además, este enfoque no arregla los problemas que presenta la generación de textos, que ya está dando quebraderos de cabeza a los profesores de Universidad. ¿Ha escrito el estudiante ese ensayo o ha sido ChatGPT? La herramienta está todavía gateando, pero ya escribe mejor que muchas personas y se presenta como un ente aparentemente racional cuando no es más que una calculadora de predicciones para elegir la siguiente palabra.

Armas contra los deepfakes en Europa

Dentro del marco europeo, todo ciudadano puede acogerse al derecho de protección de datos personales. En el primer apartado del artículo 5 del Reglamento general de protección de datos (GPRD) se estipula que cualquier contenido online relativo a una persona debe ser «leal y transparente en relación con el interesado» y que, además, este debe ser «exacto y, si fuese necesario, actualizado». De no ser así, el artículo señala que se hubieren de tomar «medidas razonables para que se supriman o rectifiquen sin dilación los datos personales que sean inexactos con respecto a los fines para los que se tratan».

La aprobación en abril de la Ley de Servicios Digitales (DSA, por sus siglas en inglés) dirigidas a sujetar a las grandes tecnológicas a una mayor responsabilidad por el contenido ilegal que se difunda en sus plataformas y servicios, brinda todavía más recursos a la Unión Europea para combatir la desinformación y los deepfakes. Las grandes redes sociales tendrán que eliminar todo contenido falso de inmediato para atajar la desinformación y la vulneración al honor de los ciudadanos. De lo contrario, se enfrentarán a cuantiosas sanciones de hasta el 6% de sus ingresos a nivel global.

Europa | Cisco Systems
Ursula von der LEYEN, Presidente de la Comisión Europea celebró el acuerdo: «Lo que es ilegal offline ahora también será ilegal online en Europa» Credit: Parlamento Europeo

Ya en 2020, Twitter comenzó a etiquetar y eliminar los vídeos hechos de forma artificial con el objetivo de manipular la información o suplantar la identidad de una persona sin su consentimiento. Sin embargo, la propagación de estos materiales es siempre más rápida que su supresión. Un discurso manipulado en vídeo de un político, imposible de discernir si es falso o no, puede poner en jaque a la empresa que gestiona la red social, a las autoridades y a los jueces.

Cuando la IA eclipse al ojo y entendimiento humano, será difícil controlar qué es veraz y qué no lo es y, sobre todo, hacerlo a tiempo, antes de que el daño ya esté hecho.

La solución más factible parece ser la de someter a estos algoritmos a su propia medicina: otros algoritmos, pero que, en lugar de estar entrenados para engañar, estén entrenados para detectar los engaños. Para un humano puede ser difícil saber si una imagen está hecha por un robot o por un semejante, pero para la máquina es relativamente sencillo comprobarlo, ya que todo son procesos matemáticos. No solo existen ya programas para detectar textos generados por ChatGPT, sino que también existen los que detectan si una voz es humana o ha sido generada sintéticamente.

Sin embargo, si necesitamos crear hoy una IA para que controle a la IA que programamos ayer, ¿dónde acabará el ser humano del mañana si ya es incapaz de controlar lo que él mismo creó?

Deja un comentario

Participa en la conversación, deja tu comentario