La explosión de la inteligencia artificial en los últimos meses ha tomado a muchos por sorpresa. Si bien las IA generativas como ChatGPT o Midjourney representan un cambio de paradigma, algunos anticipan que esta tecnología traerá más problemas que beneficios. La idea de que actores maliciosos utilicen los deepfakes para montar campañas de desinformación es una preocupación latente de los reguladores y empresas como Microsoft.
Esta última abordó el tema durante una comparecencia ante legisladores de Estados Unidos. Brad Smith, presidente de Microsoft, declaró que una de sus mayores preocupaciones está relacionada con la proliferación de los deepfakes. Este contenido, también conocido como medios sintéticos, consiste en videos o imágenes generadas por IA que buscan imitar la apariencia y el sonido de una persona.
De acuerdo con Smith, es necesario abordar los problemas relacionados con estas falsificaciones, principalmente en las operaciones de influencia extranjera. El presidente de Microsoft mencionó que países como Rusia, China o Irán sacarían provecho de la IA e instó a los legisladores a crear nuevas leyes para proteger la seguridad nacional. El directivo pidió a Washington que se tomen medidas para garantizar que las personas sepan reconocer los deepfakes y no caer en la trampa.
En una publicación de su blog, el presidente de Microsoft mencionó que el público debe estar facultado para reconocer el contenido generado por una IA. Para ello sugiere la implementación de etiquetas que informen cuando una imagen o video fue creado por una inteligencia artificial y no un humano. "Esta obligación de etiquetado también debería proteger al público de la alteración del contenido original y la creación de deepfakes", mencionó.
¿Qué son los deepfakes y por qué son peligrosos?
Pese a que muchos han conocido las bondades de la inteligencia artificial gracias a ChatGPT, los deepfakes han rondado la web desde hace años. Estos videos, imágenes o audio generados mediante el uso de aprendizaje profundo y redes neuronales, tienen como objetivo engañar a las personas. Sus creadores se valen de miles de datos para entrenar a un algoritmo que sustituirá el rostro de una persona por otra.
El término se acuñó en 2017, cuando un usuario de Reddit de nombre "Deepfake" subió videos porno en los que intercambiaba los rostros por actrices famosas como Gal Gadot o Emma Watson. El resultado era sorprendente y obligó a webs para adultos a tomar medidas para evitar la proliferación de este contenido. Posteriormente, un video de BuzzFeed en donde Barrack Obama decía que Donald Trump era un completo idiota se robó los titulares.
Con el avance de la tecnología, los deepfakes se volvieron más realistas. Los videos de Tom Cruise en TikTok rompieron internet, mientras que empresas como Lucasfilm decidieron usarlos para rejuvenecer a actores de Star Wars. Al mismo tiempo, algunos gobiernos y actores políticos se valieron de la IA para lanzar campañas de desinformación que influyeran y modificaran la opinión pública.
La llegada de las IA generativas no ha hecho mas que empeorar el panorama. Ahora es posible generar imágenes realistas del Papa Francisco, Donald Trump o la supuesta ministra de sanidad de Japón que confundirán a todo el mundo. La última versión de Midjourney eliminó su prueba gratuita para evitar que las personas abusaran de ella en la creación de contenido falso.
La regulación de la IA evitaría los deepfakes, aunque con matices
Durante su participación frente al comité de Washington, el presidente de Microsoft también pidió a legisladores a endurecer las reglas de exportación. Smith quiere evitar que los modelos de IA caigan en manos de terceros — como China —, por lo que pide una evolución de las leyes actuales. Vale la pena mencionar que Estados Unidos endureció su política contra China y ya prohíbe exportar chips y material para producir semiconductores de inteligencia artificial.
Hace unos días, Sam Altman se presentó ante el Senado de EE. UU. para hablar sobre la regulación de la IA. El director de OpenAI compartió la visión sobre los peligros que representan los deepfakes en campañas para influir la opinión de las personas, principalmente a nivel electoral. Altman sugirió la creación de un ente regulador internacional responsable de otorgar y cancelar licencias a los sistemas de IA más poderosos.
Aunque Brad Smith y Sam Altman se encuentran consternados por lo que podrían hacer potencias extranjeras, el verdadero enemigo está en casa. Una investigación de The Intercept reveló que el Comando de Operaciones Especiales de Estados Unidos planea usar deepfakes en campañas de propaganda. En un documento que data de 2020, el SOCOM pide tecnología de IA para operaciones de influencia y desinformación.
Los agentes hackearían dispositivos para conocer a sus enemigos y posteriormente usarían deepfakes para engañarlos y modificar su forma de pensar. Con ello, Estados Unidos añadiría la inteligencia artificial a su arsenal de tácticas para desestabilizar gobiernos que no están alineados con su ideología o su política económica. El país tiene amplia experiencia en este campo, con operaciones en diversos países de África, América Latina y Asia.