Nikon, Sony y Canon se aliaron para combatir las imágenes falsas generadas con inteligencia artificial. Empresas de fotografía, organizaciones de noticias y tecnológicas cerraron filas para desarrollar una tecnología de autenticación que permita identificar deepfakes.

De acuerdo con Nikkei Asia, Nikon será la primera compañía en añadir firmas digitales en las imágenes capturadas con sus cámaras. La firma quedará impresa en la fotografía e incluirá datos como fecha o ubicación en el que se tomó la imagen, los cuales podrán cotejarse a través de una herramienta web. Según el reporte, fotoperiodistas de Associated Press la pusieron a prueba en octubre pasado.

Sony ofrecerá esta tecnología en sus cámaras sin espejo (mirrorless) enfocadas al usuario profesional, mientras que Canon la introducirá en otros modelos a comienzos del próximo año. Los fabricantes esperan que más compañías se sumen a este esfuerzo y adopten la impresión de firmas digitales en sus productos. La medida ayudaría a combatir la proliferación de deepfakes generados a través de inteligencia artificial.

La propuesta de las empresas fotográficas es similar a SynthID, una herramienta desarrollada por Google para identificar imágenes producidas por modelos de IA. Según comenta la tecnológica, SynthID agrega un identificador en los píxeles de una imagen generada por inteligencia artificial. Esta marca de agua es imperceptible para el ojo humano y se mantendrá en el archivo si editas la fotografía o añades filtros.

Google mencionó que las marcas de agua tradicionales no son suficientes para identificar imágenes generadas por inteligencia artificial, ya que se editan fácilmente. Tanto SyntID como Verify optan por un camino distinto e incorporan firmas digitales en las fotografías para confirmar su origen.

Los peligros de las fotografías falsas creadas con inteligencia artificial

Deepfake / Tom Cruis / Bruce Willis

Uno de los principales peligros de los deepfakes en la fotografía radica en su capacidad de erosionar la confianza y la credibilidad. Con el avance de herramientas impulsadas por IA — como Midjourney o Stable Diffusion — resulta difícil diferenciar entre imágenes auténticas y manipuladas. Esto tiene profundas implicaciones para el periodismo, donde fotografías manipuladas pueden usarse para difundir información falsa o manipular la opinión pública.

Uno de los ejemplos más evidentes ocurrió en Venezuela a comienzos de 2023, cuando medios de comunicación oficiales recurrieron a deepfakes para promover supuestas acciones del gobierno. Algunos simpatizantes de Nicolás Maduro viralizaron videos creados con una herramienta de inteligencia artificial en donde se criticaba a la oposición o difundían noticias engañosas.

Las fotografías también pueden utilizarse como armas con fines maliciosos, incluido el robo de identidad y el acoso. Al superponer perfectamente el rostro de una persona o alterar las expresiones faciales, los perpetradores pueden crear imágenes engañosas que parecen genuinas. Esto tendría consecuencias graves, como difamación, daños a la reputación o incluso acusaciones penales.

Hace unas semanas, una legisladora de la Ciudad de México presentó una iniciativa de ley que busca enviar prisión a quienes generen contenido sexual de mujeres a través de IA. “Estos medios manipulados pueden ser utilizados para producir contenido pornográfico falso, difamatorio o engañoso sin el consentimiento de las personas involucradas”, mencionó la diputada María Guadalupe Morales Rubio, del partido Morena.

El impacto social de los deepfakes es de gran alcance y afecta no solo a los individuos sino también a la percepción colectiva de la realidad. A medida que disminuye la confianza en la evidencia visual, es posible que prevalezcan el escepticismo y la incertidumbre, lo que lleva a una interrupción de la comunicación y la comprensión.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: