Adobe anunció que ha desarrollado un método capaz de detectar fotografías alteradas en Photoshop. Esto forma parte de una investigación en conjunto realizada por Adobe Research y por la Universidad de Berkeley y utiliza inteligencia artificial para identificar si las imágenes han sido alteradas utilizando un filtro llamado Face Aware Liquify, capaz de cambiar diversas facciones del rostro.

El proyecto se vale del aprendizaje profundo para reconocer imágenes modificadas y las áreas de la misma que han sufrido una edición dentro de Photoshop. De acuerdo con la empresa, este método tiene un 99% de efectividad, comparado con el 53% que registra el ojo humano.

La metodología ha sido capaz de regresar la fotografía a su estado original antes de la edición, algo que ha sorprendido a los mismos investigadores. Para lograr esto, el equipo ha usado una red neuronal convolucional (CNN) que ha sido entrenada con imágenes alteradas usando la característica de Photoshop. Algunas fueron editadas por automatización, mientras que otras fueron modificadas por un artista.

De acuerdo con Adobe, debido a que la red utiliza aprendizaje profundo es posible identificar datos de bajo nivel, como los artefactos de distorsión. Face Aware Liquify es una de las opciones más amigables dentro de los Filtros, ya que es capaz cambiar diversas facciones, como los ojos, nariz, boca o la forma del rostro.

Los investigadores dicen que estamos lejos todavía de un botón universal que permita deshacer los cambios de una foto y revertirla a su estado original. A pesar de eso, lo que ha logrado Adobe y el equipo de la UC Berkeley es un paso en su cruzada por ayudar a verificar la autenticidad del material creado con los productos de la empresa, e "identificar y desalentar el uso indebido".

Adobe menciona que reconocen las implicaciones éticas de su tecnología y advierte que el contenido falso es un problema serio. La empresa también trabaja con un grupo de científicos en una inteligencia artificial capaz de aceptar cualquier texto para generar un DeepFake.