Un grupo de científicos está trabajando en una inteligencia artificial que podría marcar un antes y después en la creación de contenido falso. Y es que la IA, apoyada por técnicas de aprendizaje automático —machine learning—, es capaz de aceptar cualquier texto para generar un DeepFake. Por lo tanto, es posible establecer exactamente cuáles serán las palabras que dirá el rostro "impostor".

Los investigadores involucrados pertenecen a diversas instituciones como Adobe Research, Universidad de Stanford, Universidad de Princeton y el Instituto Max Planck. Su software todavía no está terminado, pero las primeras pruebas ya ofrecen resultados tan sorprendentes como preocupantes, pues han demostrado que crear un DeepFake es cada vez menos complejo. En el siguiente vídeo puedes ver una demostración.

Es importante mencionar que, de momento, la susodicha inteligencia artificial funciona con vídeos en los que únicamente aparece la cabeza de una persona, pues la aparición de cualquier otra extremidad no permite que el algoritmo cumpla con su trabajo. Otra de las limitantes es que el texto ingresado no puede ser tan diferente al del material original. De hecho, fue necesario grabar audio que se adaptara a las nuevas palabras, ya que las tecnologías de falsificación de audio no han evolucionado al nivel de la manipulación de imágenes.

Si bien los primeros avances son más que prometedores, los científicos involucrados en el proyecto aceptan que todavía quedan muchas mejoras por implementar. Por ejemplo, aún no es posible alterar el tono de voz o el estado de ánimo del rostro falso, características esenciales para lograr que un DeepFake pase desapercibido. Aún les resta un largo camino para perfeccionar su IA, pero al concretarse sería una de las más eficientes y avanzadas.

¿La inteligencia artificial estará disponible para todo el público? Es probable. La propia Adobe presentó recientemente Project VoCo, una herramienta con la que los usuarios pueden alterar una grabación de audio agregando palabras que nunca se dijeron. VoCo es una de las tecnologías presentes en el software de los científicos, lo cual les ha permitido obtener mejores resultados en cuanto al audio se refiere.

Como ya ha sucedido con otras propuestas similares, existe la preocupación de que los sistemas lleguen a las manos equivocadas. Los investigadores reconocen que "los malos actores pueden usar estas tecnologías para falsificar declaraciones personales y calumniar a personas prominentes". La solución planteada es que el material generado muestre alguna señal de que se trata de una falsificación. Sin embargo, este tipo de gráficos pueden ser eliminados con relativa facilidad. Adobe ya ofrece una función en After Effects para eliminar objetos de vídeos.

👇 Más en Hipertextual