Un equipo de neurocientíficos de la Radboud University está trabajando en un modelo de conversión de bocetos a rostros reales mediantes el uso de redes neuronales, y de momento, los resultados ofrecidos parecen bastante satisfactorios. Según los científicos, el modelo puede trabajar en soluciones artísticas pero también en el campo forense, donde a menudo se requiere transformar dibujos hechos por un experto a partir de la descripción de un testigo en la cara real del delincuente.

Para el trabajo, se inspiraron en otro reciente basado en transferencia de estilo neuronal, un algoritmo con el que, a partir de fotografías reales, se han reimaginado los lugares como si fuesen inmortalizados por artistas clásicos. Tomándolo como base se referencia, se preguntaron cómo funcionaría el proceso inverso. Es decir, sacar fotografías faciales de dibujos hechos con relativa precisión.

Para hacer funcionar las redes neuronales, primero se requiere construir una base de datos enorme que relacione fotografías con bocetos. Se ofrecen bocetos y se pide que se conviertan a fotos y, de manera aleatoria, se produce mediante una técnica. Al principio las fotos estarán lejos de mantener cualquier parecido con la realidad, pero son precisamente los fallos y el feedback lo que alimentará al sistema según se vaya graduando.

Tras repetir mucho los últimos pasos, las fotos se parecerán increíblemente a las fotos reales. Así, si todo va bien, el sistema se puede utilizar no sólo para convertir bocetos ya analizados, sino también otros nuevos. Para entrenar el algoritmo, los investigadores utilizan bocetos generados por ordenador de la base de datos de CelebA, que contiene más de 200.000 imágenes de famosos, así como bocetos dibujados a mano guardados en la base de datos CUFS.

Como se decía, el sistema puede jugar un gran papel en el ámbito policial y judicial, ayudando a, al menos, acercar a las fuerzas de seguridad mucho a la idea de cómo es la persona que ha cometido el delito, si es que la imagen que el testigo tiene en su cabeza es fiel.