Admítelo, alguna vez has mirado de reojo y, de pronto, te has dado cuenta de que esa manta tirada en el suelo es en realidad un gato, por poner un ejemplo. Es normal, eres un ser humano, un organismo falible con problemas de visión y una mente dispersa. ¿Qué tal si le preguntamos a un súper ordenador? Las máquinas, con su enorme poder computacional tal vez tengan mejor suerte. O tal vez no. Como ya han demostrado en varias ocasiones, a la inteligencia artificial le cuesta distinguir entre comida y animales. Este divertido hecho ya despertó la simpatía de Internet tiempo atrás. ¿Lo han solucionado? Y, ¿qué supone esta dificultad en el desarrollo de la inteligencia artificial?

Chihuahuas vs Muffins

Pongámonos en contexto, hace un tiempo, las imágenes comparando rostros de chihuahuas con muffins perlados de chocolate inundó durante un breve espacio de tiempo las redes. A estas imágenes les siguieron otras igual de curiosas: cachorros de sharpei o croissants, pugs o barras de pan e, incluso, labradoodles y pollo frito. Las comparaciones son, como poco, curiosísimas. Pero ¿por qué? El mensaje era siempre el mismo. ¿Puedes distinguir entre el perro y la comida? O el objeto, porque la cosa siguió aumentando en intensidad. Pero lo importante no es si tú puedes distinguirlo, que es evidente que sí. ¿Puede hacerlo una máquina? Reconocer una imagen y distinguirla, identificarla, es una de las tareas más complejas a las que se han enfrentado nunca los ingenieros. Y es que lo que tú haces de forma natural, no es nada fácil de transformar en un algoritmo.

Tratemos de hacer una abstracción. Cuando tu cerebro observa una imagen, una cantidad increíble de información sobreviene: patrones, medidas, colores, textura, profundidad, temporalidad y asociaciones. Despojemos el mensaje de todo lo innecesario: sólo nos hará falta un patrón para poder compararlo, ¿cierto? Es decir, los perros parecen... perros y los canarios se muestran como pájaros pequeños, ¿verdad? Midamos ahora: distancias entre los ojos, textura de la piel, colores, presencia de hocico o pico... Cuanto más se diferencia una imagen de otras, más fácil es hacer una comparativa correcta e identificarla adecuadamente. Pero, ¿Te has parado a pensar lo difícil que es diferenciar una pepita de chocolate del ojo negro de un chihuaha? Efectivamente, a los ordenadores les supone un problema muy serio. ¿Cómo lo identificas tú? El truco está en el aprendizaje.

De los patrones al aprendizaje profundo

Desde la época de los 70, el reconocimiento de patrones, una versión primitiva de la distinción de imágenes, está dando tumbos y evolucionando. Los ingenieros, tras algunos años diseñando rígidos algoritmos para distinguir imágenes concretas bajo patrones estáticos vieron el cielo abierto con la aparición de otra disciplina: el Machine Learning o aprendizaje automático. Esta contempla el uso de algoritmos que se entrenan y van aprendiendo y creando reglas para mejorar la tarea de la que se encargan. De esta forma, un algoritmo de Machine Learning es capaz de aprender, tras mucho entrenamiento, a distinguir entre los patrones típicos de ciertas imágenes. Pero esto no es suficiente. Aquí es donde llega el Deep Learning, o aprendizaje profundo. Este conjunto de algoritmos son, por decirlo de alguna manera, una evolución del Machine Learning. Su intención es trabajar abstracciones de alto nivel, es decir, imágenes y patrones mucho más complicados. Para ello utiliza arquitecturas compuestas de transformaciones no lineales múltiples.

Imagen iterativa obtenida por las redes neuronales de Google. Michael Tyka/ Google

Estos algoritmos se centran en en aprender representaciones de datos de diversa naturaleza y manifestación. Por ejemplo, las diferencias en la textura de una perla de chocolate el ojo de un chihuaha. O del contexto que existe entre unos y otros (como la presencia del pelo o la distancia entre objetos). Este tipo de procesamientos, como ocurre con nosotros, se aprenden y generan una serie de cálculos que crecen de manera exponencial. Por eso es imprescindible usar una gran capacidad de procesamiento. Pero también algoritmos muy bien optimizados. La arquitectura más adecuada para resolver este tipo de problemas está basada en redes neuronales (como las redes neuronales profundas o redes neuronales profundas convolucionales). Gracias a estos algoritmos, por fin una inteligencia artificial es capaz de distinguir entre un chihuahua y un muffin.

Esto puede parecer algo meramente anecdótico. Pero no lo es. La inteligencia artificial y el Deep Learning están ofreciendo a las IAs la oportunidad de adquirir habilidades cuasi humanas. Aprender hasta poder distinguir entre patrones complejos no es sólo una cuestión de imágenes. También puede hacer referencia a sonidos, transporte, compras, actitudes, eficiencia energética... a partir de estos algoritmos se pueden desarrollar análisis en tiempo real mucho más eficientes que ayuden a, por ejemplo, crear coches autónomos más seguros. O gestionar un ecosistema de una forma más eficiente. O, por qué no, crear robots más útiles y vivos. El Deep Learning apenas acaba de llegar y ya se muestra como una de las áreas más prometedoras de la informática y robótica modernas. Al fin y al cabo, es la que ha derrotado a los dos terribles enemigos de la Inteligencia Artificial: los chihuahuas y los muffins.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: