Muchos anticiparon que este año el premio Nobel de física podría ir dirigido a la Inteligencia Artificial. Así ha sido. El galardón ha caído en las manos de John Hopfield y Geoffrey Hinton, por sus importantes descubrimientos en el área de las redes neuronales. Ambos tuvieron un papel esencial, aunque el segundo ha sido el que ha estado más al pie del cañón en esta área con el paso de los años. Tanto como para llegar durante un tiempo a arrepentirse de sus descubrimientos, por el riesgo que pueden llegar a entrañar para la humanidad.
Son muchas las entrevistas en las que declaró haberse sentido arrepentido por la deriva que ha tomado la inteligencia artificial con el paso de los años. En una de las más recientes, publicada por XLSemanal, señala que no siente un arrepentimiento culpable. Sabe que si no hubiese sido él el responsable del hallazgo, más tarde habría sido otra persona. No obstante, le preocupa lo que puede llegar a ocurrir si la IA no se regula adecuadamente.
Y es que la Inteligencia Artificial (IA) es una herramienta apasionante. Puede hacer nuestra vida infinitamente más fácil, pero también tiene la capacidad de truncarla por completo. Es precisamente ese potencial el que la hace tan atractiva como para merecer un premio Nobel de Física. ¿Pero por qué han sido Hopfield y Hinton los afortunados? ¿Cuáles son esos riesgos que tanto preocupan a Hinton? Sobre esto y mucho más hemos hablado con Francisco Herrera, director del Instituto Andaluz Interuniversitario de Data Science and Artificial Intelligence (DaSCI).
Los primeros pasos de una ciencia que cambiaría el mundo
Las investigaciones de Hopfield y Hinton se llevaron a cabo en la década de 1980. Sin embargo, para ver el nacimiento de la IA debemos retroceder a los años 50. El informático John McCarthy propuso el término de IA para hacer referencia a la ciencia e ingeniería para el desarrollo de artefactos con comportamiento inteligente en tareas que lo requieren si las hiciesen los humanos. Por otro lado, el psicólogo Frank Rosemblatt desarrolló el modelo del perceptrón en el año 1958 basándose en ideas introducidas por McCulloch y Pitts en 1943. Fue entonces cuando hablaron por primera vez sobre la posibilidad de crear redes neuronales como si fueran ordenadores.
Con este modelo se intentó por primera vez desarrollar una serie de conexiones entre resistencias eléctricas que funcionan como las neuronas y sus sinapsis. Rosemblatt consiguió obtener una sola capa de neuronas artificiales. Lamentablemente, este modelo no llegó muy lejos, pues no desarrolló las capacidades que se esperaba de él. Como explica Herrera, “no tenía capacidad de llegar a alcanzar cualidades cognitivas potentes de aprendizaje”.
En los años 70, ante la imposibilidad de avanzar con el modelo del perceptrón, entramos en lo que se conoce como el invierno de la Inteligencia Artificial. No tenía potencial para avanzar y cayó prácticamente en desuso. Fue entonces cuando llegaron Hopfield y Hinton con esos rompedores hallazgos que acaban de valer un premio Nobel.
Llega la primavera de la Inteligencia Artificial
En realidad, durante el invierno de la IA esta no cayó en desuso por completo. Se estuvo realizando lo que se conoce como IA simbólica. Sin embargo, esta no se basaba en redes neuronales capaces de aprender, sino en normas regidas por la lógica. Esto, lógicamente, restringía mucho sus aplicaciones. Por eso, fue necesaria la irrupción en escena de Hinton y Hopfield para dar un vuelco a la situación.
Hinton fue el padre del llamado modelo de entrenamiento de retropropagación. Gracias a esto, se conseguía que múltiples capas de neuronas pudieran entrenarse y aprender. El perceptrón solo permitía el aprendizaje con una capa, por lo que este fue un avance revolucionario.

Mientras tanto, Hopefield publicó un artículo muy importante en PNAS donde propuso un modelo que introduce redes artificiales recurrentes, capaces de volver hacia atrás en el razonamiento. Estas, junto a la capacidad de entrenamiento de los modelos de Hinton son los dos elementos bases del actual Deep learning. “Ellos son los que rompen el invierno de la IA con sus resultados, porque la IA conexionista estaba en un punto muerto”.
Llegados aquí, si bien la IA simbólica se siguió usando durante los años 80, con los sistemas expertos como tecnología de IA referente, ésta fue dejando hueco poco a poco a todos los modelos de Deep Learning que surgirían después.
El Deep Learning gana la partida
Tanto la IA simbólica como el Deep Learning han ganado muchas partidas. Literalmente.
En los años 1996 y 1997, un algoritmo basado en la IA simbólica, Deep Blue, ganó varias partidas de ajedrez al entonces campeón del mundo, Garri Kasparov. En la primera ocasión, la IA logró ganar solo 1 de las 6 partidas, mientras que Kasparov venció en 3 y otras 2 quedaron en tablas. Sin embargo, tras mejorar el algoritmo en 1997, Deep Blue venció en dos ocasiones y empató en otras 3. Kasparov solo pudo ganar una de las partidas.
Esto ya fue un gran hito, pero la situación se volvió aún más revolucionaria con la llegada de los modelos de Hinton y Hopfield. “Actualmente hay modelos de redes neuronales que han dado un salto cualitativo en el ámbito del ajedrez y la teoría de juegos”, señala Herrera. “Es el caso de AlphaZero, por ejemplo”.

Aquí, surge inevitablemente una pregunta. ¿Quién ganaría una partida de ajedrez entre Deep Blue y AlphaZero? El experto en inteligencia artificial entrevistado por este medio lo tiene claro: AlphaZero.
De hecho, Herrera nos cuenta que hoy en día han surgido en la India muchísimos jóvenes ajedrecistas que se entrenan con módulo de inteligencia artificial y con apenas 16 o 17 años son ya verdaderos campeones. “Juegan igual que la Inteligencia Artificial”, relata el director del DaSCI. “Tienen un juego muy agresivo, pues van siempre a ganar. No buscan las tablas”.
Suscríbete a la newsletter diaria de Hipertextual. Recibe todos los días en tu correo lo más importante y lo más relevante de la tecnología, la ciencia y la cultura digital.
Luces y sombras de la Inteligencia Artificial
Lógicamente, el único papel de la Inteligencia Artificial no es ganar partidas de ajedrez. Este es un buen ejemplo de cómo ha logrado igualar primero y superar después las capacidades del propio ser humano. Pero hoy en día su potencial va muchísimo más allá.
Durante la presentación del premio Nobel de física, la directora del comité del Nobel en esta materia comentó que una de las aplicaciones de la Inteligencia Artificial es la obtención de nuevos materiales.
Esto es posible gracias a la capacidad de explorar en todas las posibles opciones y escoger los candidatos con las mejores propiedades para un fin determinado. Por ejemplo, los materiales cristalinos inorgánicos tienen un gran número de aplicaciones, sobre todo en el área de la electrónica. Sin embargo, sintetizarlos puede ser muy costoso y el resultado no siempre es el esperado. Es posible que uno de estos cristales mejore el rendimiento de las baterías, pero a la hora de la verdad sea muy frágil y se degrade fácilmente.

Por eso, se han desarrollado algoritmos de Inteligencia Artificial que buscan rápidamente todos los candidatos con las propiedades adecuadas. Así, los científicos pueden centrarse en sintetizar solo esos y no perder el tiempo con los que finalmente no servirán.
Algo similar se hace con sustancias que pueden ser principios activos para multitud de fármacos. O incluso se pueden analizar fármacos que ya están en el mercado, pero que podrían aportar beneficios frente a enfermedades muy diferentes a esas para las que se desarrollaron. Por ejemplo, la IA es capaz de encontrar medicamentos con actividad bactericida que puedan usarse para combatir las bacterias resistentes a antibióticos. Al tratarse de fármacos que ya están en el mercado, la burocracia y los análisis clínicos podrían avanzar mucho más deprisa.
En el área de la biología también es destacable el sistema AlphaFold de DeepMind, que predice la estructura tridimensional de las proteínas, acelerando el progreso en medicina y biotecnología. Demis Hassabis, investigador director de DeepMing ha recibido el Nobel de Química por revelar los secretos de las proteínas con IA y computación (junto a John Jumper y David Baker).
Y, ¿cómo no?, la inteligencia artificial tiene aplicaciones en una infinidad de áreas más. Eso sí. Siempre con la supervisión de un ser humano. Y es que, si esto no se hace adecuadamente, podemos salir de las luces para entrar de lleno en sus sombras.
Cuando la IA toma el control
En 2014, el filósofo Nick Bostrom explicó con un ejemplo sencillo el motivo por el que la Inteligencia Artificial podría llegar a ser muy peligrosa.
Imaginemos que tenemos una IA diseñada para fabricar la mayor cantidad posible de clips. No se le da ninguna otra directriz. Solo esa. Esta buscará la forma más eficiente de fabricar la mayor cantidad de clips, tal y como se le pidió.

Llegaría un momento en el que la IA podría percibir a los humanos como un estorbo. En cualquier momento, alguien podría apagar la máquina e impedirle realizar su tarea. Además, los humanos cuentan con átomos de materia que se pueden usar para fabricar más clips. La solución sería aniquilarlos.
Lógicamente, este es un ejemplo extremo. No obstante, no se aleja tanto de lo que los expertos, incluidos Geoffrey Hilton y Francisco Herrera, avisan que podría pasar.
“Ahora, una de las áreas más importantes en la IA es el Safety, que tiene dos traducciones en castellano, tanto la seguridad ante ataques externos como el comportamiento seguro frente a los usuarios”, explica Herrera. “Hablamos de seguridad en un doble sentido, que no sea atacado y que tampoco ataque”. Solo así se consigue ese necesario alineamiento con los seres humanos.
Ahora bien, ¿por qué es tan importante ese alineamiento? Herrera nos lo explica de una forma muy sencilla.
“La IA, cuando trabaja por metas, puede seguir para obtenerla un recorrido que no va a ser adecuado desde la perspectiva ética humana”. Busca la forma más eficiente de llegar, aunque en el camino eso implique realizar acciones que un humano no consideraría éticas.
Para que esto no ocurra, debe haber siempre un ser humano al timón. “Dentro de la regulación europea ya hay un requisito fundamental que es el control humano”, relata el experto en IA. “Un sistema inteligente nunca debe tomar decisiones autónomamente en todas las decisiones que afecten a los derechos fundamentales y la seguridad humana”.
Esto es algo en lo que también incide el propio Hinton en la entrevista para XL Semanal. Y es que dejar a la IA a su libre albedrío es imposible porque no hay manera de predecir lo que hará. Así lo ha explicado el ganador del premio Nobel de Física:
“Imagina una hoja que cae de un árbol. Sabemos que desciende describiendo pequeños arcos hacia el suelo, pero nadie puede predecir exactamente dónde caerá ni de qué lado. Hay demasiadas variables en juego: podría haber una ráfaga de viento, otra hoja, un perro. Lo que sea. Así ocurre con la IA moderna: pondera sus respuestas basándose en las analogías que hace. No hay reglas. Así como nunca podremos saber dónde termina la hoja del árbol, nunca podremos explicar por qué la IA toma ciertas decisiones”.
Geoffrey Hinton, ganador del premio Nobel de Física
Esa inteligencia artificial tan parecida a la humana que podría sumirnos en las sombras no ha llegado aún. Sin embargo, Hinton opina que, a este ritmo, podríamos tenerla aquí dentro de 5 años. 20 como mucho.
Más nos vale estar prevenidos. Como bien decía el tío de Spiderman, un gran poder conlleva una gran responsabilidad. La IA es uno de los poderes más inmensos que han caído nunca en manos del ser humano. Más nos vale ser responsables cuando la usemos.