Los avances tecnológicos han logrado que una máquina supere al campeón mundial de ajedrez, o que escriba textos en forma creativa, tal como ahora lo hace ChatGPT. Como contracara, es usual que los autómatas fallen al intentar acciones simples para un humano promedio, por caso brincar, hacer equilibrio en una pierna, o sostener una uva. El aparente sinsentido es abordado en la paradoja de Moravec, célebre en el mundillo de la robótica y la inteligencia artificial.
“Es fácil conseguir que las computadoras muestren capacidades similares a las de un humano adulto en tests de inteligencia. A su vez, es improbable lograr que posean la percepción y motricidad de un niño de 1 año”. Este célebre postulado del ingeniero Hans Moravec fue formulado hace más de cuatro décadas. Sin embargo, sigue siendo aplicable en pleno 2023, año que es escenario de excitantes innovaciones en automatización.
Interpelada por los nuevos bríos de la inteligencia artificial, la paradoja de Moravec recupera ahora su relevancia. Al mismo tiempo, queda al desnudo. ¿Cómo se explica que las máquinas hagan simple lo difícil y tropiecen con lo sencillo? Según remarcan los expertos, la clave es distinguir la diferencia entre las tareas que pretenden realizar. Además, es fundamental conocer a fondo los contrastes entre la robótica y la IA.
Los expertos detrás de la paradoja de Moravec
La mencionada dualidad de las computadoras, expresada en la formulación de la paradoja, lleva el apellido de Hans Moravec. Con 74 años de edad, el ingeniero nacido en Austria es reconocido por sus aportes en el campo de la robótica y la inteligencia artificial. A lo largo de su carrera profesional desarrolló técnicas de visión artificial, antecedente de muchos de los sistemas que se emplean en la actualidad para el reconocimiento de imágenes. Sus escritos se enfocan en el impacto de la tecnología en la sociedad.
En la formulación de la paradoja de Moravec —que data de la segunda mitad de los años ochenta, cuando el austríaco dictaba clases en la Universidad Carnegie Mellon, en Estados Unidos— también participaron otros especialistas, como Rodney Brooks, creador de la empresa iRobot que fabrica la aspiradora Roomba, y Marvin Minsky, cofundador del laboratorio de inteligencia artificial del Instituto Tecnológico de Massachusetts (MIT).
Cuando los ordenadores de los laboratorios mejoraron exponencialmente sus capacidades, los mencionados especialistas comenzaron a notar la contradicción. Podían completar tareas difíciles, pero aun así estaban lejos de ser capaces de emular las labores que cualquier humano consideraría sencillas.
Una paradoja que también se puede plantear de este modo: mientras que el razonamiento humano requiere de poca “potencia” y puede ser copiado o imitado por una máquina, las habilidades motoras y sensoriales precisan de grandes esfuerzos computacionales. Al respecto, dijo Minsky: “Somos más conscientes de los pequeños procesos que nos cuestan, que de los complejos que realizamos con fluidez”.
La evolución de millones de años, una de las explicaciones a la paradoja
El propio Hans Moravec planteó una posible salida para el supuesto sinsentido. La misma apunta a la teoría de la evolución darwiniana, postulando que las destrezas más antiguas son las que mejor se han perfeccionado. Así, siendo que el pensamiento abstracto es una habilidad más nueva en la historia de la humanidad en comparación con las aptitudes motrices, estas últimas son las más desarrolladas.
Al respecto, dijo el austríaco: “Tenemos 1.000 millones de años de experiencia sobre la naturaleza del mundo y cómo sobrevivir en él. […] Todos somos prodigios en áreas perceptivas y motoras; tan buenos que hacemos ver fácil lo difícil. El pensamiento abstracto, sin embargo, es un truco nuevo, quizás con menos de 100.000 años de antigüedad. Todavía no lo hemos dominado. No es del todo intrínsecamente difícil; sólo parece así cuando lo realizamos”.
Al indagar los alcances de la paradoja de Moravec, emerge una actualidad vibrante. Laboratorios académicos y empresas han logrado imitar mecánicamente nuestros complejos sistemas de razonamiento y creatividad. Sin embargo, los robots aún no logran atarse las agujetas de las zapatillas. Tampoco son hábiles al levantar cajas, tal como contamos en Hipertextual. Cabe señalar que hay avances en ese punto: un reciente video divulgado por Tesla muestra cuánto ha evolucionado su autómata humanoide Optimus, que ya es capaz de realizar difíciles posiciones de yoga sin caer brucamente al suelo.
“La programación no es igual a la física”
Tal como adelantamos, una de las llaves que destraba la paradoja de Moravec es evaluar las diferencias entre las tareas que se abordan. “Es cierto que ahora las máquinas pueden mantener una conversación y que, a la vez, no pueden sostener algo frágil. Sin embargo, son habilidades que pertenecen a ámbitos diferentes”, señala en diálogo con Hipertextual la doctora en Ciencias de la Computación Marcela Riccillo. En ese sentido, la experta en robótica e inteligencia artificial subraya que “la programación no es igual a la física”.
¿En qué radica la diferencia entre las mencionadas destrezas?
La inteligencia artificial está conformada principalmente por las áreas de procesamiento del habla, visión artificial y machine learning, que son implementadas desde la programación. Que una máquina sostenga un objeto, por ejemplo, es ya algo de la física. Cuando se construye un robot, desde la teoría parece que va a funcionar de determinada manera, pero al implementarlo surgen dificultades de movimiento, flexibilidad, cantidad de articulaciones con sus respectivos motores, etcétera. La robótica es un campo que requiere de componentes físicos, electrónicos y mecánicos; la IA, en cambio, es esencialmente abstracta.
¿Qué debería ocurrir para que los robots —en tanto hardware— adquieran las destrezas que la paradoja de Moravec describe como inabarcables para ellos?
Para que puedan tener habilidades motrices finas tendrían que reunirse las siguientes variables: necesidad, tiempo, presupuesto e investigación. Y tal vez eso no se logre.
¿Qué adviertes en el actual panorama de los sistemas de inteligencia artificial y los nuevos modelos de lenguaje? ¿Avanzamos hacia un futuro en el que las máquinas también serán hábiles para las tareas que ahora les resultan complejas?
Me pregunto por qué ChatGPT o Bard se están desplegando ahora. Existen desde hace varios años, y las empresas decidieron presentarlos al público ahora. Principalmente, se ofrecen como asistentes en buscadores, o para ayuda en aplicaciones. Básicamente, más que desarrollarse, la inteligencia artificial se está difundiendo y aplicando en nuevas áreas. Tal vez, con el tiempo, estas tecnologías comiencen a resolver problemas que ayuden a la humanidad.
Problemas fáciles y difíciles
El postulado que aquí nos convoca no debe ser resuelto, necesariamente. En cambio, es una invitación a reflexionar y una lupa para vislumbrar los saltos evolutivos, retomando aquí el paralelismo con las ideas de Darwin. Además de interesar a los investigadores, moviliza a cualquier interesado en estas temáticas, ahora omnipresentes en la sociedad.
La paradoja de Moravec —que tal como notó el lingüista Steven Pinker en El instinto del lenguaje (1994), subraya que para la inteligencia artificial los problemas difíciles son fáciles y los problemas fáciles son difíciles— podría desanudarse conforme avancen los desarrollos. ¿Pronto conviviremos con máquinas tan capaces como nosotros? El propio Elon Musk, impulsor del mencionado Tesla Optimus, ha dicho que ese autómata será un fiel asistente. ¿Las máquinas finalmente nos desplazarán?
Riccillo aquieta las aguas. “La inteligencia artificial general (AGI, por sus siglas en inglés) no existe y no hay indicios de que vaya a existir. Los robots y los sistemas con inteligencia artificial no son reemplazantes. En cambio, son herramientas para tratar de complementar al humano”, observa la especialista, y trae a cuento el concepto de las tres letras “d” en robótica, útil para aliviarnos. Según dice, los autómatas se encargarán de tareas difíciles (dificult, en inglés), peligrosas (dangerous) y sucias (dirty), eximiéndonos de ellas.
“No creo que la paradoja de Moravec haya cambiado con los nuevos avances”
“La capacidad de los robots y modelos automatizados para hacer cosas parecidas a las humanas seguirá sorprendiéndonos”, opina Yilun Du, investigador de la división CSAIL en el Instituto Tecnológico de Massachusetts (MIT).
¿Cómo se explica que haya sistemas capaces de realizar tareas tan complejas, y que al mismo tiempo fallen en situaciones que a los humanos nos resultan súper sencillas?
Ocurre que la dificultad de los problemas es muy diferente. El lenguaje humano, la escritura y las ecuaciones matemáticas simples, por ejemplo, son cosas que aprendemos durante la vida. Es decir, no sabemos estas cosas cuando nacemos. Nos parecen difíciles porque tenemos la experiencia de aprenderlos durante nuestra vida. Por el contrario, el control de la visión y el movimiento, o la percepción del mundo, han evolucionado durante cientos de millones de años, y es innato en nosotros cuando nacemos. Por eso, no creemos que sean complejas.
¿Consideras que la paradoja de Moravec se modifica, cambia o pierde paulatinamente su vigencia a medida que evolucionan los sistemas automatizados? En otras palabras, ¿los avances tecnológicos socavan el postulado, dado que las máquinas son cada vez menos torpes?
No creo que la paradoja haya cambiado mucho. En mi opinión, ninguno de los modelos a gran escala ha demostrado competencia en otra cosa que no sea el lenguaje, que es sintético y tal vez sencillo de abordar. Hemos encontrado una serie de “trucos” para hacer que los modelos parezcan competentes, principalmente aprovechando el texto, pero aún están muy lejos de comprender otras modalidades.