La habitación china: el experimento que va más allá del Test de Turing

¿Pueden las máquinas pensar o podrán hacerlo en algún momento? La respuesta más allá de la informática y la técnica tiene que ver con la propia filosofía de la mente, y el test de la habitación china ayuda a abrir nuevas preguntas.

Por – Jul 28, 2018 - 15:59 (CET)

Durante las últimas décadas el Test de Turing se ha reconocido como uno de los principales patrones a la hora de hablar de inteligencia artificial. La prueba, en su versión más básica, propone que un juez se comunique a la vez con una persona y una computadora mediante texto sin saber quién de los dos interlocutores es humano o máquina. Si el juez no consigue distinguir entre ambos, la máquina habrá pasado el test.

Aunque la herencia del Test creado por Alan Turing tenga más peso por su presencia en la ciencia-ficción (inolvidable aquella versión que veíamos en Blade Runner), lo cierto es que parece lógico pensar que se ha quedado anticuado. No solo porque hoy en día ya haya bots o asistentes que por algunos minutos puedan darnos el cambiazo, sino porque básicamente el test de Turing fue concebido en 1950, hace más de seis décadas.

A ello se suma además un factor importante, aunque Turing partió para diseñar su test de la pregunta “¿pueden pensar las máquinas?”, él mismo concluyó que el significado mismo de pensar como lo hace un humano es bastante ambiguo, por lo que prefirió rebajar su cuestionamiento hacia la simple imitación de lo humano. Sin embargo, el poso de su planteamiento no ha dejado de impulsar la mayor pregunta sobre la inteligencia artificial; si en algún momento las máquinas podrán igualar o exceder la inteligencia humana.

Este punto de inflexión se conoce como inteligencia artificial fuerte, y en algunos registros las máquinas ya lo han conseguido. Conocida fue la victoria del computador Deep Blue sobre el campeón del mundo de ajedrez Gary Kasparov en 1996. El superordenador de IBM había ganado a una de las mentes más preclaras sobre el tablero de la historia, ahora bien, para hacerlo solo tuvo que contener la información del juego en miles de árboles de jugadas y cómo reaccionar a cualquier movimiento de un alfil para contrarrestarlo. ¿Había ganado Deep Blue pensando o solo ejecutando un mecanismo? ¿Se puede considerar entonces que fuera más inteligente que Kasparov? O por rizar el rizo, ¿tiene más valor la inteligencia orgánica del jugador humano de ajedrez o la inteligencia basada en datos y cadenas de código de la computadora?

La habitación china: un hombre encerrado con un manual

Todas estas preguntas y unas cuantas más que se salen de lo puramente técnico para entrar en lo filosófico son las que nos propone el experimento de La habitación china. Ideado por el filósofo de la Universidad de Berkeley John Searle en 1980 en su escrito Minds, Brains, and Programs, este test mental nos presenta la siguiente situación:

En una habitación cerrada se encuentra un individuo (Searle se ponía como ejemplo a él mismo) que por ejemplo solo habla el idioma inglés. Fuera de ella, hay un interlocutor que solo habla chino, y que no sabe que hay dentro de la habitación cerrada. La habitación cuenta con dos rendijas en sus paredes. Por la primera de ellas el interlocutor introduce una tarjeta con un símbolo de chino mandarín. El individuo del interior, debe entregar a través de la segunda rendija una respuesta también en chino del primer input que ha recibido, y para ello cuenta con un manual que le indica qué respuestas puede dar según la primera grafía que reciba. El individuo de la habitación, sin saber chino, solo debe seguir secuencias que le aparecen en el manual (del tipo, si recibes los símbolos 这是最好的技术网站, puedes responder con 你是对的), lo que hace sin problemas y devolviendo respuestas satisfactorias, al igual que acabamos de hacer nosotros, sin tener ni idea de chino, usando Google Translate.

¿Significa esto que el individuo de la habitación sabe chino? El interlocutor, a buen seguro pensará que el hombre o máquina que hay dentro es capaz de responderle. ¿O es el manual el que sabe chino?

John Searle

Searle no se oponía a la hipótesis de que en algún momento las máquinas pudieran llegar a pensar, pero con este experimento intentaba demostrar que la simple imitación que propone el test de Turing no es suficiente para decir que una máquina lo hace.

En cierto modo, el proceso que sigue el individuo del interior es muy similar a los procesos que siguen muchos programas informáticos basados en inteligencia artificial: acumular una base de datos de enorme magnitud para resolver cuestiones en función de la misma. Que lo hagan correctamente y den una respuesta satisfactoria, para Searle, no significa que doten de sentido a lo que hacen, ni mucho menos que tengan conciencia de sí mismos. El ordenador puede traducir o hablar chino sin comprender lo que dice, justo como hace el hombre del interior de la habitación.

Searle extendía el asunto a otras de sus ramas de estudio, la filosofía del lenguaje. En su opinión, el dominio de la sintaxis que puede tener una máquina (ordenar palabras para que cobren un sentido) no tiene implícito el dominio de la semántica (conocer lo que significan). Sin embargo, el propio filósofo dejaba una pregunta más abierta que se adelantaba a sus críticas: ¿Puede considerarse que sea todo el sistema de la habitación (las ranuras, el manual y el individuo) el que hable chino en su totalidad?

Las críticas beben del propio debate sobre qué es inteligencia

El planteamiento de La Habitación China ayuda a abrir la mente a la hora de plantearnos multitud de cuestiones sobre el futuro de la IA, e incluso a abrir el melón filosófico sobre qué consideramos pensar y ser un ser inteligente, que comprende además.

Las críticas más fuertes que recibe es la de tener una visión antropocéntrica, al limitar la inteligencia a la versión humana, un posicionamiento de base que no obstante comparten la mayoría de los debates entorno a la IA. Volvemos a la pregunta: ¿Es más válida la inteligencia humana que la inteligencia computacional capaz de unir millones de datos para sacar una conclusión? O sin mirar al futuro, ¿descartamos de pleno en estos debates otros tipos de inteligencia no manifestada a través del lenguaje como la inteligencia animal?

El problema seguramente esté en la base de que cuando pensamos en la IA lo hacemos o bien para solucionar un problema humano o bien para facilitarnos soluciones. Como ejemplo, el perro-robot de Boston Dynamics que tan viral se volvió en su presentación por su capacidad para abrir puertas o correr a gran velocidad se incluye dentro de la robótica pura y no de la inteligencia artificial, por mucho que sus creadores diseñaran un prototipo imitando la capacidad de los perros para recorrer terrenos peligrosos y un sistema de sensores que imita su extraordinaria recepción sensitiva y su inteligencia para actuar en función de lo que percibe. Cuando hablamos de inteligencia en tecnología, definitivamente, pesa el sesgo de lo humano como un todo.

La otra gran pregunta llega al cuestionarnos si admitimos que es todo el sistema de la habitación china el que habla chino en su conjunto, y no señalamos que ni el manual por sí mismo, ni el hombre, son incapaces de hacerlo. Esto supone aceptar algo tan básico como el uso de sistemas para complementar una acción, en lo que se basa la computación.

Para algunos filósofos contemporáneos, el uso de sistemas que acaban denotando inteligencia no es algo exclusivo de las máquinas, sino que es también así en el ser humano. Hilary Putman, por ejemplo, entendía que la mente funcionaba como una especie de "Máquina de Turing", en la que nuestro cuerpo es algo así como el hardware y el cerebro el software. Dentro de nuestro software, además, la inteligencia y la comprensión no se genera de forma única, sino que depende de multitud de conexiones neuronales que dan lugar a una respuesta, un sistema, que según su punto de vista y el de sus seguidores, es muy similar a la consulta de bases de datos y secuencias que realiza un ordenador.

Aunque Putman acabó negando parte de sus pensamientos originales, dejó huella en buena parte de pensadores actuales, como Daniel Dennet, filósofo de la Universidad de Tufts, quien en su libro Bombas de Intuición admite parte de los límites de la Habitación China al hablar por ejemplo de los mecanismos que usa una máquina para ganar una partida de ajedrez por ser una secuencia lógica, pero no en otros aspectos que surgen de la interacción con el mundo real fuera de estas normas lógicas. Para él, el sistema de la Habitación China, y los recursos de cualquier inteligencia artificial, crean comprensión al igual que lo hace la mente humana, donde, según sus palabras, la comprensión se crea “gracias a una serie de competencias apiladas sobre otras competencias”. Un proceso de aprendizaje que los humanos adquirimos a lo largo de todos nuestros conocimientos y experiencias, y las máquinas gracias a la carga de nuevos datos.