LaMDA, la inteligencia artificial de Google, está en boca de todos. Recientemente, un ex empleado de la compañía sugirió que esta IA podría haber llegado al nivel de adquirir consciencia propia. Para apoyar sus declaraciones, el ex empleado ha publicado una serie de conversaciones que ha tenido con LaMDA durante el tiempo en el que interactuó con la misma. Aunque las respuestas de la IA son asombrosas y nos generan distintas sensaciones, ¿es suficiente para considerar que tiene consciencia propia?

Alan Turing diseñó un test para deducir si una inteligencia artificial es capaz de alcanzar un nivel humano de inteligencia. Turing era cuidadoso, ya que no buscaba definir si una IA es capaz de imitarnos, sino si tiene la capacidad de llegar al nivel de complejidad que alcanza nuestra mente.

Este test se inspira en un famoso juego de la era victoriana, denominado como "juego de imitación". ¿Cómo funcionaba? Pues bastante sencillo. Tres personas, un hombre, una mujer y un interrogador, permanecían en cuartos separados. El objetivo de los dos primeros era demostrar que eran una mujer respondiendo por escrito a una serie de preguntas planteadas por el interrogador. Por lo tanto, el hombre debía asumir un papel de engañador. Al final, el interrogador debía señalar quién era la verdadera mujer.

El juego de imitación, pero para la IA

Turing test: robot versus human sitting inside cubes facing each other

A diferencia de sus predecesores, Turing dejó de preguntarse cuál era el origen de nuestra consciencia. Aunque estos cuestionamientos fueron consideraciones vitales para el futuro de la inteligencia artificial, Alan Turing decidió hacerse una pregunta mucho más sencilla: "¿Puede un ordenador hablar como un ser humano?".

Turing tomó inspiración del "juego de imitación", pero intercambiaría al hombre o la mujer por una computadora. De esta forma, el tercero tendría la tarea de adivinar cuál de los participantes era la computadora, y quién era el ser humano.

Turing creía que, si una computadora era capaz de comunicarse con suficiente naturalidad, elocuencia, lógica y conocimiento —sin llamar la atención o destacar por su artificialidad—, solo así podría considerarse lo suficientemente inteligente para llegar al intelecto humano.

Aunque el científico creía que para el año 2000 los ordenadores ya serían capaces de superar esta prueba, estuvo equivocado. No es que ninguno lo haya logrado, pero aquellos pocos que lo han hecho se han centrado más en engañar a los jueces, que en usar sus poderes de procesamiento para responder con suficiente inteligencia.

El problema con los chatbots en el Test de Turing

Existe un cierto grupo de inteligencias artificiales que han sido denominados como "chatbots". Con estas entidades, cualquier persona en el mundo puede tener una conversación, y recibir respuestas "inteligentes". De hecho, LaMDA, la controversial IA de Google, forma parte de este grupo.

Cleverbot es otro de las propuestas más famosas que existen en la actualidad. Aunque las respuestas individuales de Cleverbot pueden llegar a parecer extremadamente naturales, la IA falla a la hora de mostrar una personalidad clara, y también posee una baja capacidad de entrar en nuevos tópicos con naturalidad.

Esto demuestra que solo usar bases de datos a la hora de entrenar una IA en lenguaje no es suficiente. Estas tecnologías deben poseer, además, ciertas habilidades de intuición y reconocimiento del entorno. De hecho, una forma muy sencilla de ver las limitaciones de los chatbots es usar silencios en una conversación, o muletillas como "Eh...", "Mmm...", y otras frases de este estilo.

Las limitaciones del Test de Turing y por qué no importa tanto en la actualidad

inteligencia artificial

Aunque Alan Turing diseñó un cuestionario bastante interesante para probar las habilidades lingüísticas de un ordenador, no es capaz de probar su "consciencia".

El "simple" hecho de probar la consciencia de una IA es bastante complicado. Durante siglos los seres humanos han batallado con definir qué es ese estado, y aunque esta pregunta ha pasado de ser filosófica a científica, seguirá siendo difícil estimar si un ser externo posee dicha cualidad.

Para hacerlo, los científicos e investigadores tendrán que diseñar sistemas y cuestionarios basados en la experiencia humana. Esto, por supuesto, crearía sesgos inevitables a la hora de definir qué sistemas son o no conscientes.

Por esto, incluso si somos capaces de crear una IA que pueda superar el famoso test de Turing, realmente esto no es un indicador de su consciencia. Después de todo, esto solo deja en evidencia qué tanta información pueda manejar, enlazar y procesar a partir de una base de datos previamente creada.