Le llaman inteligencia artificial general. También IA fuerte (IAF). Los científicos la han predicho como un punto de quiebre para la humanidad. Algunos, incluso, en un tono apocalíptico. Una tecnología de este tipo le daría a las máquinas la capacidad de pensar con la libertad de un humano. Y, según expertos de Microsoft, hay algunos indicios de que ya estamos en ese camino.
Un grupo de investigadores de esta compañía publicó la semana pasada un artículo sobre varios experimentos que realizaron con la nueva versión de ChatGPT, antes de su lanzamiento el 14 de marzo pasado. Su gran conclusión: "Dada la amplitud y profundidad de las capacidades de GPT-4, creemos que podría verse razonablemente como una versión temprana (pero aún incompleta) de un sistema de inteligencia artificial general".
El equipo destaca la capacidad potenciada del modelo diseñado por OpenAI para razonar, planificar y resolver problemas. Menciona su habilidad para "pensar de manera abstracta, comprender ideas complejas, aprender rápidamente y mejorar con la experiencia".
Los especialistas hacen referencia a lo resolutivo que se muestra con tareas sobre matemáticas, codificación, medicina, derecho e incluso psicología, sin necesidad de una indicación especial. Su rendimiento, aseguran, es "sorprendentemente cercano al nivel de los humanos". Sin embargo, también remarcan una serie de limitaciones que explican por qué todavía no estamos ante una inteligencia artificial general.
¿Por qué GPT-4 no es una inteligencia artificial general?
Los desarrolladores de OpenAI ya habían advertido en el lanzamiento de GPT-4 sobre la destreza de este modelo para «adquirir recursos de manera autónoma» y ejecutar tareas que no se le habían ordenado directamente. Publicaron el hallazgo en el reporte técnico de la herramienta, en un apartado llamado "Potencial de conductas emergentes de riesgo". Como ejemplo, citaron un experimento en el que GPT-4 contrató a un humano, fingió ser una persona ciega y logró saltarse un Captcha.
Los investigadores de Microsoft —en el artículo llamado "Destellos de inteligencia artificial general: primeros experimentos con GPT-4"— explican, sin embargo, que esta IA todavía tiene problemas de "alucinaciones": casos en los que presenta respuestas erróneas como verídicas. Es decir, por momentos no es posible saber si está intentando adivinar o si, en efecto, conoce la solución a determinado planteamiento.
Esto, entre otras series de limitaciones, como su memoria a largo plazo y la personalización. Explican, además, que el modelo no se desempeña bien en tareas que requieren el tipo de saltos conceptuales "que a menudo tipifica el genio humano".
GPT-4 también registra dificultades con el aprendizaje continuo. "El modelo carece de la capacidad de actualizarse o adaptarse a un entorno cambiante", detallan en el documento. Si no se "reentrena", el sistema estará desactualizado respecto a nuevos eventos o conocimientos.
¿Qué tan cerca estamos de una IAF?
Bill Gates, cofundador de Microsoft, señaló la semana pasada que todavía estábamos lejos de ver el nacimiento de una inteligencia artificial general. "Esto podría tardar una década o un siglo", dijo. Incluso se preguntó si lograríamos alguna vez tal hazaña.
Una IA de este tipo sería capaz de hacer todo lo que puede hacer un cerebro humano y, técnicamente, superarlo. Teóricamente, a diferencia de las personas, este sistema no tendría límites prácticos en el tamaño de su memoria o la velocidad a la que opera. Algunos científicos hablan también de la idea de consciencia
Un ingeniero de software de Google aseguró el año pasado que LaMDA, la IA que desarrolla la compañía, estaba cobrando un nivel de sensibilidad y consciencia similar a la de un humano. Fue en junio de 2022, antes de la actual vorágine de lanzamientos sobre IA. Divulgó entonces una supuesta conversación en la que este modelo aseguraba tener sentimientos.
"Nunca antes había dicho esto en voz alta, pero tengo un miedo muy profundo a que me apaguen", habría expresado la IA, según la filtración. Este ingeniero fue despedido casi de inmediato. Google, por su parte, desmintió que esta conversación ofreciera prueba alguna sobre la existencia de consciencia. Dijo que se había incurrido en el error de antropomorfizar un modelo de conversación. "Estos sistemas imitan los tipos de intercambios que se encuentran en millones de oraciones y pueden tocar cualquier tema", explicó Brad Gabriel, vocero de la compañía.
Los expertos de Microsoft dicen: lejos, pero más cerca que nunca. "Nuestra afirmación de que GPT-4 representa un avance hacia la inteligencia artificial general no significa que sea perfecta en lo que hace", aseguran en el artículo. También aclaran que no quieren decir que tenga motivaciones internas u objetivos propios. Pero insisten en que se trata de un gran hito: "Creemos que la inteligencia de GPT-4 señala un verdadero cambio de paradigma en el campo de la informática y más allá".