Mientras la Inteligencia Artificial (IA) de Google sigue buscando un abogado para resolver sus cuestiones legales, al otro lado del planeta, otra IA ha logrado crear una investigación académica completa. Y lo hizo en apenas dos horas.

Esta historia, que bien podría tener origen en una realidad distópica, nacía de una premisa muy simple. Un investigadora sueca pedía a GPT-3, una IA, que escribiese una investigación académica sobre sí misma. De solo 500 palabras para empezar, pero con todo lo que implica un texto de este género. Minutos después comenzaba a elaborar un documento con fuentes y referencias. Uno que, según la investigadora, era "bastante bueno". Especialmente, y según explica el investigador, no había demasiadas esperanzas de que saliese algo bueno de ahí. Las instrucciones eran, cuanto menos, vagas y poco detalladas. Sin embargo, la IA fue capaz de crear un texto en el que todos los elementos estaban donde debían y bien fundamentados.

Pero si la idea de una IA operando como investigadora medianamente competente parecía una locura, la historia fue un poco más lejos. A un punto que abría un debate ético y legal sobre el papel de esta tecnología y hasta dónde pueden llegar. Almira Osmanovic Thunström, la científica sueca que le hizo el peculiar encargo a la IA, decidió que la investigación de, y sobre, GPT-3 podía enviarse a una revista científica. Ahora bien, ¿puede publicarse una investigación no firmada por un humano?

Lo primero es lo primero. Thunström preguntó a la IA si estaba dispuesta a publicar la investigación en una revista. GPT-3 respondió que sí. También si, por cualquier motivo, había un conflicto de intereses que afectase a la veracidad de la publicación. La IA respondió que no. ¿Quiere decir esto que GPT-3 tiene emociones y es sensible a ciertas cuestiones? Es un momento complicado precisamente para esta cuestión. Principalmente, tras la conversación que el ingeniero de Google tuvo con LaMDA y en la que afirmaba que esta era un "ser" sensible. Según los investigadores, este no es el caso. Tampoco el de LaMDA, del que apuntan que aún estamos lejos de una entidad plenamente sensible. Aunque tampoco han respondido al motivo por el que la IA respondió de forma afirmativa.

La caja de Pandora de las publicaciones científicas creadas por IA

Las revistas sobre investigaciones científicas llevan tiempo en el ojo del huracán por cuestiones que no vienen al caso. Ahora suman el debate de si incluir investigaciones realizadas por Inteligencia Artificial o no.

"Es posible que la publicación académica tenga que adaptarse a un futuro de manuscritos impulsados ​​por IA, y el valor de los registros de publicación de un investigador humano puede cambiar si algo no sensible puede atribuirse el mérito de parte de su trabajo", apuntaba Thunström en una publicación.

Principalmente, porque ya son muchos los investigadores que han llegado a la conclusión de que la IA de GPT-3 puede llegar mucho más lejos. Es capaz de escribir de cualquier cosa que se le proponga, más allá de lo que implica su mera existencia. Como después explicaba Thunström en su propia investigación, –esta vez sí hecha por un ser humano–, las cuestiones legales y éticas de que un artículo esté realizado por una IA son enormes. La primera de ella, los datos de contacto para posibles rectificaciones o revisiones de los textos. La investigadora explica que tuvo que poner su propio teléfono y correo de contacto para superar este problema.

Problemas que, apuntan, pueden "abrir la Caja de Pandora". En cualquier caso, el grupo que lidera esta investigación aún está esperando para saber si finalmente se publicará o no el texto creado por la IA. Pero tienen esperanza y, por un motivo muy concreto. Si la ciencia puede producir investigaciones complejas en 24 horas, el sector dejaría de basarse en el volumen de investigaciones publicadas para recibir financiación. Al final, sería un dato absurdo cuando podrían producir una al día.

4 respuestas a “Esta IA ya es capaz de hacer el trabajo de unos científicos y eso abre un problema ético”