ChatGPT, el modelo de inteligencia artificial desarrollado por OpenAI, ha sido nombrado, junto con otros 11 investigadores de la startup de atención médica Ansible Healt, coautor de un artículo científico que analiza las capacidades de la propia inteligencia artificial para aprobar el Examen de Licencias Médicas de los Estados Unidos (USMLE). Una medida que no ha convencido a muchos especialistas y usuarios e, incluso, ha rechazado Springer Nature, una de las mayores editoriales académicas.

La inteligencia artificial de OpenAI, de hecho, ya ha aparecido en más de una ocasión como coautor de algunos artículos publicados en la revista Nature. Uno de ellos, con un error atribuido a un humano. Incluso medios como CNET han utilizado a ChatGPT para redactar artículos; muchos con multitud de errores, algo que ha hecho cuestionar su uso como herramienta para automatizar el trabajo.

Springer Nature, reiteramos, no está de acuerdo con que ChatGPT se nombre como autor de un artículo. No tienen problema, eso sí, en que ayude a escribir investigaciones. Jack Po, CEO de Ansible Health, sin embargo, ha destacado a Futurism que “añadir ChatGPT como coautor fue definitivamente un movimiento intencional”. Es algo, además, que evaluaron durante un tiempo, destaca el investigador. “La razón por la que lo enumeramos como autor fue porque creemos que realmente contribuyó intelectualmente al contenido del artículo y no solo como un tema para su evaluación”.

Po, no obstante, detalla que ChatGPT no ha formado parte del “rigor científico predominante y las contribuciones intelectuales”. Afirma que contribuyó de la misma forma que lo haría “un autor medio”, pero espera que ChatGPT y otros modelos similares se utilicen en todos los trabajos. Incluidos aquellos de conocimiento.

Que ChatGPT aparezca como autor de un artículo científico no parece convencer a muchos

Qué es ChatGPT

La decisión del CEO de Ansible Health de incluir a ChatGPT como autor, sin embargo, no ha gustado a muchos usuarios y expertos, quienes han llegado a afirmar que se trata de una medida “profundamente estúpida”. Principalmente, porque un modelo de lenguaje de estas características “no puede tener las responsabilidades morales de un autor”. Otros detallan que “si una persona crea o aporta resultados para un artículo”, sí podría nombrarse como coautor. Pero que esto, sin embargo, no es algo que se extienda “a modelos o algoritmos”.

ChatGPT, además, tiene un inconveniente que se ha visto reflejado en las decenas de artículos que ha estado publicando CNET durante las últimas semanas. No siempre es perfecta, y comete muchos errores de cálculos al no procesar correctamente la información.