ChatGPT y sus derivados, como el chatbot de Bing, se han convertido en poco tiempo en un recurso increíblemente útil para todo tipo de usuarios, y lo será más en el futuro. Pero en estas primeras fases en los que los usuarios están probando a fondo sus posibilidades, también se están revelando muchas de sus debilidades.

Y es que ChatGPT no solo ofrece información útil y relevante, también está cayendo en un problema que con el tiempo, de no solucionarse, será especialmente problemático. El chat de OpenAI está ofreciendo respondiendo a los usuarios hechos inventados y desinformación, y eso se está convirtiendo rápidamente en un problema muy real.

De hecho, ChatGPT se está inventando artículos completos de The Guardian que, en realidad, nunca se publicaron, algo que, de facto, supone que ni los usuarios, ni el propio ChatGPT sean capaces de distinguir de manera confiable la verdad de la ficción. Y eso es un problema enorme no solo para la confianza en la tecnología de ChatGPT, también de cara a que los usuarios puedan fiarse de que el chat no sea otra fuente de desinformación bajo la apariencia de contenido confiable y valioso.

ChatGPT se inventa estudios para justificar sus respuestas

Un problema que, además, puede ir a más si la tecnología actual se implementa como tecnología de los buscadores, ofreciendo información que aparentemente es de fuentes confiables, pero que, en realidad, son invenciones del propio ChatGPT.

Se ha escrito mucho sobre la tendencia de la IA generativa de fabricar hechos y eventos. Pero esta peculiaridad específica es particularmente preocupante para las organizaciones de noticias y para los periodistas, cuya inclusión agrega legitimidad y peso a una fantasía escrita de manera persuasiva.

Y para los lectores y el ecosistema de la información, abre preguntas completamente nuevas sobre si se puede confiar en las citas de alguna manera. Y bien podría alimentar teorías de conspiración sobre temas delicados que nunca existieron.

Chris Moran, jefe de innovación editorial de The Guardian,

Y esto va más allá de artículos simples inventados. Según citan en Futurism, varios periodistas de USA Today se sorprendieron al descubrir que ChatGPT había presentado citas de estudios de investigación completos sobre cómo el acceso a las armas no aumenta el riesgo de mortalidad infantil. Pero los estudios citados en las notas de ChatGPT no existían. En realidad, eran inventados.

Para añadir más gravedad al asunto, ChatGPT se defendió y citó que las referencias que proporcioné son genuinas y provienen de revistas científicas revisadas por pares. Pero era mentira.

La solución no está clara. Como tampoco el culpable del problema. Ahora es responsabilidad de las compañías que desarrollan las IA ponerse solución al asunto.