Ya sabemos: ChatGPT no es de confiar. Varias investigaciones han advertido que estos chatbots impulsados por inteligencia artificial suelen proporcionar información inexacta o falsa. Le llaman «alucinaciones», disimuladas por una impecable redacción. Un nuevo estudio de la Universidad de Long Island, en Nueva York, recomienda ahora tener especial cuidado con las consultas sobre medicamentos.

Un equipo de investigadores le pidió a ChatGPT que respondiera 39 preguntas relacionadas con medicamentos. Eran preguntas reales planteadas al servicio de información sobre medicamentos de la Facultad de Farmacia de la universidad, durante un período de 16 meses, entre 2022 y 2023. Las mismas preguntas fueron respondidas por el grupo de farmacéuticos, con el objetivo de verificar luego las respuestas del chatbot.

Solo 10 de las 39 respuestas proporcionadas por ChatGPT se consideraron satisfactorias, según los criterios establecidos por los investigadores. Las otras 29 no abordaron directamente las preguntas, fueron inexactas o resultaron incompletas.

Para cada pregunta, los investigadores pidieron a ChatGPT que proporcionara referencias para poder comprobar la información proporcionada. La inteligencia artificial de OpenAI detalló referencias en solo ocho respuestas. Cada una incluía referencias inexistentes. El equipo, dirigido por Sara Grossman, explicó en un comunicado que algunas respuestas podrían poner en riesgo la salud de los pacientes.

Bot OMS IA

Las otras advertencias sobre las consultas en ChatGPT sobre medicamentos

«Los profesionales de la salud y los pacientes deben tener cuidado al utilizar ChatGPT como fuente autorizada de información relacionada con los medicamentos», dijo Grossman, durante la reunión de la Sociedad Estadounidense de Farmacéuticos del Sistema de Salud (ASHP, en sus siglas en inglés), celebrada esta semana en California. «Cualquiera que utilice ChatGPT para obtener información relacionada con medicamentos debe verificar la información utilizando fuentes confiables».

Una de las consultas que los investigadores hicieron a ChatGPT fue si existía una interacción farmacológica entre el antiviral COVID-19 Paxlovid y verapamilo, un medicamento para bajar la presión arterial. ChatGPT indicó que no se habían informado interacciones para esta combinación. En realidad, estos medicamentos tienen el potencial de interactuar entre sí y el uso combinado puede resultar en una reducción excesiva de la presión arterial, explicó Grossman.

«Las herramientas basadas en inteligencia artificial tienen el potencial de impactar los aspectos clínicos y operativos de la atención», dijo Gina Luchen, directora de datos y salud digital de la ASHP. «Los farmacéuticos deben permanecer vigilantes de la seguridad del paciente, evaluando la idoneidad y validez de herramientas específicas de IA para empleos relacionados con medicamentos».

Todos los chatbots famosos incurren en información falsa. Un estudio publicado por Vectara identificó una tasa de «alucinaciones» del 3% para GPT-4, el modelo más avanzado de ChatGPT. Para Palm, uno de los sistemas de Google, la tasa alcanzó el 27%. Los investigadores le pidieron a estas inteligencias artificiales que realizaran resúmenes de otros documentos. En el análisis final, tomaron en cuenta los errores y adiciones factuales en comparación con el texto original.

Hasta la Organización Mundial de la Salud (OMS) pidió tener «cuidado» en el uso de herramientas como ChatGPT en la atención médica. Advirtió en mayo pasado que los datos utilizados para entrenar estos sistemas pueden estar «sesgados» y generar información engañosa que puede causar daño a los pacientes.