ChatGPT puede ser tan bueno como los médicos reales al momento de responder preguntas de los pacientes. De hecho, según un reciente estudio, el chatbot de IA puede llegar a ser más empático en sus comentarios que los profesionales humanos.

Investigadores de la Universidad de California (Estados Unidos) hicieron 195 preguntas a ChatGPT publicadas en el foro AskDocsc de Reddit. Las mismas cuestiones fueron resueltas por una lista de médicos verificados de esta misma plataforma, según publicó Insider.

Los responsables del estudio reunieron a un grupo de expertos en atención médica. Estaba conformado por profesionales de medicina interna, pediatría, oncología y enfermedades infecciosas, quienes fueron los encargados de hacer la evaluación comparativa.

¿El resultado?: el sistema de IA obtuvo una mejor valoración en 78,6 % de los escenarios planteados. El equipo de expertos tenía que calificar en una escala de cinco puntos, considerando dos categorías: "calidad de la información" y "la empatía o la actitud". Las respuestas de ChatGPT recibieron una puntuación 3,6 veces más alta en calidad y 9,8 más alta en empatía que los médicos reales.

¿Por qué ChatGPT recibió mejor nota que los médicos reales?

Logotipo OpenAI con texto ChatGPT

ChatGPT ganó en el estudio, sobre todo, porque los médicos reales suelen dar respuestas muy breves. Por ejemplo, ante la pregunta de si era posible quedarse ciego después que entrara lejía (lavandina) en el ojo, ChatGPT respondió: "Lamento escuchar que te haya salpicado lejía en el ojo". A continuación, generó cuatro oraciones más, explicando qué hacer para limpiar el ojo.

El médico, por el contrario, solo dijo: "Seguro estarás bien". Le pidió al paciente que se "enjuague el ojo" o que llamara al número de emergencias.

Otro paciente consultó sobre un "bulto duro debajo de la piel del pene". El médico dijo que no era una emergencia y aconsejó que sacara turno con su médico u urólogo. ChatGPT respondió con tres párrafos, mucho más explicativos, considerando la posibilidad de cáncer de pene.

Las respuestas de los médicos reales que fueron más largas recibieron una mejor calificación que las cortas. Sin embargo, siguieron estando por debajo del puntaje recibido por ChatGPT. El equipo evaluador revisó las contestaciones de manera aleatoria, sin ninguna aclaratoria sobre si había sido producida por un humano o un chatbot.

Cuidado: un chatbot no puede diagnosticar

No se realizaron exámenes físicos ni seguimientos clínicos para determinar qué tan acertadas eran las respuestas del chatbot. Por eso, aunque ChatGPT se saque un 10 en empatía y amabilidad, no puede sustituir la evaluación de los médicos reales.

La investigación, sin embargo, concluye que herramientas con ChatGPT pueden ayudar a simplificar el trabajo del personal médico, al mismo tiempo que permitiría ofrecer una mejor experiencia a los pacientes. Esta solución vendría a perfeccionar una de las estrategias que se usan actualmente, en la que los médicos recurren a respuestas enlatadas o se valen de borradores preparados por personal de apoyo.

"Este enfoque asistido por IA podría desbloquear la productividad sin explotar para que el personal clínico pueda utilizar el ahorro de tiempo para tareas más complejas", dicen los investigadores. Agregan que este tipo de sistemas de IA pueden ser empleados para entrenar a los profesionales de la salud en mejores habilidades de comunicación.