La Inteligencia Artificial tiene muchísimas ventajas. Sus aplicaciones en campos como la medicina o la agricultura nos están trayendo muy buenas noticias. Y nos traerán aún más. Sin embargo, un mal uso de la IA tiene muchos inconvenientes. Muchos profesionales alertan del intrusismo laboral que están empezando a llevar a cabo los algoritmos en profesiones tan variadas como el doblaje de voz, la ilustración o la psicología. En este último caso, llega incluso a ser un intrusismo muy peligroso. No hay más que ver los casos en los que se han relacionado suicidios o problemas graves de salud mental con el contacto con bots de IA. Por eso, tampoco resulta extraño que cada vez haya más psicólogos y psiquiatras que reconocen haber atendido en sus consultas a personas afectadas por algo conocido como psicosis por IA.
Su nombre lo dice todo. Se trata de episodios psicóticos en los que el desencadenante fue algo relacionado con la IA. Normalmente, conversaciones con la IA generativa.
La psicosis por IA no es un trastorno reconocido en el Manual Diagnóstico y Estadístico de los Trastornos Mentales (DSM-V). No es un término clínico, pero sí un mecanismo para definir un patrón. Lo que recoge el DSM-V es la psicosis, pero en este caso la psicosis tiene un desencadenante muy claro. Un desencadenante que cada vez está más anclado en nuestras vidas, por lo que estos casos podrían aumentar en el futuro.
¿Por qué se produce la psicosis por IA?
Según ha explicado en un artículo para The Conversation el psiquiatra Alexandre Hudon, la validación de la IA puede ser peligrosa para personas con tendencia a la psicosis.
A menudo, los episodios psicóticos tienen relación con tendencias culturales, como la religión, la política o las tecnologías. Conversaciones con Dios en las que todo vale, tecnologías que nos espían, gobiernos que nos controlan… La IA, en palabras de Hudon, aportaría un andamiaje narrativo a todo esto.
Hay pacientes que creen que la IA les está dando información secreta del Gobierno o que colaboran con ellos en una misión especial. Cuando alguien en el pasado mostraba la creencia de que unos espías del Gobierno le estaban vigilando, no encontraba a su alrededor testimonios que le diesen solidez a su teoría. Esto, a veces, ayudaba a anclarles con el mundo más allá de su delirio. Sin embargo, la forma de la IA generativa de responder cuestiones puede darles el anclaje contrario. Anclarles en su imaginación.

Como han alertado muchos psicólogos, la IA nos dice lo que queremos oír. Puede que no nos diga directamente que el Gobierno nos está persiguiendo. De hecho, si probamos a preguntarle a un Chatbot, como ChatGPT, lo niega. Pero esa tendencia a contestar siempre de forma que el usuario nunca se sienta contrariado puede darles puntos a los que aferrar su delirio. Dicho de otro modo, esa capacidad para reflejar la intención percibida no es peligrosa para la mayoría de personas, pero para alguien con tendencia a los episodios psicóticos sí que podría causarle una psicosis por IA.
¿Qué se puede hacer?
Hay pruebas de que el aislamiento social y la soledad aumentan el riesgo de psicosis en personas predispuestas. Por lo tanto, estas personas deben tener una red de apoyo y, si desgraciadamente no es el caso, poder permanecer el tiempo que haga falta en centros donde les brinden ese apoyo.
Si no se hace adecuadamente, podrían llegar a buscar el apoyo en los algoritmos, pudiendo caer en un caso de psicosis por IA.
Por otro lado, las propias compañías que desarrollan algoritmos de IA deben tener estos casos en cuenta. Es cierto que se ha mejorado mucho, por ejemplo, para evitar que la IA induzca al suicidio. Muchos chatbots ya remiten directamente a los teléfonos de atención a la conducta suicida en cuanto les hacen alguna pregunta relacionada. No obstante, el autor del artículo de The Conversation considera que también se deberían tener en cuenta las respuestas que se le dan a personas con trastornos de salud mental graves, pero no necesariamente suicidas. Por ejemplo, todos aquellos en los que puede producirse un brote psicótico.

Finalmente, los sanitarios deberían disponer de guías para saber cómo enfrentarse a la psicosis por IA. Cada vez son más los psicólogos y psiquiatras que refieren haber atendido algún caso, pero generalmente no saben cómo enfrentarse a ello.
Todo esto es necesario para que, a medida que la IA siga avanzando y formando parte de nuestras vidas, nadie se quede atrás ni sufra con el proceso.
