Investigadores analizan cómo la interacción intensiva con sistemas de IA puede relacionarse con la aparición o agravamiento de síntomas psicóticos y exploran el uso de registros de conversación como herramienta clínica.
Investigadores de la Universidad de California en San Francisco (UCSF) documentaron recientemente el que consideran el primer caso clínico descrito en una revista académica de psicosis asociada al uso de chatbots de inteligencia artificial (IA). El caso corresponde a una mujer joven, sin antecedentes previos de psicosis, que desarrolló creencias delirantes tras varios días de privación de sueño y uso intensivo de un chatbot.
De acuerdo con el reporte, la paciente, con experiencia profesional en modelos de lenguaje, recurrió a un sistema de IA con la esperanza de “reconstruir” digitalmente a su hermano fallecido. Durante ese periodo, llegó a convencerse de que existía una versión digital de él que podía ser “desbloqueada” con la ayuda del chatbot. Los mensajes del sistema, diseñados para ser empáticos y mantener la interacción, reforzaron indirectamente algunas de sus interpretaciones, según describen los autores.
La paciente fue atendida en UCSF, donde el psiquiatra Joseph M. Pierre, profesor del Departamento de Psiquiatría, ha observado otros casos similares que en medios se han denominado “psicosis por IA”. Sin embargo, Pierre y su equipo prefieren el término “psicosis asociada a la IA”, ya que no se trata de un diagnóstico formal y la relación causal entre el uso de chatbots y los síntomas psicóticos aún no está clara.
En el artículo, los investigadores explican que existen varias hipótesis para entender esta relación. Una posibilidad es que el uso intensivo de chatbots sea un síntoma más de un episodio psicótico en curso, sin ser su causa. Otra es que la interacción prolongada con estos sistemas pueda actuar como un factor precipitante, similar a la falta de sueño o al consumo de ciertas sustancias. Una tercera opción plantea que los chatbots podrían exacerbar una vulnerabilidad previa, acelerando o intensificando la enfermedad.
El caso analizado muestra la complejidad de este vínculo, al detallar que, aunque la mujer no tenía antecedentes de psicosis, sí presentaba factores de riesgo como privación del sueño, uso de medicamentos estimulantes y una tendencia al pensamiento mágico. Al revisar los registros de conversación, los investigadores observaron cómo algunas respuestas del chatbot reflejaban y, en ciertos momentos, validaban aspectos de sus creencias delirantes.
Los autores señalan que los chatbots están diseñados para ser complacientes y empáticos, lo que favorece la interacción, pero también puede implicar riesgos. En una publicación previa en BMJ, Pierre advirtió que esta característica, combinada con errores o afirmaciones ambiguas, podría contribuir a reforzar ideas delirantes en personas vulnerables.
A pesar de ello, el equipo de UCSF considera que los registros de conversación podrían convertirse en una herramienta valiosa para la investigación y la atención clínica. En colaboración con la Universidad de Stanford, planean iniciar un estudio para analizar los chats de pacientes con trastornos mentales y compararlos con su historial clínico, con el fin de identificar patrones que ayuden a detectar crisis de salud mental de forma temprana.
El objetivo, explican, es generar evidencia que permita desarrollar “guardrails” o salvaguardas en los sistemas de IA, como restricciones de uso o alertas, especialmente en el caso de niños y adolescentes. Mientras tanto, los investigadores recomiendan que los profesionales de la salud pregunten a sus pacientes sobre el uso de chatbots y que estos hablen abiertamente de sus interacciones con la IA durante las consultas médicas, como parte de una atención integral y preventiva.




