Estudio muestra como modelos de lenguaje y herramientas de IA pueden detectar signos de depresión y riesgo de suicidio.
Una investigación publicada en JAMA Network Open evaluó el desempeño de grandes modelos de lenguaje (LLM, en inglés) y modelos de incrustación de texto o text embedings como SBERT y SimCSE, para identificar señales de depresión y riesgo de suicidio en pacientes psiquiátricos, a partir de sus respuestas en pruebas de completamiento de oraciones.
El estudio fue realizado en el Centro Médico Boramae de la Universidad Nacional de Seúl, en Corea del Sur, con datos recopilados entre 2016 y 2021. Participaron 1,064 pacientes de entre 18 y 39 años que completaron evaluaciones psicológicas y narrativas tipo test proyectivo, además de escalas de autovaloración para depresión y suicidio.
Los investigadores probaron modelos como GPT-4o y Gemini-1.0, además de algoritmos de machine learning o aprendizaje automático basados en vectores de texto. El objetivo fue medir su capacidad para detectar depresión clínica significativa y riesgo suicida a partir de narrativas escritas por los pacientes sobre su autoimagen, relaciones familiares, percepción de género e interacciones interpersonales.
Los resultados mostraron que los modelos analizados lograron identificar correctamente señales de depresión y suicidio con una precisión razonable, especialmente cuando se utilizaban narrativas sobre el autoconcepto. Por ejemplo, el modelo de texto combinado con un algoritmo de extreme gradient boosting logró una puntuación de 0.84 en detección de depresión. Asimismo, modelos como GPT-4o obtuvieron buenos resultados con aprendizaje sin ejemplos o zero-shot y con ejemplos previos o few-shot.

Para el riesgo suicida, el mejor desempeño se obtuvo con GPT-4o en modalidad few-shot, con una puntuación F1 de 0.70. Estos resultados reflejan el potencial de la inteligencia artificial para analizar lenguaje natural y apoyar procesos diagnósticos en salud mental, aunque se requieren más estudios clínicos para su validación y aplicación segura.
En este sentido, los autores destacan que si bien estas herramientas muestran potencial para apoyar el diagnóstico en contextos clínicos, aún es necesario mejorar su precisión, comprender mejor cómo toman decisiones y garantizar el resguardo ético de la información sensible.
Finalmente, el estudio sugiere que, con mayores desarrollos y validaciones, estos modelos podrían complementar las evaluaciones clínicas en salud mental y apoyar la detección temprana de riesgos, particularmente en contextos donde el acceso a profesionales de salud es limitado.