Filtrar por tipo de entrada
Filtrar por categorías
IA mejora predicción de síndrome hepatorrenal en pacientes con cirrosis

Un nuevo estudio demuestra que modelos de lenguaje avanzados pueden identificar señales clínicas ocultas en notas médicas.

Un artículo publicado en Gastro Hep Advances liderado por investigadores de la Universidad de California, San Francisco (UCSF), evaluó el uso de modelos avanzados de inteligencia artificial (IA) para analizar texto clínico y mejorar la predicción del síndrome hepatorrenal agudo (HRS-AKI, en inglés), una de las complicaciones más graves de la cirrosis descompensada. La investigación muestra que estas herramientas pueden extraer información útil de las notas médicas escritas por el personal clínico, un tipo de dato que históricamente es difícil de aprovechar, y fortalecer los modelos que buscan anticipar esta condición.

El HRS-AKI, es una condición de rápida progresión y alta mortalidad, por lo que su detección temprana es esencial. Sin embargo, su diagnóstico depende en gran parte del juicio clínico y de excluir otras causas de lesión renal, lo que dificulta su identificación oportuna.

El estudio se enfocó en pacientes adultos con cirrosis descompensada y lesión renal aguda hospitalizados en el Centro Médico de la USCF entre 2012 y 2023. A partir de las notas de admisión, se utilizó un modelo de lenguaje (GPT-4o) para realizar dos tareas principales:

  • Calcular un puntaje de “sentimiento clínico”: una puntuación de 0 a 1 que refleja qué tan probable consideraba el equipo médico que el paciente desarrollara HRS-AKI.
  • Extraer términos clínicos clave: como presencia de ascitis refractaria, uso de vasopresores, exposición a nefrotoxinas, administración de octreotida, entre otros.

Estos elementos derivados del texto libre se integraron a modelos estadísticos junto con datos clínicos convencionales.

“El concepto se inspira en la tecnología de análisis de opiniones que se utiliza habitualmente en las reseñas de las plataformas de compras en línea, donde la inteligencia artificial resume las opiniones colectivas”, explicó el Dr. Jin Ge, profesor adjunto de Medicina y gastroenterólogo de la UCSF, que dirigió el estudio. “Utilizamos este enfoque para determinar si las opiniones colectivas podían predecir un diagnóstico de HRS”.

En total, se analizaron 314 pacientes. Los modelos tradicionales basados únicamente en datos estructurados lograron un área bajo la curva (AUROC) de 0.63 al predecir HRS-AKI.

Los resultados cambiaron al sumar información proveniente de IA:

  • Modelo con puntaje de sentimiento: AUROC de 0.70
  • Modelo con términos clínicos extraídos mediante IA: AUROC de 0.74
  • Modelo completo (datos estructurados + sentimiento + extracción de texto): AUROC de 0.79

Los investigadores señalan que las notas clínicas contienen información que generalmente no queda registrada en bases de datos convencionales y que los modelos de lenguaje pueden aprovecharla para mejorar el reconocimiento temprano de complicaciones.

 El uso de la ‘sabiduría colectiva’ no solo permite predecir resultados, sino que ofrece una perspectiva orientativa sobre lo que el equipo clínico piensa colectivamente acerca del estado de un paciente”, expresó el Dr. Ge. “En los casos en los que hay opiniones contradictorias o incertidumbre, los resúmenes generados por la IA podrían ayudar a armonizar las decisiones sobre la atención médica y agilizar los planes de tratamiento”.

El uso de IA podría apoyar al personal médico no solo como herramientas de apoyo a la decisión clínica basadas en la interpretación automática de notas, sino también para la identificación de pacientes con riesgo elevado que podrían pasar desapercibidos con métodos tradicionales, así como para la sistematización de información dispersa en historias clínicas extensas.

No obstante, los autores reconocieron las limitaciones del estudio. Por ejemplo, el análisis se realizó en un solo centro especializado y con una muestra relativamente pequeña, por lo que se requiere validación en otros entornos médicos. Además, el uso de modelos de lenguaje genera preocupaciones éticas entre profesionales relacionadas con privacidad, sesgos y riesgos de errores en las respuestas.

Contenidos Relacionados

Secured By miniOrange