SCAI, una poderosa herramienta clínica de IA desarrollada en la Universidad de Búfalo obtuvo resultado prometedores en el USML.
Un equipo de investigadores de la Universidad de Búfalo desarrolló una técnica para mejorar el rendimiento de los grandes modelos de lenguaje (LLMs, en inglés) en exámenes médicos utilizando inteligencia artificial (IA) semántica. En un estudio publicado en JAMA Network Open, se probó el método en el Examen para la obtención de la licencia médica en Estados Unidos (USMLE, en inglés), obteniendo resultados superiores al incorporar conocimientos clínicos codificados mediante una estrategia llamada “generación aumentada por recuperación” o RAG.
La integración de conocimientos clínicos estructurados logró elevar el desempeño de LLMs en el USMLE. El estudio evaluó tres versiones del modelo Llama (13B, 70B y 405B) en 313 preguntas del USMLE correspondientes a sus tres etapas. A través de la técnica Semantic Clinical Artificial Intelligence con RAG (SCAI-RAG) se añadieron triples semánticos, es decir estructuras que representan relaciones clínicas como “medicación trata enfermedad”, a las instrucciones que reciben los modelos.
Los resultados mostraron que los modelos mejoraron significativamente su precisión al responder preguntas. El modelo Llama 13B logró pasar la tercera etapa del USMLE tras incorporar SCAI-RAG (60.2%), mientras que los modelos 70B y 405B superaron todas las etapas con y sin el complemento semántico, alcanzando hasta un 95.1% de aciertos.
Por su parte, Peter L. Elkin, autor principal, expresó que: “Como médicos, estamos acostumbrados a usar los ordenadores como herramientas, pero SCAI es diferente; puede añadirse a tu toma de decisiones y a tu pensamiento basándose en su propio razonamiento”.

El método se basa en procesar guías clínicas, bases de datos médicas y literatura científica para generar conocimiento estructurado, que luego es traducido en lenguaje natural e incluido en los comandos dados al modelo. Esto permite al sistema razonar clínicamente de forma más cercana a la lógica humana.
SCAI, contiene 13 millones de datos médicos así como las posibles interacciones entre dichos datos. “SCAI es diferente de otros grandes modelos lingüísticos porque puede mantener una conversación contigo y, como asociación entre humano y ordenador, puede contribuir a tu toma de decisiones y a tu pensamiento basándose en su propio razonamiento detalló Elkin.
Los investigadores destacan que esta estrategia reduce errores de “alucinación” o “hallucinations”, dicho de otra forma las respuestas incorrectas sin base en la evidencia y mejora la precisión sin necesidad de volver a entrenar los modelos desde cero, lo que la hace más eficiente en términos de costos y recursos computacionales.
Elkin explicó la diferencia entre SCAI y los modelos de IA generativa convencionales. “SCAI responde a preguntas más complejas y realiza razonamientos semánticos más complejos, hemos creado fuentes de conocimiento que pueden razonar más del modo en que la gente aprende a razonar durante su formación en la facultad de medicina”.
La herramienta está disponible de manera pública en el siguiente enlace: https://halsted.compbio.buffalo.edu/chat/
JAMA NETWORK
UNIVERSITY AT BUFFALO