BrainIAC, desarrollado por investigadores del Mass General Brigham, analiza imágenes cerebrales sin etiquetar y supera a modelos de AI especializados en múltiples tareas clínicas
Un equipo de investigadores del Mass General Brigham ha desarrollado un nuevo modelo de artificial intelligence (AI) capaz de extraer información clínica clave a partir de resonancias magnéticas (RM) cerebrales sin necesidad de grandes volúmenes de datos previamente etiquetados. El modelo, denominado BrainIAC, permite estimar la edad cerebral, predecir el riesgo de demencia, identificar mutaciones en tumores cerebrales y anticipar la supervivencia en cáncer cerebral, entre otras aplicaciones. Los resultados del estudio han sido publicados en la revista Nature Neuroscience.
BrainIAC es un modelo fundacional entrenado y validado con alrededor de 49 mil RM cerebrales diversas, lo que le permite aprender patrones generales del cerebro humano y adaptarlos posteriormente a distintas tareas médicas. A diferencia de muchos sistemas de AI convencionales, diseñados para resolver un único problema y dependientes de bases de datos extensas y cuidadosamente anotadas, este enfoque busca ser flexible y transferible a múltiples contextos clínicos.
“BrainIAC tiene el potencial de acelerar el descubrimiento de biomarcadores, mejorar las herramientas de diagnóstico y acelerar la adopción de la AI en la práctica clínica”, detalló el autor correspondiente el Dr. Benjamin Kann, del Programa de Artificial Intelligence en Medicina (AIM) del Mass General Brigham. “La integración de BrainIAC en los protocols de diagnóstico por imagen podría ayudar a los médicos a personalizar y mejorar la atención al paciente”, agregó.
Aunque la AI ha avanzado y continúa avanzando de forma notable en el ámbito médico, el análisis de imágenes cerebrales sigue presentando desafíos importantes. Muchos modelos existentes requieren grandes cantidades de datos anotados, difíciles de obtener en la práctica clínica. Además, las imágenes de RM pueden variar considerablemente entre instituciones y especialidades médicas, como la neurología y la oncología, lo que sin duda complica que los algoritmos aprendan representaciones comunes y generalizables.
Para abordar estas limitaciones, el equipo diseñó BrainIAC como un “núcleo adaptativo de imagen cerebral” entrenado mediante aprendizaje autosupervisado. Este enfoque permite al modelo identificar características relevantes directamente a partir de datos no etiquetados, que luego pueden adaptarse a distintas aplicaciones clínicas.
Tras un proceso de preentrenamiento con múltiples conjuntos de datos de RM cerebral, los investigadores evaluaron el rendimiento del modelo en 48 mil 965 exploraciones correspondientes a siete tareas clínicas diferentes, con distintos niveles de complejidad.
Los resultados muestran que BrainIAC es capaz de generalizar su aprendizaje tanto en imágenes de cerebros sanos como patológicos. El modelo funcionó con éxito en tareas relativamente sencillas, como la clasificación de tipos de resonancia, y también en desafíos mucho más complejos, como la detección de mutaciones en tumores cerebrales.
En estas evaluaciones, BrainIAC superó a tres modelos de AI convencionales diseñados específicamente para tareas concretas, demostrando mayor robustez y versatilidad. Los investigadores destacan especialmente su rendimiento en situaciones donde los datos de entrenamiento son escasos o la tarea clínica es altamente compleja, un escenario frecuente en la práctica médica real.
Según los autores, la capacidad de BrainIAC para adaptarse a distintos problemas sugiere que este tipo de modelos podría facilitar la incorporación de la AI en entornos clínicos donde los datos anotados son limitados. No obstante, señalan que será necesario realizar estudios adicionales para evaluar su desempeño con otros tipos de imágenes cerebrales y en conjuntos de datos aún más amplios.



