Filter by input type
Filter by category
Investigadores de Harvard explican que modelos de IA médica necesitan mayor contexto para su uso clínico

Investigadores de Harvard identifican los errores contextuales como una de las principales barreras para la adopción de la AI en hospitales y consultorios.

The artificial intelligence (AI) aplicada en la medicina promete transformar la atención en salud al analizar grandes volúmenes de datos, identificar patrones complejos y apoyar la toma de decisiones clínicas. Sin embargo, a pesar del rápido crecimiento de estos modelos en entornos académicos e industriales, muy pocos han logrado integrarse de forma efectiva en la práctica clínica cotidiana.

Un nuevo estudio liderado por Marinka Zitnik, profesora asociada de informática biomédica en el Blavatnik Institute de Harvard Medical School, analiza las razones de esta brecha entre el desempeño de los modelos en pruebas estandarizadas y los problemas que enfrentan cuando se utilizan en escenarios reales, como hospitales y consultorios. El trabajo fue publicado en Nature Medicine.

Los investigadores identifican los errores contextuales como factor clave detrás de esta brecha. Estos ocurren cuando los modelos generan respuestas que parecen correctas y razonables, pero que no se ajustan al contexto específico en el que se aplican, como la especialidad médica, la ubicación geográfica o las condiciones socioeconómicas del paciente.

“Esto no es una anomalía menor”, señaló Zitnik. “Es una limitación generalizada de todos los tipos de modelos de AI médica que estamos desarrollando en el campo”. Según la investigadora, muchos de los datos relevantes para la toma de decisiones clínicas simplemente no están presentes en los conjuntos de datos con los que se entrenan estos sistemas.

El estudio explica que, ante la falta de información contextual, los modelos pueden ofrecer recomendaciones que no son accionables o relevantes para los pacientes. Para reducir este problema, el equipo propone tres líneas de acción: incorporar información contextual en los datos de entrenamiento, desarrollar pruebas computacionales más exigentes que evalúen el desempeño de los modelos tras su entrenamiento, e integrar el contexto directamente en la arquitectura de los sistemas de AI.

Uno de los principales ejemplos analizados es el de las especialidades médicas, por ejemplo, los pacientes pueden presentar síntomas complejos que involucran múltiples sistemas del cuerpo, pero un modelo entrenado principalmente con datos de una sola especialidad puede ignorar señales clave o enfocarse en información incorrecta. Los autores sugieren desarrollar modelos capaces de cambiar de contexto en tiempo real y adaptarse a distintas especialidades según la situación clínica.

La ubicación geográfica es otro factor crítico, pues un mismo problema de salud puede requerir enfoques distintos dependiendo del país o región, debido a diferencias en la prevalencia de enfermedades, la disponibilidad de tratamientos o las regulaciones locales. Zitnik subraya que un modelo que ofrece la misma respuesta sin considerar el lugar donde se atiende al paciente probablemente esté equivocado.

El tercer tipo de error contextual está relacionado con factores sociales, económicos y culturales que influyen en el comportamiento de los pacientes. Por ejemplo, un modelo puede recomendar que una persona asista a una consulta especializada sin considerar barreras como la distancia, la falta de transporte, responsabilidades laborales o de cuidado infantil. “Un mejor modelo tendría en cuenta estos factores para ofrecer recomendaciones más realistas y equitativas”, explicó Zitnik.

Más allá de los errores contextuales, los investigadores señalan otros desafíos para la implementación de la AI médica, como la confianza de pacientes, profesionales y autoridades regulatorias. Zitnik destaca la importancia de modelos que ofrezcan recomendaciones transparentes, interpretables y que reconozcan explícitamente cuando no tienen suficiente información para emitir una conclusión fiable.

El artículo también plantea la necesidad de avanzar hacia sistemas de colaboración humano-AI más sofisticados, en los que los modelos no solo respondan preguntas, sino que también puedan solicitar información adicional y adaptar sus respuestas al nivel de conocimiento del usuario, ya sea un paciente o un especialista.

En su análisis conceptual, los autores proponen el “cambio de contexto” como una solución emergente. Este enfoque permite que los modelos ajusten su razonamiento durante el uso, sin necesidad de reentrenamiento, adaptándose a distintos pacientes, especialidades, entornos clínicos y regiones geográficas. Según el artículo, este paradigma podría sentar las bases para una inteligencia artificial médica capaz de escalar a una amplia diversidad de contextos sin perder fiabilidad.

Zitnik aunque cautelosa, muestra optimismo sobre el futuro de la AI en salud. “Esta tecnología ya se está utilizando, por lo que la comunidad debe trabajar unida para garantizar un desarrollo y una implementación responsables”, concluyó.

Outstanding news

Stay updated

News by country

Related Content

Secured By miniOrange