Expertos internacionales proponen principios clave y estrategias para mitigar riesgos en la implementación de IA generativa en sistemas sanitarios
Investigadores del Centro de Salud Digital de la Universidad de Stanford y otras instituciones internacionales han desarrollado un marco orientador para la implementación de inteligencia artificial (IA) generativa en el sector salud. La perspectiva, publicada en npj Digital Medicine, busca ofrecer criterios concretos a desarrolladores, profesionales y responsables de políticas sanitarias para evaluar el uso de estas tecnologías, especialmente en contextos de bajos y medianos ingresos.
La IA generativa, representada por modelos como ChatGPT, DeepSeek, Meta AI y otras herramientas capaces de generar texto, imágenes o audio, está siendo rápidamente integrada en aplicaciones médicas, desde la generación de informes clínicos hasta la clasificación de imágenes. Sin embargo, el uso de estas tecnologías, como se ha debatido desde su irrupción, plantea desafíos únicos en términos de ética, seguridad, privacidad y equidad.
Con base en entrevistas y mesas redondas con más de 50 expertos, que incluyeron académicos, financiadores, implementadores y autoridades sanitarias, el estudio propone cuatro principios fundamentales:
- Alinear las aplicaciones de IA generativa con sus fortalezas específicas
- Establecer marcos de evaluación adecuados
- Equilibrar los riesgos y beneficios
- Fomentar la transparencia y el intercambio de conocimientos

Además, identificaron cuatro categorías principales de riesgo: fallos intrínsecos del modelo, conocidos comúnmente como errores o “alucinaciones”, limitaciones en los datos de entrenamiento, brechas en infraestructura digital y sanitaria, y la posibilidad de amplificar sesgos sociales existentes.
Para mitigar estos riesgos, los autores recomiendan el uso de tecnologías que protegen la privacidad, el fortalecimiento de la supervisión humana, el diseño inclusivo de datos, y una evaluación continua que incluya no solo métricas de precisión, sino también aspectos como empatía y tono. También subraya la necesidad de adaptar los modelos a lenguas y realidades locales, particularmente en regiones con escasa representación en los datos de entrenamiento.
El artículo concluye que a pesar de su potencial, la implementación de la IA generativa debe estar guiada por principios éticos claros, evaluación rigurosa y participación activa de las comunidades de desarrolladores, usuarios, academia, sector médico y entidades regulatorias y gubernamentales, de lo contrario, podría amplificar desigualdades ya existentes.