Filtrar por tipo de entrada
Seleccionar todo
Noticias
Páginas
Eventos
Filtrar por categorías
Seleccionar todo
AI ANALITICA
Apps móviles e Internet de las Cosas
Avance de la ciencia
Big data
Comunidades conectadas
Coronavirus
Cursos y capacitaciones
DIAGNOSTICO
Editorial inicial
Editoriales
El mundo en la nube
Eventos
Infografías
Inteligencia Artificial y Ciencia
IoTApps
Noticias
Plataformas digitales
Redes sociales
Reseña de publicaciones científicas
Resumen de Cursos
Sinopsis de ensayo
Sinopsis de Marcos de Referencia
Sinopsis de publicaciones recientes
Uso de Plataformas Digitales
Proponen marco para el uso responsable de IA generativa en salud

Expertos internacionales proponen principios clave y estrategias para mitigar riesgos en la implementación de IA generativa en sistemas sanitarios

Investigadores del Centro de Salud Digital de la Universidad de Stanford y otras instituciones internacionales han desarrollado un marco orientador para la implementación de inteligencia artificial (IA) generativa en el sector salud. La perspectiva, publicada en npj Digital Medicine, busca ofrecer criterios concretos a desarrolladores, profesionales y responsables de políticas sanitarias para evaluar el uso de estas tecnologías, especialmente en contextos de bajos y medianos ingresos.

La IA generativa, representada por modelos como ChatGPT, DeepSeek, Meta AI y otras herramientas capaces de generar texto, imágenes o audio, está siendo rápidamente integrada en aplicaciones médicas, desde la generación de informes clínicos hasta la clasificación de imágenes. Sin embargo, el uso de estas tecnologías, como se ha debatido desde su irrupción, plantea desafíos únicos en términos de ética, seguridad, privacidad y equidad.

Con base en entrevistas y mesas redondas con más de 50 expertos, que incluyeron académicos, financiadores, implementadores y autoridades sanitarias, el estudio propone cuatro principios fundamentales:

  1. Alinear las aplicaciones de IA generativa con sus fortalezas específicas
  2. Establecer marcos de evaluación adecuados
  3. Equilibrar los riesgos y beneficios
  4. Fomentar la transparencia y el intercambio de conocimientos

Además, identificaron cuatro categorías principales de riesgo: fallos intrínsecos del modelo, conocidos comúnmente como errores o “alucinaciones”, limitaciones en los datos de entrenamiento, brechas en infraestructura digital y sanitaria, y la posibilidad de amplificar sesgos sociales existentes.

Para mitigar estos riesgos, los autores recomiendan el uso de tecnologías que protegen la privacidad, el fortalecimiento de la supervisión humana, el diseño inclusivo de datos, y una evaluación continua que incluya no solo métricas de precisión, sino también aspectos como empatía y tono. También subraya la necesidad de adaptar los modelos a lenguas y realidades locales, particularmente en regiones con escasa representación en los datos de entrenamiento.

El artículo concluye que a pesar de su potencial, la  implementación de la IA generativa debe estar guiada por principios éticos claros, evaluación rigurosa y participación activa de las comunidades de desarrolladores, usuarios, academia, sector médico y  entidades regulatorias y gubernamentales, de lo contrario, podría amplificar desigualdades ya existentes.

Contenidos Relacionados

Secured By miniOrange