Las diversas aplicaciones de la IA están transformando rápidamente el panorama de la atención médica.
La inteligencia artificial (IA) actualmente es utilizada en la atención médica para realizar una gran variedad de tareas, desde ayudar a los profesionales de la salud a realizar diagnósticos más precisos hasta asistir en tareas de cirugía. Su progreso acelerado en los últimos años muestra un potencial sin precedentes, por lo que los equipos de atención médica deben evolucionar y adaptarse a estos nuevos procesos.
En este sentido, los investigadores médicos señalan que esta clase de tecnologías emergentes deben ser guiadas por principios bioéticos y siempre estar acompañada por la toma de decisiones humana.
La comunidad científica coincide que centrarse en la ética es crucial para el desarrollo responsable de herramientas impulsadas por IA, lo cual busca garantizar que tanto los equipos médicos como los pacientes se sientan cómodos con la adopción de estas soluciones.
“A menudo, la ética se considera algo ‘bueno de tener’ o se utiliza como criterio de selección cuando un sistema de IA tiene una consecuencia negativa no deseada”, explica la Dra. Barbara Barry, investigadora de atención médica en el Centro Robert D. y Patricia E. Kern para la Ciencia de la Atención Médica de Mayo Clinic.
La Dra. Barry que también es miembro del Consejo Asesor de Bioética de Inteligencia Artificial de Mayo Clinic, destaca que el uso de la IA en la práctica clínica facilitará ciertas tareas en el trabajo de los médicos. Por ejemplo, la determinación de pronósticos, el diagnóstico de enfermedades, la reducción de errores de diagnóstico y tratamiento, la mejora de la eficiencia del flujo de trabajo o la expansión del acceso de los pacientes al brindar atención sin una visita al médico. No obstante, las utilidades y diversas aplicaciones de la IA no quieren decir que no sea necesario que haya un médico presente.
“Uno de los problemas éticos que los médicos y otros profesionales clínicos pueden encontrar a medida que la IA se integra a la atención médica es el papel de la autoridad profesional”, dice la Dra. Michelle McGowan, bioeticista empírica y consultora adjunta en el Departamento de Ciencias de la Salud Cuantitativas de Mayo Clinic.
Los nuevos modelos de IA aumentan progresivamente su capacidad de análisis de datos, por lo que los médicos también deben poner de su parte para asegurar que su criterio no sea sustituido.
Los grandes modelos de lenguaje (LLM, en inglés) son otra de las preocupaciones de los investigadores, especialmente porque se entrenan con cantidades masivas de datos, lo que les otorga capacidad de análisis y generación de un lenguaje similar al humano. Aunque hasta ahora existen suficientes aspectos positivos acerca del uso de los LLM en la investigación médica, es fundamental continuar de manera responsable y realizar revisiones y evaluaciones constantes de esta clase de modelos.
En este sentido la Dra. Xiaoxi Yao, directora científica de ensayos y evaluación pragmática en Mayo Clinic explica que: “La evaluación tradicional se centra en métricas de rendimiento técnico, como la precisión de la predicción, que es un paso inicial esencial”. Además, agregó que “las evaluaciones posteriores deberían profundizar más, teniendo en cuenta la facilidad de uso, la aceptabilidad entre los usuarios finales en la práctica diaria y el efecto en la prestación de atención y los resultados de los pacientes”.
Y más allá de las evaluaciones rigurosas, otro aspecto importante es que los pacientes requieren transparencia cuando se utiliza IA en su atención.