Expertos en inteligencia artificial y sus aplicaciones médicas piden regulaciones al uso de grandes modelos de lenguajes para aprovechar sus beneficios en el sector salud.
Los grandes modelos de lenguaje (LLM, en inglés) como la inteligencia artificial (IA) generativa han experimentado un desarrollo acelerado en los últimos años y meses. Actualmente existen varios LLM disponibles para el público como GPT-4 de Open AI o Bard de Google. Dentro del campo de la medicina existe un gran potencial de la implementación de estos modelos debido a la variedad de sus aplicaciones, que buscan facilitar diversos procesos médicos como facilitar la búsqueda de documentación clínica, resumir trabajos de investigación o responder preguntas de los pacientes a través de chatbots.
No obstante, a pesar de su gran potencial trasformador, los LLM requieren un entrenamiento distinto a las tecnologías médicas basadas en IA que ya se encuentran reguladas. Por ello es necesario regular sus alcances y garantizar la seguridad en su uso, manteniendo estándares éticos y de proyección de la privacidad de los pacientes.
En este sentido Bertalan Meskó, conocido como el médico futurista y el cardiólogo Eric Topol, uno de los grandes especialistas en medicina digital, publicaron recientemente un artículo en npj Digital Medicine journal sobre la importancia de contar con supervisión regulatoria de los LLM y la IA generativa en el campo de la salud.
El crecimiento de la IA generativa especialmente durante finales de 2022 y principios de 2023 ha iniciado debates sobre sus aplicaciones y su uso ético. Por ejemplo, ChatGPT logró más de 100 millones de usuarios en sus primeros dos meses, lo que también provocó debates sobre el papel que podría desempeñar en la atención médica y en el cuidado de la salud.
Además de las aplicaciones destacadas previamente, diversas revisiones sistemáticas encontraron beneficios potenciales en la IA generativa como la mejora de la redacción científica, la mejora de la equidad en la investigación, la racionalización del flujo de trabajo de atención médica, el ahorro de costos y la mejora del aprendizaje personalizado en la educación médica.
A continuación, los desafíos y las recomendaciones sobre los LLM que proponen Bertalan y Topol:
- Privacidad de datos del paciente
Garantizar que los datos de los pacientes que se utilizan para entrenar modelos de lenguaje grandes estén completamente anónimos y protegidos de posibles infracciones. Esto plantea un desafío regulatorio significativo, ya que cualquier violación podría tener consecuencias graves según las leyes de privacidad como la Ley de Portabilidad y Responsabilidad de Seguros Médicos (HIPAA, en inglés) en Estados Unidos.
- Propiedad intelectual
Si un LLM genera contenido similar a la investigación o literatura médica patentada, podría generar problemas relacionados con los derechos de propiedad intelectual.
- Responsabilidad por negligencia médica
Determinar quién es responsable cuando las recomendaciones de una IA provocan daño al paciente. ¿Son los desarrolladores de IA, los profesionales de la salud que la usaron o las instituciones que la adoptaron?
- Control de calidad y estandarización
Se requiere una regulación para garantizar la confiabilidad y consistencia de los consejos médicos generados por IA, que pueden variar según los datos utilizados para entrenar a la IA.
- Consentimiento informado
Los pacientes deben estar informados y dar su consentimiento cuando se utilizan herramientas de IA en la gestión de su atención médica. Esto es un desafío porque puede ser difícil para los pacientes comprender completamente las implicaciones del uso de la IA.
- Interpretabilidad y Transparencia
Las regulaciones deben garantizar la transparencia sobre cómo la IA toma las decisiones. Esto es particularmente desafiante con los modelos de IA que a menudo se denominan “cajas negras” debido a sus complejos algoritmos.
- Equidad y sesgo
Se necesita una regulación para evitar sesgos en los modelos de IA, que podrían introducirse durante el proceso de capacitación utilizando datos de pacientes. Esto puede conducir a disparidades en los resultados de la atención médica.
- Propiedad de los datos
Puede ser un desafío definir y regular quién es el propietario de los datos que aprenden los grandes modelos de lenguaje, especialmente cuando se trata de datos de pacientes.
- Dependencia excesiva de los modelos de IA
La dependencia excesiva de la IA podría conducir a una disminución de la experiencia humana y posibles errores si la IA funciona mal o proporciona información incorrecta. Se necesitan regulaciones para equilibrar el uso de la IA y la experiencia humana.
- Monitoreo y Validación Continuos
Garantizar el rendimiento, la precisión y la validez continuos de las herramientas de IA a lo largo del tiempo y entre diferentes poblaciones es un desafío regulatorio crítico.
Alrededor de los LLM existe una gran expectativa sobre sus posibles aportes a la atención médica del futuro, sin embargo, como cada nueva tecnología implica ciertos riesgos y desafíos éticos que deben resolverse antes de su adopción de manera masiva. Contar un enfoque de regulación será necesario para aprovechar realmente el potencial que muestran las soluciones impulsadas por IA como los LLM.