Filtrar por tipo de entrada
Seleccionar todo
Noticias
Páginas
Eventos
Filtrar por categorías
Seleccionar todo
AI ANALITICA
Apps móviles e Internet de las Cosas
Avance de la ciencia
Big data
Comunidades conectadas
Coronavirus
Cursos y capacitaciones
DIAGNOSTICO
Editorial inicial
Editoriales
El mundo en la nube
Eventos
Infografías
Inteligencia Artificial y Ciencia
IoTApps
Noticias
Plataformas digitales
Redes sociales
Reseña de publicaciones científicas
Resumen de Cursos
Sinopsis de ensayo
Sinopsis de Marcos de Referencia
Sinopsis de publicaciones recientes
Uso de Plataformas Digitales
Expertos exigen regulación y supervisión para la IA generativa aplicada en la atención médica

Expertos en inteligencia artificial y sus aplicaciones médicas piden regulaciones al uso de grandes modelos de lenguajes para aprovechar sus beneficios en el sector salud.

Los grandes modelos de lenguaje (LLM, en inglés) como la inteligencia artificial (IA) generativa han experimentado un desarrollo acelerado en los últimos años y meses. Actualmente existen varios LLM disponibles para el público como GPT-4 de Open AI o Bard de Google. Dentro del campo de la medicina existe un gran potencial de la implementación de estos modelos debido a la variedad de sus aplicaciones, que buscan facilitar diversos procesos médicos como facilitar la búsqueda de documentación clínica, resumir trabajos de investigación o responder preguntas de los pacientes a través de chatbots.

No obstante, a pesar de su gran potencial trasformador, los LLM requieren un entrenamiento distinto a las tecnologías médicas basadas en IA que ya se encuentran reguladas. Por ello es necesario regular sus alcances y garantizar la seguridad en su uso, manteniendo estándares éticos y de proyección de la privacidad de los pacientes.

En este sentido Bertalan Meskó, conocido como el médico futurista y el cardiólogo Eric Topol, uno de los grandes especialistas en medicina digital, publicaron recientemente un artículo en npj Digital Medicine sobre la importancia de contar con supervisión regulatoria de los LLM y la IA generativa en el campo de la salud.

El crecimiento de la IA generativa especialmente durante finales de 2022 y principios de 2023 ha iniciado debates sobre sus aplicaciones y su uso ético. Por ejemplo, ChatGPT logró más de 100 millones de usuarios en sus primeros dos meses, lo que también provocó debates sobre el papel que podría desempeñar en la atención médica y en el cuidado de la salud.

Además de las aplicaciones destacadas previamente, diversas revisiones sistemáticas encontraron beneficios potenciales en la IA generativa como la mejora de la redacción científica, la mejora de la equidad en la investigación, la racionalización del flujo de trabajo de atención médica, el ahorro de costos y la mejora del aprendizaje personalizado en la educación médica.

A continuación, los desafíos y las recomendaciones sobre los LLM que proponen Bertalan y Topol:

  • Privacidad de datos del paciente

Garantizar que los datos de los pacientes que se utilizan para entrenar modelos de lenguaje grandes estén completamente anónimos y protegidos de posibles infracciones. Esto plantea un desafío regulatorio significativo, ya que cualquier violación podría tener consecuencias graves según las leyes de privacidad como la Ley de Portabilidad y Responsabilidad de Seguros Médicos (HIPAA, en inglés) en Estados Unidos.

  • Propiedad intelectual

Si un LLM genera contenido similar a la investigación o literatura médica patentada, podría generar problemas relacionados con los derechos de propiedad intelectual.

  • Responsabilidad por negligencia médica

Determinar quién es responsable cuando las recomendaciones de una IA provocan daño al paciente. ¿Son los desarrolladores de IA, los profesionales de la salud que la usaron o las instituciones que la adoptaron?

  • Control de calidad y estandarización

Se requiere una regulación para garantizar la confiabilidad y consistencia de los consejos médicos generados por IA, que pueden variar según los datos utilizados para entrenar a la IA.

  • Consentimiento informado

Los pacientes deben estar informados y dar su consentimiento cuando se utilizan herramientas de IA en la gestión de su atención médica. Esto es un desafío porque puede ser difícil para los pacientes comprender completamente las implicaciones del uso de la IA.

  • Interpretabilidad y Transparencia

Las regulaciones deben garantizar la transparencia sobre cómo la IA toma las decisiones. Esto es particularmente desafiante con los modelos de IA que a menudo se denominan “cajas negras” debido a sus complejos algoritmos.

  • Equidad y sesgo

Se necesita una regulación para evitar sesgos en los modelos de IA, que podrían introducirse durante el proceso de capacitación utilizando datos de pacientes. Esto puede conducir a disparidades en los resultados de la atención médica.

  • Propiedad de los datos

Puede ser un desafío definir y regular quién es el propietario de los datos  que aprenden los grandes modelos de lenguaje, especialmente cuando se trata de datos de pacientes.

  • Dependencia excesiva de los modelos de IA

La dependencia excesiva de la IA podría conducir a una disminución de la experiencia humana y posibles errores si la IA funciona mal o proporciona información incorrecta. Se necesitan regulaciones para equilibrar el uso de la IA y la experiencia humana.

  • Monitoreo y Validación Continuos

Garantizar el rendimiento, la precisión y la validez continuos de las herramientas de IA a lo largo del tiempo y entre diferentes poblaciones es un desafío regulatorio crítico.

Alrededor de los LLM existe una gran expectativa sobre sus posibles aportes a la atención médica del futuro, sin embargo, como cada nueva tecnología implica ciertos riesgos y desafíos éticos que deben resolverse antes de su adopción de manera masiva. Contar un enfoque de regulación será necesario para aprovechar realmente el potencial que muestran las soluciones impulsadas por IA como los LLM.

Noticias destacadas

Noticias por país

Contenidos Relacionados

Secured By miniOrange