Un nuevo estudio muestra cómo los modelos de lenguaje permiten analizar miles de documentos regulatorios de forma más rápida y precisa
Un equipo internacional de investigadores publicó en npj Digital Medicine un estudio que explora el uso de grandes modelos de lenguaje (LLM, en inglés) para modernizar la ciencia regulatoria de dispositivos médicos. El trabajo explora cómo estas herramientas de inteligencia artificial (IA) pueden extraer información clave de documentos regulatorios complejos y no estructurados, lo que permitiría evaluar con mayor rapidez y alcance la seguridad y el desempeño de dispositivos médicos, incluidos aquellos basados en inteligencia artificial y aprendizaje automático.
El estudio surge en un contexto de rápido crecimiento de dispositivos médicos habilitados con IA. En Estados Unidos, el número de dispositivos de este tipo autorizados por la Administración de Alimentos y Medicamentos (FDA, en inglés) pasó de menos de 100 en 2018 a más de 1,200 a mediados de 2025. Este aumento ha complicado el trabajo regulatorio, ya que los documentos asociados a la aprobación, vigilancia y retiro de dispositivos suelen ser extensos, poco estandarizados y difíciles de analizar de manera sistemática.
Los autores evaluaron el desempeño de LLMs avanzados para extraer datos estructurados a partir de resúmenes de decisiones regulatorias, reportes de eventos adversos y registros de dispositivos médicos. Tras comparar los resultados generados por la inteligencia artificial con anotaciones realizadas por expertos humanos, encontraron que los modelos alcanzaron niveles de precisión cercanos o superiores al 80 por ciento en múltiples tareas, tanto en etapas previas como posteriores a la autorización de los dispositivos.
A partir de esta validación, el equipo demostró cómo estas herramientas pueden escalar análisis que antes requerían meses o años de trabajo manual. Entre los casos de estudio se incluyen la revisión de prácticas de validación clínica utilizadas para autorizar dispositivos, la reclasificación de reportes de eventos adversos que podrían estar mal codificados y la identificación de factores regulatorios asociados con mayores riesgos de seguridad tras la salida al mercado.
Los resultados sugieren que los LLMs no solo pueden acelerar el análisis regulatorio, sino también mejorar la calidad de la información disponible. Por ejemplo, en el caso de los reportes de eventos adversos, los investigadores observaron que las clasificaciones propuestas por la inteligencia artificial fueron preferidas por evaluadores humanos en una proporción significativa de los casos, especialmente cuando se trataba de eventos graves.
No obstante, los autores advierten que estas herramientas no deben utilizarse sin supervisión experta y reconocen limitaciones relacionadas con la calidad de los datos originales, el riesgo de errores en las predicciones y la necesidad de monitorear continuamente el desempeño de los modelos. Aun así, el estudio concluye que la IA tiene el potencial de convertirse en un apoyo clave para una regulación más eficiente, transparente y basada en evidencia.



