Filtrar por tipo de entrada
Seleccionar todo
Noticias
Páginas
Eventos
Filtrar por categorías
Seleccionar todo
AI ANALITICA
Apps móviles e Internet de las Cosas
Avance de la ciencia
Big data
Comunidades conectadas
Coronavirus
Cursos y capacitaciones
DIAGNOSTICO
Editorial inicial
Editoriales
El mundo en la nube
Eventos
Infografías
Inteligencia Artificial y Ciencia
IoTApps
Noticias
Plataformas digitales
Redes sociales
Reseña de publicaciones científicas
Resumen de Cursos
Sinopsis de ensayo
Sinopsis de Marcos de Referencia
Sinopsis de publicaciones recientes
Uso de Plataformas Digitales
Estudios sobre evidencia real, análisis de datos digitales y toma de decisiones en la atención médica

Los estudios que generan evidencia del mundo real sobre productos médicos, gracias al análisis de datos digitales de prácticas clínicas, proporcionan información clave para reguladores de productos médicos y tomadores de decisiones.

Los estudios con información clínica que generan evidencia del mundo real (RWE, en inglés) son importantes para las personas con puestos de toma de decisiones u organismos reguladores de productos médicos. Sin embargo, garantizar la reproducibilidad de estos hallazgos es fundamental para una verdadera toma de decisiones basada en evidencia.  Gracias a los avances en la comprensión del diseño de estudio y el análisis de datos longitudinales de atención médica, es posible que los estados de bases de datos reproduzcan y predigan resultado de ensayos clínicos aleatorizados.

No obstante, recientemente estudios RWE de alto perfil han presentado deficiencias metodológicas, lo que ha generado generalizaciones negativas sobre este tipo de estudios. Esto además ha provocado una reducción en la confianza en este tipo de estudios por parte de tomadores de decisiones.

“La evidencia científica procesable en medicina debe ser internamente válida, reproducible y replicable. La reproducibilidad es la capacidad de obtener los mismos resultados al volver a analizar los datos originales, siguiendo la estrategia de análisis original. La replicabilidad es la capacidad de confirmar hallazgos en diferentes datos y poblaciones. En principio, todos los hallazgos comunicados deberían ser perfectamente reproducibles”, explican los autores del estudio: Reproducibilidad de estudios de evidencia del mundo real utilizando datos de práctica clínica para informar decisiones regulatorias y de cobertura.

El estudio publicado en Nature Communications, mostró la reproducción de los resultados de 150 estudios publicados en revistas revisadas por pares, que utilizan las mismas bases de datos de atención médica que los investigadores originales, y evaluaron la integridad de los informes de 250 estudios.

Los resultados de la evaluación y el análisis mostraron que el 54% de los estudios proporcionaron diagramas o tablas que mostraban los criterios de inclusión y exclusión. El 8% utilizó diagramas de diseño para comunicar aspectos clave del estudio. El estudio también analizó otros datos sobre los participantes y las fechas de su participación en el estudio, utilización de algoritmos, códigos analíticos, entre otros datos.

Para los diez estudios con diferencias más externas en los coeficientes entre las medidas originales y reproducidas, los autores observaron tres razones principales:

  • En primer lugar, la falta de claridad con respecto a la temporalidad en la que se midieron los parámetros del estudio y la ausencia de algoritmos detallados para los parámetros del estudio.
  • En segundo lugar, la información inconsistente entre textos y tablas, diagramas y apéndices.
  • Y por último los cambios en los resultados de los estudios pudieron haber sido provocados por información incompleta proveniente de la base de datos original.

Además, las suposiciones encontradas fueron comunicadas a los autores de los trabajos originales, sin embargo, solo el 53% respondió y 33% no respondió luego de tres intentos. “Entre los 81 que respondieron, el 32 % (n= 26) proporcionó una aclaración útil o declaró que se sentían cómodos con nuestras suposiciones, el 32 % (n=26) proporcionó comentarios algo útiles que no abordaron todas las suposiciones, el 27 % (n= 22) proporcionó respuestas que no abordaron los supuestos, y el 12 % (n=6) se negó a discutir su estudio, citando falta de interés o de tiempo”, detallan los autores.

Consulta mayor información sobre este análisis en el siguiente enlace: https://www.nature.com/articles/s41467-022-32310-3

Contenidos Relacionados

Secured By miniOrange