Filter by input type
Select all
News
Pages
Events
Filter by category
Select all
AI ANALYTICS
Mobile Apps and Internet of Things
Advancement of science
big data
Connected communities
Coronavirus
Courses and training
DIAGNOSIS
Initial Editorial
Editorials
A world in the cloud
Events
Infographics
Artificial Intelligence and Science
IoT Apps
News
Digital platforms
Social networks
Review of scientific publications
Course Summary
Synopsis of essay
Overview of reference frames
Synopsis of recent publications
Use of Digital Platforms
Filter by input type
Select all
News
Pages
Events
Filter by category
Select all
AI ANALYTICS
Mobile Apps and Internet of Things
Advancement of science
big data
Connected communities
Coronavirus
Courses and training
DIAGNOSIS
Initial Editorial
Editorials
A world in the cloud
Events
Infographics
Artificial Intelligence and Science
IoT Apps
News
Digital platforms
Social networks
Review of scientific publications
Course Summary
Synopsis of essay
Overview of reference frames
Synopsis of recent publications
Use of Digital Platforms
Studies on real evidence, digital data analysis and decision making in medical care

Los estudios que generan evidencia del mundo real sobre productos médicos, gracias al análisis de datos digitales de prácticas clínicas, proporcionan información clave para reguladores de productos médicos y tomadores de decisiones.

Los estudios con información clínica que generan evidencia del mundo real (RWE, en inglés) son importantes para las personas con puestos de toma de decisiones u organismos reguladores de productos médicos. Sin embargo, garantizar la reproducibilidad de estos hallazgos es fundamental para una verdadera toma de decisiones basada en evidencia.  Gracias a los avances en la comprensión del diseño de estudio y el análisis de datos longitudinales de atención médica, es posible que los estados de bases de datos reproduzcan y predigan resultado de ensayos clínicos aleatorizados.

No obstante, recientemente estudios RWE de alto perfil han presentado deficiencias metodológicas, lo que ha generado generalizaciones negativas sobre este tipo de estudios. Esto además ha provocado una reducción en la confianza en este tipo de estudios por parte de tomadores de decisiones.

“La evidencia científica procesable en medicina debe ser internamente válida, reproducible y replicable. La reproducibilidad es la capacidad de obtener los mismos resultados al volver a analizar los datos originales, siguiendo la estrategia de análisis original. La replicabilidad es la capacidad de confirmar hallazgos en diferentes datos y poblaciones. En principio, todos los hallazgos comunicados deberían ser perfectamente reproducibles”, explican los autores del estudio: Reproducibilidad de estudios de evidencia del mundo real utilizando datos de práctica clínica para informar decisiones regulatorias y de cobertura.

The study published in Nature Communications, mostró la reproducción de los resultados de 150 estudios publicados en revistas revisadas por pares, que utilizan las mismas bases de datos de atención médica que los investigadores originales, y evaluaron la integridad de los informes de 250 estudios.

Los resultados de la evaluación y el análisis mostraron que el 54% de los estudios proporcionaron diagramas o tablas que mostraban los criterios de inclusión y exclusión. El 8% utilizó diagramas de diseño para comunicar aspectos clave del estudio. El estudio también analizó otros datos sobre los participantes y las fechas de su participación en el estudio, utilización de algoritmos, códigos analíticos, entre otros datos.

Para los diez estudios con diferencias más externas en los coeficientes entre las medidas originales y reproducidas, los autores observaron tres razones principales:

  • En primer lugar, la falta de claridad con respecto a la temporalidad en la que se midieron los parámetros del estudio y la ausencia de algoritmos detallados para los parámetros del estudio.
  • En segundo lugar, la información inconsistente entre textos y tablas, diagramas y apéndices.
  • Y por último los cambios en los resultados de los estudios pudieron haber sido provocados por información incompleta proveniente de la base de datos original.

Además, las suposiciones encontradas fueron comunicadas a los autores de los trabajos originales, sin embargo, solo el 53% respondió y 33% no respondió luego de tres intentos. “Entre los 81 que respondieron, el 32 % (n= 26) proporcionó una aclaración útil o declaró que se sentían cómodos con nuestras suposiciones, el 32 % (n=26) proporcionó comentarios algo útiles que no abordaron todas las suposiciones, el 27 % (n= 22) proporcionó respuestas que no abordaron los supuestos, y el 12 % (n=6) se negó a discutir su estudio, citando falta de interés o de tiempo”, detallan los autores.

Consulta mayor información sobre este análisis en el siguiente enlace: https://www.nature.com/articles/s41467-022-32310-3

Outstanding news

News by country

Share

Digital Health in the world

  • — Science Brief: Omicron (B.1.1.529) Variant/CDC updates
    See more
  • —Coronavirus resource center/Johns Hopkins
    See more
  • — Epidemiological tracing of COVID-19 contacts / Johns Hopkins Course
    See more
  • — SARS-CoV-2 infection behavior / FCS calculator
    See more
  • — Omicron SARS-CoV-2 variant: a new chapter in the COVID-19 pandemic/ Article The Lancet
    See more
  • —Genomic Epidemiology Tracker/GISAID
    See more
  • — Mexican Genomic Surveillance Consortium
    See more
Secured By miniOrange