El estudio evaluó las características de los dispositivos médicos impulsados por IA, que cuentan con la aprobación de la FDA.
Un estudio publicado en JAMA Network Open analizó la información disponible públicamente sobre 903 dispositivos médicos con inteligencia artificial (IA) aprobados por la Administración de Alimentos y Medicamentos (FDA, en inglés), encontrando importantes limitaciones en los datos que respaldan su uso clínico generalizado. La investigación, dirigida por un equipo internacional, evaluó específicamente qué tan bien estos dispositivos podrían funcionar en diversos entornos y poblaciones.
El análisis mostró que solo el 55.9% de los dispositivos contaban con estudios de rendimiento clínico reportados al momento de su aprobación, mientras que el 24.1% declaró no haber realizado tales evaluaciones. Entre los estudios disponibles, predominaron los diseños retrospectivos (38.2%), con apenas un 2.4% de ensayos aleatorizados, considerados el estándar de oro en investigación médica.

Uno de los hallazgos más preocupantes fue la falta de diversidad en los datos utilizados para validar estos dispositivos. Menos de un tercio de los estudios incluyeron análisis específicos por sexo (28.7%) o edad (23.2%), lo que genera interrogantes sobre su validez en poblaciones diversas. Además, métricas clave como sensibilidad y especificidad solo se reportaron en el 36.2% y 34.9% de los casos respectivamente.
El estudio también reveló que el 97.1% de estos dispositivos se aprobaron mediante el proceso 510(k), que permite su comercialización demostrando equivalencia con productos existentes, pero sin requerir necesariamente nueva evidencia clínica. Este enfoque regulatorio mostró riesgos particulares en dispositivos implantables, donde el 33.3% de los analizados fueron posteriormente retirados del mercado.
Los investigadores concluyeron que la información pública disponible al momento de aprobación es insuficiente para garantizar que estos dispositivos funcionen adecuadamente en todos los contextos clínicos. Destacaron la necesidad de mayor transparencia en los reportes, monitoreo continuo del desempeño en entornos reales, y un enfoque más riguroso en demostrar beneficios clínicos tangibles. El estudio advierte que sin estas mejoras, la implementación generalizada de IA en medicina podría perpetuar sesgos o comprometer la seguridad de los pacientes.