Un análisis comparó textos generados por radiólogos y modelos de IA, y encontró que los sistemas especializados pueden alcanzar resultados casi equivalentes
La inteligencia artificial (IA) continúa expandiendo su papel en el sector salud y, de acuerdo con una investigación reciente publicada en npj Digital Medicine, ahora también muestra un desempeño comparable al de los médicos en la redacción de conclusiones clínicas en radiología. Este apartado, conocido como “impresión radiológica”, resume los hallazgos de estudios de imagen y guía decisiones médicas clave.
En este sentido, el estudio analizó 200 reportes de tomografía computarizada en pacientes oncológicos y comparó tres tipos de conclusiones: aquellas redactadas por radiólogos, las generadas por un modelo de IA especializado en radiología y las producidas por un modelo general de lenguaje. Para evaluar la calidad, participaron diez especialistas, entre ellos radiólogos y oncólogos, quienes calificaron aspectos como claridad, precisión, utilidad clínica y posible riesgo para el paciente.
Los resultados mostraron que los sistemas de IA diseñados específicamente para el ámbito médico pueden alcanzar un nivel muy cercano al de los especialistas humanos. De hecho, los radiólogos no mostraron una preferencia clara entre sus propias conclusiones y las generadas por el modelo especializado, lo que sugiere un alto grado de equivalencia en términos de calidad.
En contraste, los modelos de uso general presentaron diferencias importantes. Aunque generaron textos más largos y con mayor nivel de detalle, estos fueron percibidos como menos concisos y con menor capacidad para priorizar la información relevante. Este exceso de información, si bien puede aportar contexto, también puede dificultar la interpretación rápida, especialmente en entornos clínicos donde el tiempo es un factor crítico.
El estudio también evidenció que la percepción de calidad varía según el tipo de especialista. Mientras los radiólogos tienden a valorar la brevedad y la claridad estructural, los oncólogos suelen apreciar descripciones más amplias que incluyan contexto adicional. Esta diferencia pone de relieve que no existe un único estándar universal para evaluar este tipo de textos, ya que su utilidad depende del perfil de quien los utiliza.
Por otro lado, en cuanto a la seguridad, los investigadores encontraron que el riesgo potencial para los pacientes fue bajo en todos los casos, sin diferencias relevantes entre los textos escritos por humanos y los generados por inteligencia artificial. Este hallazgo refuerza la idea de que estas herramientas pueden integrarse en la práctica clínica sin comprometer la seguridad, siempre que exista supervisión profesional.
Los autores subrayan que el objetivo de esta tecnología no es reemplazar a los médicos, sino apoyarlos. La automatización de tareas como la redacción de informes podría reducir la carga de trabajo y el desgaste profesional, un problema creciente en especialidades como la radiología, donde el volumen de estudios ha aumentado de forma significativa en los últimos años.
Finalmente, el estudio concluye que el valor de la IA en este campo radica en su capacidad de adaptación. Es decir, en lugar de buscar una única forma ideal de redactar conclusiones médicas, los sistemas más efectivos serán aquellos que se ajusten a las preferencias de distintos usuarios y funcionen como herramientas flexibles dentro de un modelo de colaboración entre humanos y tecnología.



