Un algoritmo basado en modelos de difusión crea imágenes contrafactuales que ayudan a médicos y pacientes a entender el impacto de enfermedades como la retinopatía diabética.
Un equipo de investigadores ha desarrollado un algoritmo de inteligencia artificial (IA) capaz de generar imágenes retinianas contrafactuales, es decir, representaciones visuales de cómo se vería el ojo de un paciente si tuviera o no una enfermedad ocular. Este avance, publicado en PLOS Digital Health, tendría el potencial de revolucionar la educación médica y la comunicación con pacientes al ofrecer ejemplos visuales claros de condiciones como la retinopatía diabética o el edema macular.
“Durante el muestreo, combinamos el modelo de difusión con la guía del clasificador para obtener imágenes contrafactuales realistas y significativas que mantuvieran la estructura de la imagen retiniana del sujeto. Descubrimos que nuestro método generaba imágenes contrafactuales introduciendo o eliminando las características necesarias relacionadas con la enfermedad”, explica el estudio.
¿Qué son las imágenes contrafactuales?
Las imágenes contrafactuales responden a preguntas como: “Si este paciente tuviera retinopatía diabética, ¿cómo se vería su retina?” Estas imágenes se generan modificando fotografías retinianas reales para añadir o eliminar características patológicas, manteniendo la estructura única del ojo del paciente.
El estudio empleó modelos de difusión, una técnica de IA que supera a métodos anteriores, como las redes generativas adversativas (GANs, en inglés) en realismo y diversidad de imágenes. Los investigadores combinaron estos modelos con clasificadores de enfermedades para guiar la generación de cambios clínicamente relevantes.

Los hallazgos del estudio mostraron que en los fundus o fotografías retinianas, las imágenes generadas fueron indistinguibles de las reales para oftalmólogos en un 64% de los casos. Por otro lado las tomografías de coherencia óptica aunque realistas, los expertos identificaron algunas diferencias, especialmente en casos avanzados.
“Esto demuestra que la combinación de modelos de difusión con la guía de clasificadores puede lograr contrafactuales realistas y significativos incluso para imágenes médicas de alta resolución como las imágenes de fundos a color”.
Para la validación clínica de esta herramienta contaron con 7 oftalmólogos y 4 especialistas en IA, los participantes tuvieron dificultad para distinguir las imágenes generadas por IA de las reales en fotografías de fondo de ojo. Sin embargo, en tomografías de coherencia óptica, los médicos detectaron leves irregularidades, como patrones demasiado simétricos.
Existen diversas aplicaciones para este avance, por ejemplo, en educación médica para simular progresión de enfermedades; o para que los pacientes puedan visualizar consecuencias de mal control glucémico en diabetes.
“Nuestro objetivo era desarrollar y validar un algoritmo de IA para generar contrafactuales basados en modelos de difusión guiados por los gradientes de clasificadores robustos de enfermedades. Para ello, demostramos que el algoritmo puede generar cambios mínimos, significativos y de alta confianza en una imagen de entrada, de forma que el clasificador de redes neuronales profundas altere su decisión a una clase objetivo deseada y que los expertos del dominio consideren realistas las imágenes resultantes”.
Cabe destacar que los autores señalan varias limitaciones importantes en la generación de imágenes contrafactuales. En primer lugar, aunque las imágenes de fondo de ojo resultaron muy realistas, las tomografías de coherencia óptica mostraron irregularidades detectables, como patrones demasiado simétricos o fallos al restaurar el grosor retinal en casos avanzados. Además, el algoritmo tuvo dificultades para generar lesiones graves de retinopatía diabética debido a la escasez de estos casos en los datos de entrenamiento. Los investigadores también destacan que los clasificadores de IA podrían estar aprendiendo características superficiales, como texturas en lugar de cambios patológicos profundos, lo que afecta la calidad de las imágenes generadas.
Finalmente, los autores reconocen que rendimiento del modelo podría verse comprometido si se aplica a datos procedentes de dispositivos o poblaciones no representadas en el conjunto de entrenamiento, lo que subraya la necesidad de mejorar la diversidad de los datos y los métodos de generalización.