El estudiante de la Universidad SABES Celaya, Alejandro Aguilar Martínez, fue el ganador del James Dyson Award México 2025 y ahora competirá a nivel internacional.
Alejandro Aguilar Martínez, estudiante de Ingeniería en Tecnologías y Sistemas Computacionales en la Universidad SABES Campus Celaya, desarrolló la aplicación móvil OpticalApp, una herramienta que detecta 28 enfermedades oculares mediante inteligencia artificial (IA) y un adaptador impreso en 3D. Esta innovación le valió ser ganador nacional del James Dyson Award México 2025 y obtuvo su lugar para representar a México en la fase internacional del premio.
OpticalApp es una app móvil que permite la detección de 28 enfermedades retinales sin necesidad de conexión a internet en menos de 30 segundos. Asimismo, es capaz de detectar condiciones saludables en la retina. Esta innovación está diseñada para entornos de recursos limitados en cuanto a equipamiento médico.
Aguilar Martínez comenzó este proyecto al descubrir los grandes conjuntos de datos disponibles de manera pública y la falta de ajustes de cribado para que estos datos fueran realmente útiles. “Esta laguna me llevó a pensar que podía aportar algo significativo. Mi madre ha trabajado en exámenes visuales y ha estudiado salud visual de manera formal, lo que moldeó mi comprensión del problema”, expresó.
Originalmente, la app tuvo como objetivo ser un apoyo para el autoexamen de afecciones testiculares, pero la falta de conjuntos de datos propició que Alejandro se enfocara en el diagnóstico de la retina.
OpticalApp funciona de una manera muy sencilla, primero el usuario selecciona o captura una imagen de la retina, ya sea desde la galería de su celular o la cámara del teléfono con un adaptador, el cual también fue diseñado por Alejandro. Posteriormente, OpticalApp procesa la imagen en el dispositivo utilizando un modelo EfficientNet-B0 ligero entrenado con el conjunto de datos RFMiD. Finalmente, la app muestra los tres resultados más probables, entre 28 enfermedades y una clase saludable con sus probabilidades, y ofrece breves descripciones de voz en inglés, español y francés.
Según Aguilar Martínez, una de las principales características de esta herramienta es que no requiere conexión a internet y funciona en teléfonos inteligentes básicos.
El estudiante detalla que utilizó herramientas como Google Colab, GPT, como asistente de codificación y posteriormente él mismo diseñó la interfaz y recopiló los conjuntos de datos. Asimismo comparó varios modelos, incluido RETFound, pero finalmente eligió EfficientNet-B0 debido a su mejor rendimiento en el mundo real.
Finalmente, para que el diagnóstico fuera posible con un teléfono inteligente, diseñó un prototipo de adaptador físico utilizando una lente de aumento, cinta adhesiva y cartón, con un costo inferior a un dólar. “Aunque no pude capturar imágenes nítidas de la retina, me sorprendió lo prometedora y asequible que era la idea, el mayor reto fue alinear la luz del teléfono con la pupila sin deslumbrar al sujeto”. A futuro, Aguilar Martínez tiene pensado diseñar una estructura más estable e integrada con una lente más resistente y mejor control de la luz.




