Académicos, investigadores y miembros de la industria de la salud publicaron los principios rectores para abordar el impacto del sesgo de los algoritmos en las disparidades raciales y étnicas en la salud y la atención de la salud.
Actualmente, el impacto de la inteligencia artificial (IA), los grandes modelos de lenguaje (LLM, en inglés) y algoritmos en la atención médica es crucial, sin embargo, su potencial sesgo puede incrementar las desigualdades raciales, étnicas y socioeconómicas en la salud. Recientemente, investigadores, académicos y miembros de la industria de la salud, desarrollaron un marco conceptual y principios para abordar este problema, centrándose en la equidad de los algoritmos desde su desarrollo hasta su implementación. Estos esfuerzos buscan promover transparencia, participación comunitaria, identificación explícita de problemas de equidad y rendición de cuentas para lograr resultados justos y equitativos en la atención médica.
En este sentido, los sesgos en los algoritmos en la atención médica pueden generar desigualdades raciales y étnicas, así como en otros grupos marginados. Por lo que es necesario crear un marco conceptual y principios rectores para mitigar y prevenir los sesgos. Los principios rectores para evitar los sesgos en algoritmos de salud, publicados por JAMA Network, se enfocan en cinco fases del ciclo de vida del algoritmo.
La primera fase de la creación de algoritmos corresponde a la formulación del problema. La segunda fase concierne a la selección, evaluación y gestión de los datos. En la tercera fase los especialistas se encargan del desarrollo, la formación y la validación del algoritmo.
La cuarta fase se enfoca en el despliegue y la integración de los algoritmos en los entornos previsto. Y finalmente, la quinta fase se encarga de la supervisión, el mantenimiento, la actualización o la anulación del algoritmo.
En este sentido, los principios rectores propuestos por las partes interesadas deben guiar estos esfuerzos y estas fases. Los cinco principios son los siguientes:
- Promover la salud y la equidad en la atención sanitaria durante todas las fases del ciclo de vida de los algoritmos de atención sanitaria.
- Garantizar que los algoritmos de atención sanitaria y su uso sean transparentes y explicables.
- Implicar auténticamente a los pacientes y las comunidades durante todas las fases del ciclo de vida de los algoritmos de atención sanitaria y ganarse su confianza.
- Identificar explícitamente los problemas de equidad y las compensaciones de los algoritmos de atención sanitaria.
- Establecer la responsabilidad por la equidad y la equidad en la atención sanitaria.
GPT-4 de OpenAI, Gemini de Google y otros LLM han despertado ampliamente el interés público por potencial y los peligros de los algoritmos. Por ejemplo, los modelos pueden utilizarse para la generación de información falsa o engañosa. En este sentido, múltiples partes interesadas se asociaron para crear sistemas, procesos, reglamentos, incentivos, normas y políticas que mitiguen y prevengan el sesgo de los algoritmos, especialmente en la atención de la salud.
See the full article at the following link:
https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2812958