El Parlamento de Reino Unido publicó un documento que resume las implicaciones éticas y consideraciones regulatorias para implementar AI en la atención de salud mental.
La inteligencia artificial (AI) ha emergido en los últimos años como una herramienta útil para realizar tareas relacionadas con la salud y el bienestar. El auge de la Digital Health, ha permitido ver avances desde el uso de AI en la detección y prevención de ciertas enfermedades, hasta la adopción de apps móviles para monitorear el estado físico o la salud emocional. Sin embargo, también existe una sobredemanda de apps móviles de chatbot, que han comenzado a ser utilizadas con fines relacionados al cuidado de la salud mental, cuando ese no es su propósito real. En Reino Unido investigaciones han encontrado usos no previstos de chatbots como asistentes en la salud mental.
Por ello, el Parlamento en colaboración con múltiples agencias gubernamentales nacionales, se encuentra realizando propuestas para impulsar las consideraciones éticas en torno al uso de herramientas de AI en la salud mental. Existen preocupaciones éticas y regulatorias sobre el uso de estas herramientas, como el potencial daño a los usuarios, por ejemplo, relacionada con la desinformación o la accesibilidad; la perpetuación de sesgos, que pueden afectar a las minorías; la protección de datos y la privacidad; así como preguntas sobre trasparencia, redición de cuentas y responsabilidad.
Cabe destacar que, tanto en Reino Unido como en la Unión Europea, existen directrices, políticas y regulaciones sobre la AI y sobre la salud mental. Sin embargo, no existe aún una regulación que atienda esta problemática en específico. Por ejemplo, por parte de la Agencia Reguladora de Medicamentos y Productos Sanitarios (MHRA, en inglés) o del Instituto Nacional de Salud y Excelencia Clínica (NICE, en inglés).
Para mitigar los riesgos del uso de AI en salud mental, el Parlamento del Reino Unido ha identificado varias estrategias clave, por ejemplo, la ética en el diseño de AI. La cual enfatiza la necesidad de incorporar principios éticos desde la fase inicial de desarrollo de los sistemas de AI. Esto incluye seguir estándares como las recomendaciones del Instituto de Ingenieros Eléctricos y Electrónicos (IEEE, en inglés) para el diseño ético de sistemas de AI y las guías de la MHRA para dispositivos médicos asistidos por aprendizaje automático de seguridad. De igual forma, recomiendan realizar simulaciones antes de su adopción para garantizar su efectividad y seguridad en entornos clínicos complejos.

El Parlamento también busca promover el uso de AI como una herramienta de apoyo para los profesionales de la salud mental en lugar de reemplazarlos, asegurando que el juicio clínico siga siendo un factor central en la toma de decisiones. En cuanto a las evaluaciones y el etiquetado. El Parlamento se enfoca en su uso para mitigar riesgos de sesgo, seguridad de datos y transparencia en las herramientas de AI para salud mental. Algunas iniciativas incluyen la certificación de seguridad de datos y el uso de auditorías de impacto algorítmico en el Servicio Nacional de Salud (NHS, en inglés).
Para la regulación y supervisión, el Parlamento reconoce esfuerzos como la creación del AI Safety Institute y la plataforma de pruebas de seguridad “Inspect”, que buscan estandarizar la evaluación de herramientas de AI antes de su implementación en el sector de salud mental.
Estas medidas buscan garantizar que las tecnologías de AI en salud mental sean seguras accesibles y transparentes, minimizando posibles daños y asegurando que complementen el trabajo de los profesionales de la salud. Consulta el documento completo en el siguiente enlace: https://researchbriefings.files.parliament.uk/documents/POST-PN-0738/POST-PN-0738.pdf