El Parlamento de Reino Unido publicó un documento que resume las implicaciones éticas y consideraciones regulatorias para implementar IA en la atención de salud mental.
La inteligencia artificial (IA) ha emergido en los últimos años como una herramienta útil para realizar tareas relacionadas con la salud y el bienestar. El auge de la Salud Digital, ha permitido ver avances desde el uso de IA en la detección y prevención de ciertas enfermedades, hasta la adopción de apps móviles para monitorear el estado físico o la salud emocional. Sin embargo, también existe una sobredemanda de apps móviles de chatbot, que han comenzado a ser utilizadas con fines relacionados al cuidado de la salud mental, cuando ese no es su propósito real. En Reino Unido investigaciones han encontrado usos no previstos de chatbots como asistentes en la salud mental.
Por ello, el Parlamento en colaboración con múltiples agencias gubernamentales nacionales, se encuentra realizando propuestas para impulsar las consideraciones éticas en torno al uso de herramientas de IA en la salud mental. Existen preocupaciones éticas y regulatorias sobre el uso de estas herramientas, como el potencial daño a los usuarios, por ejemplo, relacionada con la desinformación o la accesibilidad; la perpetuación de sesgos, que pueden afectar a las minorías; la protección de datos y la privacidad; así como preguntas sobre trasparencia, redición de cuentas y responsabilidad.
Cabe destacar que, tanto en Reino Unido como en la Unión Europea, existen directrices, políticas y regulaciones sobre la IA y sobre la salud mental. Sin embargo, no existe aún una regulación que atienda esta problemática en específico. Por ejemplo, por parte de la Agencia Reguladora de Medicamentos y Productos Sanitarios (MHRA, en inglés) o del Instituto Nacional de Salud y Excelencia Clínica (NICE, en inglés).
Para mitigar los riesgos del uso de IA en salud mental, el Parlamento del Reino Unido ha identificado varias estrategias clave, por ejemplo, la ética en el diseño de IA. La cual enfatiza la necesidad de incorporar principios éticos desde la fase inicial de desarrollo de los sistemas de IA. Esto incluye seguir estándares como las recomendaciones del Instituto de Ingenieros Eléctricos y Electrónicos (IEEE, en inglés) para el diseño ético de sistemas de IA y las guías de la MHRA para dispositivos médicos asistidos por aprendizaje automático de seguridad. De igual forma, recomiendan realizar simulaciones antes de su adopción para garantizar su efectividad y seguridad en entornos clínicos complejos.

El Parlamento también busca promover el uso de IA como una herramienta de apoyo para los profesionales de la salud mental en lugar de reemplazarlos, asegurando que el juicio clínico siga siendo un factor central en la toma de decisiones. En cuanto a las evaluaciones y el etiquetado. El Parlamento se enfoca en su uso para mitigar riesgos de sesgo, seguridad de datos y transparencia en las herramientas de IA para salud mental. Algunas iniciativas incluyen la certificación de seguridad de datos y el uso de auditorías de impacto algorítmico en el Servicio Nacional de Salud (NHS, en inglés).
Para la regulación y supervisión, el Parlamento reconoce esfuerzos como la creación del AI Safety Institute y la plataforma de pruebas de seguridad “Inspect”, que buscan estandarizar la evaluación de herramientas de IA antes de su implementación en el sector de salud mental.
Estas medidas buscan garantizar que las tecnologías de IA en salud mental sean seguras accesibles y transparentes, minimizando posibles daños y asegurando que complementen el trabajo de los profesionales de la salud. Consulta el documento completo en el siguiente enlace: https://researchbriefings.files.parliament.uk/documents/POST-PN-0738/POST-PN-0738.pdf