Filter by input type
Select all
News
Pages
Events
Filter by category
Select all
AI ANALYTICS
Mobile Apps and Internet of Things
Advancement of science
big data
Connected communities
Coronavirus
Courses and training
DIAGNOSIS
Initial Editorial
Editorials
A world in the cloud
Events
Infographics
Artificial Intelligence and Science
IoT Apps
News
Digital platforms
Social networks
Review of scientific publications
Course Summary
Synopsis of essay
Overview of reference frames
Synopsis of recent publications
Use of Digital Platforms
Interpretabilidad y transparencia en la aplicación de IA en salud mental

Investigadores de la Universidad de Oxford realizaron una revisión de las aplicaciones y herramientas de Inteligencia Artificial utilizadas en la investigación sobre salud mental y psiquiatría.

La literatura acerca de IA en salud ha recurrido al término explicabilidad, para determinar diversas características de modelos complejos de IA, sin embargo, este concepto puede variar dependiendo del contexto, por ejemplo, si se intenta explicar un modelo de IA o un modelo de aprendizaje automático. Por ejemplo, en términos de investigación en psiquiatría o salud mental, la IA se utiliza para la descripción o descubrimiento o una combinación de ambas.

Debido a la diferencia de significados en el mismo concepto, investigadores de la Universidad de Oxford en Reino Unido, han realizado una propuesta para aproximarse a una definición más concisa. De esta manera, su propuesta se basa en que la explicabilidad se defina por la comprensibilidad en función de la transparencia e interpretabilidad de un modelo o algoritmo de IA.

Para ello aplicaron el marco TIFU (Transparency and Interpretability For Understandability) que involucra los tres conceptos mencionados anteriormente y examinaron su aplicación a la IA y aprendizaje automático en la investigación de salud mental.

Los autores explican que es necesaria la comprensibilidad en los modelos en salud, específicamente en psiquiatría, “porque los datos que describen los síndromes, los resultados, los trastornos y los signos/síntomas poseen relaciones probabilísticas entre sí, al igual que las etiologías tentativas y los determinantes sociales y psicológicos multifactoriales de los trastornos”.

En este sentido, al desarrollar algoritmos y modelos de tanto de IA como de aprendizaje automático es necesario garantizar la comprensión de sus entradas, procesos y salidas; para que sean aptos para su implementación.

La transparencia se determina a través de la obtención de los datos y la ingeniería de datos; la interpretabilidad se explica por medio la función del algoritmo y los procesos computacionales, su estructura, para la interpretación clínica y su presentación, la cual permite que un operador humano explore relaciones cualitativas en el comportamiento del modelo.

“Para que una IA sea confiable, debe ser válida, confiable y comprensible. Para ser comprensible, una IA debe ser transparente e interpretable y esta es una aproximación operacionalizada para la explicabilidad”, indica el artículo.

Si te interesa conocer más, consulta la revisión completa en el siguiente enlace:

https://www.nature.com/articles/s41746-023-00751-9

Related Content

Secured By miniOrange