Filtrar por tipo de entrada
Seleccionar todo
Noticias
Páginas
Eventos
Filtrar por categorías
Seleccionar todo
AI ANALITICA
Apps móviles e Internet de las Cosas
Avance de la ciencia
Big data
Comunidades conectadas
Coronavirus
Cursos y capacitaciones
DIAGNOSTICO
Editorial inicial
Editoriales
El mundo en la nube
Eventos
Infografías
Inteligencia Artificial y Ciencia
IoTApps
Noticias
Plataformas digitales
Redes sociales
Reseña de publicaciones científicas
Resumen de Cursos
Sinopsis de ensayo
Sinopsis de Marcos de Referencia
Sinopsis de publicaciones recientes
Uso de Plataformas Digitales
Interpretabilidad y transparencia en la aplicación de IA en salud mental

Investigadores de la Universidad de Oxford realizaron una revisión de las aplicaciones y herramientas de Inteligencia Artificial utilizadas en la investigación sobre salud mental y psiquiatría.

La literatura acerca de IA en salud ha recurrido al término explicabilidad, para determinar diversas características de modelos complejos de IA, sin embargo, este concepto puede variar dependiendo del contexto, por ejemplo, si se intenta explicar un modelo de IA o un modelo de aprendizaje automático. Por ejemplo, en términos de investigación en psiquiatría o salud mental, la IA se utiliza para la descripción o descubrimiento o una combinación de ambas.

Debido a la diferencia de significados en el mismo concepto, investigadores de la Universidad de Oxford en Reino Unido, han realizado una propuesta para aproximarse a una definición más concisa. De esta manera, su propuesta se basa en que la explicabilidad se defina por la comprensibilidad en función de la transparencia e interpretabilidad de un modelo o algoritmo de IA.

Para ello aplicaron el marco TIFU (Transparency and Interpretability For Understandability) que involucra los tres conceptos mencionados anteriormente y examinaron su aplicación a la IA y aprendizaje automático en la investigación de salud mental.

Los autores explican que es necesaria la comprensibilidad en los modelos en salud, específicamente en psiquiatría, “porque los datos que describen los síndromes, los resultados, los trastornos y los signos/síntomas poseen relaciones probabilísticas entre sí, al igual que las etiologías tentativas y los determinantes sociales y psicológicos multifactoriales de los trastornos”.

En este sentido, al desarrollar algoritmos y modelos de tanto de IA como de aprendizaje automático es necesario garantizar la comprensión de sus entradas, procesos y salidas; para que sean aptos para su implementación.

La transparencia se determina a través de la obtención de los datos y la ingeniería de datos; la interpretabilidad se explica por medio la función del algoritmo y los procesos computacionales, su estructura, para la interpretación clínica y su presentación, la cual permite que un operador humano explore relaciones cualitativas en el comportamiento del modelo.

“Para que una IA sea confiable, debe ser válida, confiable y comprensible. Para ser comprensible, una IA debe ser transparente e interpretable y esta es una aproximación operacionalizada para la explicabilidad”, indica el artículo.

Si te interesa conocer más, consulta la revisión completa en el siguiente enlace:

https://www.nature.com/articles/s41746-023-00751-9

Noticias destacadas

Noticias por país

Contenidos Relacionados

Secured By miniOrange