Filter by input type
Select all
News
Pages
Events
Filter by category
Select all
AI ANALYTICS
Mobile Apps and Internet of Things
Advancement of science
big data
Connected communities
Coronavirus
Courses and training
DIAGNOSIS
Initial Editorial
Editorials
A world in the cloud
Events
Infographics
Artificial Intelligence and Science
IoT Apps
News
Digital platforms
Social networks
Review of scientific publications
Course Summary
Synopsis of essay
Overview of reference frames
Synopsis of recent publications
Use of Digital Platforms
Filter by input type
Select all
News
Pages
Events
Filter by category
Select all
AI ANALYTICS
Mobile Apps and Internet of Things
Advancement of science
big data
Connected communities
Coronavirus
Courses and training
DIAGNOSIS
Initial Editorial
Editorials
A world in the cloud
Events
Infographics
Artificial Intelligence and Science
IoT Apps
News
Digital platforms
Social networks
Review of scientific publications
Course Summary
Synopsis of essay
Overview of reference frames
Synopsis of recent publications
Use of Digital Platforms
Interpretabilidad y transparencia en la aplicación de IA en salud mental

Investigadores de la Universidad de Oxford realizaron una revisión de las aplicaciones y herramientas de Inteligencia Artificial utilizadas en la investigación sobre salud mental y psiquiatría.

La literatura acerca de IA en salud ha recurrido al término explicabilidad, para determinar diversas características de modelos complejos de IA, sin embargo, este concepto puede variar dependiendo del contexto, por ejemplo, si se intenta explicar un modelo de IA o un modelo de aprendizaje automático. Por ejemplo, en términos de investigación en psiquiatría o salud mental, la IA se utiliza para la descripción o descubrimiento o una combinación de ambas.

Debido a la diferencia de significados en el mismo concepto, investigadores de la Universidad de Oxford en Reino Unido, han realizado una propuesta para aproximarse a una definición más concisa. De esta manera, su propuesta se basa en que la explicabilidad se defina por la comprensibilidad en función de la transparencia e interpretabilidad de un modelo o algoritmo de IA.

Para ello aplicaron el marco TIFU (Transparency and Interpretability For Understandability) que involucra los tres conceptos mencionados anteriormente y examinaron su aplicación a la IA y aprendizaje automático en la investigación de salud mental.

Los autores explican que es necesaria la comprensibilidad en los modelos en salud, específicamente en psiquiatría, “porque los datos que describen los síndromes, los resultados, los trastornos y los signos/síntomas poseen relaciones probabilísticas entre sí, al igual que las etiologías tentativas y los determinantes sociales y psicológicos multifactoriales de los trastornos”.

En este sentido, al desarrollar algoritmos y modelos de tanto de IA como de aprendizaje automático es necesario garantizar la comprensión de sus entradas, procesos y salidas; para que sean aptos para su implementación.

La transparencia se determina a través de la obtención de los datos y la ingeniería de datos; la interpretabilidad se explica por medio la función del algoritmo y los procesos computacionales, su estructura, para la interpretación clínica y su presentación, la cual permite que un operador humano explore relaciones cualitativas en el comportamiento del modelo.

“Para que una IA sea confiable, debe ser válida, confiable y comprensible. Para ser comprensible, una IA debe ser transparente e interpretable y esta es una aproximación operacionalizada para la explicabilidad”, indica el artículo.

Si te interesa conocer más, consulta la revisión completa en el siguiente enlace:

https://www.nature.com/articles/s41746-023-00751-9

Last Tweets

Digital Health Events

2023 February

Semana 1

Mon 30
tue 31
wed 1
Thu 2
Fri 3
Sat 4
Sun 5
Mon 6
tue 7
wed 8
Thu 9
Fri 10
Sat 11
Sun 12
Mon 13
tue 14
wed 15
Thu 16
Fri 17
Sat 18
Sun 19
Mon 20
tue 21
wed 22
Thu 23
Fri 24
Sat 25
Sun 26
Mon 27
tue 28
wed 1
Thu 2
Fri 3
Sat 4
Sun 5
  • No Events

  • No Events

  • No Events

  • No Events

  • No Events

Share

Digital Health in the world

  • — Science Brief: Omicron (B.1.1.529) Variant/CDC updates
    See more
  • —Coronavirus resource center/Johns Hopkins
    See more
  • — Epidemiological tracing of COVID-19 contacts / Johns Hopkins Course
    See more
  • — SARS-CoV-2 infection behavior / FCS calculator
    See more
  • — Omicron SARS-CoV-2 variant: a new chapter in the COVID-19 pandemic/ Article The Lancet
    See more
  • —Genomic Epidemiology Tracker/GISAID
    See more
  • — Mexican Genomic Surveillance Consortium
    See more
mistake: This content is protected...