Filter by input type
Select all
News
Pages
Events
Filter by category
Select all
AI ANALYTICS
Mobile Apps and Internet of Things
Advancement of science
big data
Connected communities
Coronavirus
Courses and training
DIAGNOSIS
Initial Editorial
Editorials
A world in the cloud
Events
Infographics
Artificial Intelligence and Science
IoT Apps
News
Digital platforms
Social networks
Review of scientific publications
Course Summary
Synopsis of essay
Overview of reference frames
Synopsis of recent publications
Use of Digital Platforms
Filter by input type
Select all
News
Pages
Events
Filter by category
Select all
AI ANALYTICS
Mobile Apps and Internet of Things
Advancement of science
big data
Connected communities
Coronavirus
Courses and training
DIAGNOSIS
Initial Editorial
Editorials
A world in the cloud
Events
Infographics
Artificial Intelligence and Science
IoT Apps
News
Digital platforms
Social networks
Review of scientific publications
Course Summary
Synopsis of essay
Overview of reference frames
Synopsis of recent publications
Use of Digital Platforms
Los chatbots basados en IA no están listos para su uso clínico según especialistas

Especialistas de Reino Unido realizaron un análisis sobre el uso de modelos de lenguaje basados en inteligencia artificial como ChatGPT.

Los modelos de lenguaje extenso (LLM, en inglés) continúan su expansión y desarrollo al igual que los modelos de lenguaje natural de inteligencia artificial (IA) conversacional o también llamados chatbots. El lanzamiento de ChatGPT a finales del año pasado y su emergente popularidad durante 2023, ha llamado la atención de la comunidad científica y diversos artículos y análisis se han publicado recientemente.

En este sentido, investigadores de diversas instituciones británicas como Kings College London, NHS Foundation Trust, Guys & St Thomas Hospital, entre otras, publicaron el artículo: “Los chatbots de IA aún no están listos para uso clínico”. En el texto, los autores detallan conceptos alrededor de la IA y los modelos de lenguaje, el entrenamiento de estos modelos, los sesgos que tienen y sobre todo el futuro de la IA generativa.

Los nuevos modelos de lenguaje especialmente los conversacionales o generativos tienen la capacidad de realizar tareas para las que no fueron entrenados, por ejemplo, pueden contestar preguntas médicas con un desempeño cercano al nivel humano. De esta forma, debido al rápido avance de la IA basada en LLM puede acelerar su aplicación en el cuidado de la salud y la atención médica.

“Si bien los LLM se muestran prometedores en la generación de resultados de texto elocuentes, la seguridad y la precisión del paciente tienen una prioridad más alta que la interactividad similar a la humana (a la prueba de Turing) en el dominio de la atención médica”, explican los autores. Asimismo, detallan que se deben considerar si las herramientas como ChatGPT son utilizadas por usuarios médicos, como apoyo para la toma de decisiones clínicas, o por usuarios pacientes, como un chatbot médico interactivo.

Los LLM como ChatGPT tienen una amplia representación de conocimiento a través de la exploración de internet abierta, no obstante, pueden reflejar sesgos o falta de detalles precisos.  Sin embargo, actualmente hay pocos LLM que han sido entrenados y validados en datos clínicos del mundo real, debido a la sensibilidad y seguridad de los datos de los pacientes.

“El uso práctico de estos modelos radica en su capacidad para ayudar a los profesionales de la salud en la toma de decisiones a partir de grandes registros de pacientes no estructurados; desafortunadamente, pocos modelos han sido probados y validados en tales tareas y en datos hospitalarios del mundo real”, mencionan los autores.

De esta forma, los autores proponen un enfoque alternativo como capacitar un LLM para mapear registros de pacientes en una ontología estandarizada como lo es SNOMED-CT y posteriormente producir probabilísticos a partir de un registro especifico. Existe una aplicación web donde demuestran lo anterior: https://foresight.sites.er.kcl.ac.uk/. Esta herramienta está dirigida a usuarios de atención médica y para su entrenamiento utilizaron historias clínicas con datos sintéticos.

Por otra parte, los autores explican que los LLM exhiben los mismos sesgos y asociaciones del texto de capacitación basado en internet, por ejemplo, sesgos contra países, géneros y ocupaciones. Además, los LLM pueden generar información errónea a través de las indicaciones o prompts que ingresa el usuario, en caso de ser insuficiente. Es decir, un usuario puede generar resultados engañosos, ya que ChatGPT intentará generar información que se ajuste a la suposición realizada por el usuario en lugar de preguntar, aclarar o corregir.

 

“A pesar del avance prometedor de los LLM y su sofisticación en el procesamiento y la generación del lenguaje natural, nuestras breves pruebas han resaltado la falta de preparación de los chatbots basados ​​en transformadores para su uso como herramienta clínica orientada al paciente en su forma actual. Los LLM tienen riesgos relacionados con las asociaciones y los sesgos de sus datos de entrenamiento, así como la propensión a generar resultados infieles o fácticamente incorrectos”, concluyen los autores.

See the full article at the following link:

https://www.frontiersin.org/articles/10.3389/fdgth.2023.1161098/full

Outstanding news

News by country

Share

Digital Health in the world

  • — Science Brief: Omicron (B.1.1.529) Variant/CDC updates
    See more
  • —Coronavirus resource center/Johns Hopkins
    See more
  • — Epidemiological tracing of COVID-19 contacts / Johns Hopkins Course
    See more
  • — SARS-CoV-2 infection behavior / FCS calculator
    See more
  • — Omicron SARS-CoV-2 variant: a new chapter in the COVID-19 pandemic/ Article The Lancet
    See more
  • —Genomic Epidemiology Tracker/GISAID
    See more
  • — Mexican Genomic Surveillance Consortium
    See more
Secured By miniOrange