Filtrar por tipo de entrada
Seleccionar todo
Noticias
Páginas
Eventos
Filtrar por categorías
Seleccionar todo
AI ANALITICA
Apps móviles e Internet de las Cosas
Avance de la ciencia
Big data
Comunidades conectadas
Coronavirus
Cursos y capacitaciones
DIAGNOSTICO
Editorial inicial
Editoriales
El mundo en la nube
Eventos
Infografías
Inteligencia Artificial y Ciencia
IoTApps
Noticias
Plataformas digitales
Redes sociales
Reseña de publicaciones científicas
Resumen de Cursos
Sinopsis de ensayo
Sinopsis de Marcos de Referencia
Sinopsis de publicaciones recientes
Uso de Plataformas Digitales
Los chatbots basados en IA no están listos para su uso clínico según especialistas

Especialistas de Reino Unido realizaron un análisis sobre el uso de modelos de lenguaje basados en inteligencia artificial como ChatGPT.

Los modelos de lenguaje extenso (LLM, en inglés) continúan su expansión y desarrollo al igual que los modelos de lenguaje natural de inteligencia artificial (IA) conversacional o también llamados chatbots. El lanzamiento de ChatGPT a finales del año pasado y su emergente popularidad durante 2023, ha llamado la atención de la comunidad científica y diversos artículos y análisis se han publicado recientemente.

En este sentido, investigadores de diversas instituciones británicas como Kings College London, NHS Foundation Trust, Guys & St Thomas Hospital, entre otras, publicaron el artículo: “Los chatbots de IA aún no están listos para uso clínico”. En el texto, los autores detallan conceptos alrededor de la IA y los modelos de lenguaje, el entrenamiento de estos modelos, los sesgos que tienen y sobre todo el futuro de la IA generativa.

Los nuevos modelos de lenguaje especialmente los conversacionales o generativos tienen la capacidad de realizar tareas para las que no fueron entrenados, por ejemplo, pueden contestar preguntas médicas con un desempeño cercano al nivel humano. De esta forma, debido al rápido avance de la IA basada en LLM puede acelerar su aplicación en el cuidado de la salud y la atención médica.

“Si bien los LLM se muestran prometedores en la generación de resultados de texto elocuentes, la seguridad y la precisión del paciente tienen una prioridad más alta que la interactividad similar a la humana (a la prueba de Turing) en el dominio de la atención médica”, explican los autores. Asimismo, detallan que se deben considerar si las herramientas como ChatGPT son utilizadas por usuarios médicos, como apoyo para la toma de decisiones clínicas, o por usuarios pacientes, como un chatbot médico interactivo.

Los LLM como ChatGPT tienen una amplia representación de conocimiento a través de la exploración de internet abierta, no obstante, pueden reflejar sesgos o falta de detalles precisos.  Sin embargo, actualmente hay pocos LLM que han sido entrenados y validados en datos clínicos del mundo real, debido a la sensibilidad y seguridad de los datos de los pacientes.

“El uso práctico de estos modelos radica en su capacidad para ayudar a los profesionales de la salud en la toma de decisiones a partir de grandes registros de pacientes no estructurados; desafortunadamente, pocos modelos han sido probados y validados en tales tareas y en datos hospitalarios del mundo real”, mencionan los autores.

De esta forma, los autores proponen un enfoque alternativo como capacitar un LLM para mapear registros de pacientes en una ontología estandarizada como lo es SNOMED-CT y posteriormente producir probabilísticos a partir de un registro especifico. Existe una aplicación web donde demuestran lo anterior: https://foresight.sites.er.kcl.ac.uk/. Esta herramienta está dirigida a usuarios de atención médica y para su entrenamiento utilizaron historias clínicas con datos sintéticos.

Por otra parte, los autores explican que los LLM exhiben los mismos sesgos y asociaciones del texto de capacitación basado en internet, por ejemplo, sesgos contra países, géneros y ocupaciones. Además, los LLM pueden generar información errónea a través de las indicaciones o prompts que ingresa el usuario, en caso de ser insuficiente. Es decir, un usuario puede generar resultados engañosos, ya que ChatGPT intentará generar información que se ajuste a la suposición realizada por el usuario en lugar de preguntar, aclarar o corregir.

 

“A pesar del avance prometedor de los LLM y su sofisticación en el procesamiento y la generación del lenguaje natural, nuestras breves pruebas han resaltado la falta de preparación de los chatbots basados ​​en transformadores para su uso como herramienta clínica orientada al paciente en su forma actual. Los LLM tienen riesgos relacionados con las asociaciones y los sesgos de sus datos de entrenamiento, así como la propensión a generar resultados infieles o fácticamente incorrectos”, concluyen los autores.

Consulta el artículo completo en el siguiente enlace:

https://www.frontiersin.org/articles/10.3389/fdgth.2023.1161098/full

Contenidos Relacionados

Secured By miniOrange