Filter by input type
Select all
News
Pages
Events
Filter by category
Select all
AI ANALYTICS
Mobile Apps and Internet of Things
Advancement of science
big data
Connected communities
Coronavirus
Courses and training
DIAGNOSIS
Initial Editorial
Editorials
A world in the cloud
Events
Infographics
Artificial Intelligence and Science
IoT Apps
News
Digital platforms
Social networks
Review of scientific publications
Course Summary
Synopsis of essay
Overview of reference frames
Synopsis of recent publications
Use of Digital Platforms
Filter by input type
Select all
News
Pages
Events
Filter by category
Select all
AI ANALYTICS
Mobile Apps and Internet of Things
Advancement of science
big data
Connected communities
Coronavirus
Courses and training
DIAGNOSIS
Initial Editorial
Editorials
A world in the cloud
Events
Infographics
Artificial Intelligence and Science
IoT Apps
News
Digital platforms
Social networks
Review of scientific publications
Course Summary
Synopsis of essay
Overview of reference frames
Synopsis of recent publications
Use of Digital Platforms
Tras un año de su lanzamiento, ¿cómo se utiliza ChatGPT en investigación médica?

Tras un año de su lanzamiento, el chatbot de OpenAI, ChatGPT, ha generado una gran influencia en la investigación científica.

El 30 de noviembre de 2022, la compañía de tecnología OpenAI, lanzó su chatbot basado en inteligencia artificial (IA) ChatGPT, creado para responder preguntas o indicaciones en un lenguaje similar al de un humano. Este avance atrajo la atención de millones de personas en internet a nivel global y en sus primeros cinco días obtuvo más de un millón de usuarios y actualmente tiene más de 180 millones de usuarios activos.

Sin embargo, después de un año de su lanzamiento, ¿cómo ha sido su influencia en la producción científica? y ¿cuáles han sido sus aportes reales? ChatGPT y los modelos GPT-3 y GPT-4 que lo nutren han sido utilizados y probados en diferentes investigaciones médicas. Por ejemplo, ha sido evaluado para responder preguntas acerca de exámenes de especialidad médica en oftalmología o de gastroenterología.

Asimismo, investigadores han desarrollado modelos conversacionales basado en GPT-4 para realizar diagnósticos y triajes de manera precisa; o bien han sido útiles para respaldar la toma de decisiones en pruebas radiológicas para detección de cáncer de mama o en general toma de decisiones médicas. Incluso en un hospital de Perú fue incorporado para resolver dudas rápidas de manera general a los pacientes o a sus familiares.

Recientemente, Nature publicó un artículo donde diversos investigadores exponen su punto de vista y su experiencia con la adopción masiva de esta clase de herramientas basada en IA, específicamente en la academia y en la producción científica.

Por su parte, la investigadora y especialista en medicina computacional, Marzyeh Ghassemi destaca los logros técnicos de los modelos generativos de lenguaje e imágenes en la IA, reconociendo su capacidad para recrear contenido de diferentes formas. Ghassemi utiliza estos modelos principalmente para adaptar contenido científico para audiencias más amplias o para resumir su investigación para oficiales financieros. Sin embargo, expresa preocupación sobre su uso en la creación de contenido debido a su tendencia a generar información incorrecta o ficticia.

En el ámbito de la atención médica, Ghassemi señala problemas de sesgos en el contenido generado por IA. Destaca casos donde herramientas de IA generaron consejos perjudiciales en entornos de salud, lo que genera preocupaciones sobre la falta de regulación y supervisión, especialmente en el manejo de expedientes médicos electrónicos.

Además, enfatiza la necesidad de más investigación centrada en la responsabilidad social en lugar de solo en la eficiencia o el lucro al utilizar herramientas de IA generativa, especialmente en el campo de la salud. Estas herramientas han mostrado sesgos al recomendar diferentes tratamientos basados en factores como género, raza, etnia y nivel socioeconómico.

En este sentido, Ghassemi aboga por un enfoque más reflexivo en el uso de IA generativa en el ámbito de la salud, sugiriendo entrenar los modelos para ser más empáticos y reducir activamente los sesgos. Asimismo, insta a que la IA se centre en la mejora y transformación del sistema de atención médica en lugar de simplemente acelerarlo, ya que una aceleración sin control podría empeorar las desigualdades y problemas existentes.

Por otra parte, Claire Malone, periodista científica, explicó que inicialmente tenía dudas sobre la utilidad de ChatGPT en su trabajo diario como comunicadora de ciencia. Su trabajo implica presentar ideas científicas complejas de manera accesible y fácil de comprender para el público.

Además, destaca que la clave para aprovechar ChatGPT radica en formular preguntas precisas para evitar resultados irrelevantes. A pesar de sus limitaciones, encuentra eficiente obtener una visión general de un tema específico para luego profundizar. Además, considera que la experiencia de cada usuario será más personalizada a medida que ChatGPT mejore su poder y precisión en el futuro cercano.

De igual forma, Malone valora la capacidad de ChatGPT ofrecer un acercamiento general sobre una amplia gama de temas y lo describe como una fuente inmediata e interactiva de información, aunque no siempre garantiza precisión. Sin embargo, señala que el rol de la herramienta es diferente al de un periodista, ya que este último, además de verificar hechos, considera implicaciones más amplias y a menudo explora temas que los lectores quizás no han considerado previamente.

Finalmente, el Dr. Francisco Tustumi señala que, si bien herramientas como ChatGPT y otros sistemas de IA generativa tienen capacidades que podrían llevar a pensar que podrían reemplazar roles humanos en la revisión y redacción de artículos científicos, estas herramientas presentan limitaciones significativas.

El Dr. Tustumi reconoce el potencial de estas herramientas en la preparación y revisión de manuscritos, incluida la búsqueda de datos. Sin embargo, destaca ciertos aspectos problemáticos como que ChatGPT no es un motor de búsqueda y se ha demostrado que proporciona respuestas incorrectas en ciertos casos. Otro punto crucial es su falta de transparencia en la construcción de textos, por ejemplo, en el ámbito científico, es esencial que los documentos tengan una metodología clara y reproducible, detallando la fuente de información, selección, extracción de datos y estrategias de reporte. Esta transparencia permite a los lectores evaluar críticamente no solo los datos, sino también el texto de un manuscrito.

Tustumi espera que los programas basados en IA en el futuro estén preparados para ser evaluados de manera crítica. Y concluye que solo si estos sistemas pueden proporcionar transparencia y precisión, se pueden usar de manera confiable en la redacción y revisión de manuscritos científicos.

Outstanding news

News by country

Share

Digital Health in the world

  • — Science Brief: Omicron (B.1.1.529) Variant/CDC updates
    See more
  • —Coronavirus resource center/Johns Hopkins
    See more
  • — Epidemiological tracing of COVID-19 contacts / Johns Hopkins Course
    See more
  • — SARS-CoV-2 infection behavior / FCS calculator
    See more
  • — Omicron SARS-CoV-2 variant: a new chapter in the COVID-19 pandemic/ Article The Lancet
    See more
  • —Genomic Epidemiology Tracker/GISAID
    See more
  • — Mexican Genomic Surveillance Consortium
    See more
Secured By miniOrange