Filtrar por tipo de entrada
Seleccionar todo
Noticias
Páginas
Eventos
Filtrar por categorías
Seleccionar todo
AI ANALITICA
Apps móviles e Internet de las Cosas
Avance de la ciencia
Big data
Comunidades conectadas
Coronavirus
Cursos y capacitaciones
DIAGNOSTICO
Editorial inicial
Editoriales
El mundo en la nube
Eventos
Infografías
Inteligencia Artificial y Ciencia
IoTApps
Noticias
Plataformas digitales
Redes sociales
Reseña de publicaciones científicas
Resumen de Cursos
Sinopsis de ensayo
Sinopsis de Marcos de Referencia
Sinopsis de publicaciones recientes
Uso de Plataformas Digitales
Tras un año de su lanzamiento, ¿cómo se utiliza ChatGPT en investigación médica?

Tras un año de su lanzamiento, el chatbot de OpenAI, ChatGPT, ha generado una gran influencia en la investigación científica.

El 30 de noviembre de 2022, la compañía de tecnología OpenAI, lanzó su chatbot basado en inteligencia artificial (IA) ChatGPT, creado para responder preguntas o indicaciones en un lenguaje similar al de un humano. Este avance atrajo la atención de millones de personas en internet a nivel global y en sus primeros cinco días obtuvo más de un millón de usuarios y actualmente tiene más de 180 millones de usuarios activos.

Sin embargo, después de un año de su lanzamiento, ¿cómo ha sido su influencia en la producción científica? y ¿cuáles han sido sus aportes reales? ChatGPT y los modelos GPT-3 y GPT-4 que lo nutren han sido utilizados y probados en diferentes investigaciones médicas. Por ejemplo, ha sido evaluado para responder preguntas acerca de exámenes de especialidad médica en oftalmología o de gastroenterología.

Asimismo, investigadores han desarrollado modelos conversacionales basado en GPT-4 para realizar diagnósticos y triajes de manera precisa; o bien han sido útiles para respaldar la toma de decisiones en pruebas radiológicas para detección de cáncer de mama o en general toma de decisiones médicas. Incluso en un hospital de Perú fue incorporado para resolver dudas rápidas de manera general a los pacientes o a sus familiares.

Recientemente, Nature publicó un artículo donde diversos investigadores exponen su punto de vista y su experiencia con la adopción masiva de esta clase de herramientas basada en IA, específicamente en la academia y en la producción científica.

Por su parte, la investigadora y especialista en medicina computacional, Marzyeh Ghassemi destaca los logros técnicos de los modelos generativos de lenguaje e imágenes en la IA, reconociendo su capacidad para recrear contenido de diferentes formas. Ghassemi utiliza estos modelos principalmente para adaptar contenido científico para audiencias más amplias o para resumir su investigación para oficiales financieros. Sin embargo, expresa preocupación sobre su uso en la creación de contenido debido a su tendencia a generar información incorrecta o ficticia.

En el ámbito de la atención médica, Ghassemi señala problemas de sesgos en el contenido generado por IA. Destaca casos donde herramientas de IA generaron consejos perjudiciales en entornos de salud, lo que genera preocupaciones sobre la falta de regulación y supervisión, especialmente en el manejo de expedientes médicos electrónicos.

Además, enfatiza la necesidad de más investigación centrada en la responsabilidad social en lugar de solo en la eficiencia o el lucro al utilizar herramientas de IA generativa, especialmente en el campo de la salud. Estas herramientas han mostrado sesgos al recomendar diferentes tratamientos basados en factores como género, raza, etnia y nivel socioeconómico.

En este sentido, Ghassemi aboga por un enfoque más reflexivo en el uso de IA generativa en el ámbito de la salud, sugiriendo entrenar los modelos para ser más empáticos y reducir activamente los sesgos. Asimismo, insta a que la IA se centre en la mejora y transformación del sistema de atención médica en lugar de simplemente acelerarlo, ya que una aceleración sin control podría empeorar las desigualdades y problemas existentes.

Por otra parte, Claire Malone, periodista científica, explicó que inicialmente tenía dudas sobre la utilidad de ChatGPT en su trabajo diario como comunicadora de ciencia. Su trabajo implica presentar ideas científicas complejas de manera accesible y fácil de comprender para el público.

Además, destaca que la clave para aprovechar ChatGPT radica en formular preguntas precisas para evitar resultados irrelevantes. A pesar de sus limitaciones, encuentra eficiente obtener una visión general de un tema específico para luego profundizar. Además, considera que la experiencia de cada usuario será más personalizada a medida que ChatGPT mejore su poder y precisión en el futuro cercano.

De igual forma, Malone valora la capacidad de ChatGPT ofrecer un acercamiento general sobre una amplia gama de temas y lo describe como una fuente inmediata e interactiva de información, aunque no siempre garantiza precisión. Sin embargo, señala que el rol de la herramienta es diferente al de un periodista, ya que este último, además de verificar hechos, considera implicaciones más amplias y a menudo explora temas que los lectores quizás no han considerado previamente.

Finalmente, el Dr. Francisco Tustumi señala que, si bien herramientas como ChatGPT y otros sistemas de IA generativa tienen capacidades que podrían llevar a pensar que podrían reemplazar roles humanos en la revisión y redacción de artículos científicos, estas herramientas presentan limitaciones significativas.

El Dr. Tustumi reconoce el potencial de estas herramientas en la preparación y revisión de manuscritos, incluida la búsqueda de datos. Sin embargo, destaca ciertos aspectos problemáticos como que ChatGPT no es un motor de búsqueda y se ha demostrado que proporciona respuestas incorrectas en ciertos casos. Otro punto crucial es su falta de transparencia en la construcción de textos, por ejemplo, en el ámbito científico, es esencial que los documentos tengan una metodología clara y reproducible, detallando la fuente de información, selección, extracción de datos y estrategias de reporte. Esta transparencia permite a los lectores evaluar críticamente no solo los datos, sino también el texto de un manuscrito.

Tustumi espera que los programas basados en IA en el futuro estén preparados para ser evaluados de manera crítica. Y concluye que solo si estos sistemas pueden proporcionar transparencia y precisión, se pueden usar de manera confiable en la redacción y revisión de manuscritos científicos.

Noticias destacadas

Noticias por país

Contenidos Relacionados

Secured By miniOrange