Filter by input type
Select all
News
Pages
Events
Filter by category
Select all
AI ANALYTICS
Mobile Apps and Internet of Things
Advancement of science
big data
Connected communities
Coronavirus
Courses and training
DIAGNOSIS
Initial Editorial
Editorials
A world in the cloud
Events
Infographics
Artificial Intelligence and Science
IoT Apps
News
Digital platforms
Social networks
Review of scientific publications
Course Summary
Synopsis of essay
Overview of reference frames
Synopsis of recent publications
Use of Digital Platforms

Search Results for: chat gpt

big data

Utilizan Gemini y ChatGPT para la interpretación de informes de patología

Un estudio evaluó la eficacia y precisión de chatbots basados en inteligencia artificial en tareas de simplificación de informes médicos. Los informes de patología anatómica contienen información diagnóstica y pronóstica esencial para la atención médica. Sin embargo, aunque los pacientes suelen tener acceso a sus resultados en línea, estos informes suelen ser complejos y difíciles de entender para el público general. De esta manera, los chatbots de inteligencia artificial (IA) tienen el potencial de simplificar estos informes para que sean más accesibles para los pacientes. Un estudio reciente publicado en JAMA Network, por investigadores de Nueva York, tuvo como objetivo evaluar la capacidad de los chatbots de modelos de lenguaje de gran escala para explicar de manera precisa y comprensible los informes de patología a los pacientes. Se trató de un estudio transversal que utilizó 1,134 informes de patología de un hospital con múltiples especialidades en Brooklyn, Nueva York, recopilados entre el 1 de enero de 2018 y el 31 de mayo de 2023. Además, se utilizaron dos chatbots: Bard de Google y ahora denominado Gemini (chatbot 1) y GPT-4 de OpenAI (chatbot 2). Cada chatbot fue instruido para explicar los informes en términos simples y extraer información clave. Posteriormente, las respuestas generadas se compararon en términos de legibilidad y precisión médica. Los resultados arrojaron que ambos chatbots lograron reducir significativamente el nivel de lectura de los informes de patología. El nivel de grado de Flesch-Kincaid, una prueba de legibilidad de facilidad de lectura, disminuyó de un promedio de 13.19 a 8.17 por el chatbot 1 y a 7.45 por el chatbot 2. Por otro lado, la puntuación de la prueba de legibilidad Flesch Reading Ease aumentó de 10.32 a 61.32 con el chatbot 1 y a 70.80 con el chatbot 2. En este sentido, en términos de precisión, el chatbot 1, es decir Bard o Gemini, interpretó correctamente el 87.57% de los informes, parcialmente correctamente el 8.99% y de manera incorrecta el 3.44%. Por otra parte, el chatbot 2 o ChatGPT, tuvo una precisión superior, interpretando correctamente el 97.44% de los informes, parcialmente correctamente el 2.12% y de manera incorrecta el 0.44%. Sin embargo, se identificaron instancias de alucinaciones, con 32 casos en el chatbot 1 y 3 en el chatbot 2. En el campo de la IA, una alucinación, es una respuesta que no está basada en datos reales y que no parece estar justificada por sus datos de entrenamiento, es decir información incorrecta o engañosa generada por un modelo de lenguaje de IA. Finalmente, el estudio y los autores sugieren que los chatbots de IA pueden simplificar eficazmente los informes de patología, haciéndolos más accesibles y fáciles de entender para los pacientes. No obstante, es importante resaltar que detectaron algunas inexactitudes y alucinaciones, lo que indica la necesidad de que estos informes simplificados sean revisados previamente por profesionales de la salud para poder ser entregados a los pacientes. BIBLIOGRAFÍA JAMA NETWORK https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2818881

Leer completo »
big data

Estudio sugiere que ChatGPT podría utilizarse como herramienta de gestión de medicamentos

Estudio muestra que ChatGPT podría utilizarse como una herramienta de gestión de medicamentos y ayudar a mejorar la atención geriátrica. Un estudio publicado en Journal of Medical Systems, conducido por investigadores de Mass General Brigham detalla cómo ChatGPT, uno de los chatbot de inteligencia artificial (IA) generativa y LLM más reconocidos muestra un gran potencial para ser una herramienta de gestión de medicamentos en pacientes. El estudio aborda la gestión de medicamentos como una problemática generalmente entre pacientes que son adultos mayores, que al utilizar simultáneamente cinco o más medicamentos (polifarmacia), aumentan el riesgo de interacciones de medicamentos adversas. En este sentido ChatGPT, puede aprovecharse para mejorar la atención primaria y brindar una personalización a cada paciente geriátrico que necesita gestionar la polifarmacia. Los investigadores de Mass General Brigham, evaluaron la utilidad de ChatGPT utilizando diversos escenarios clínicos y le formularon una serie de preguntas para la toma de decisiones. Cada escenario presentaba al mismo paciente geriátrico toando una combinación de medicamentos, pero incluía algunas variaciones en el historial clínico, como enfermedades cardiovasculares y el grado de deterioro en las actividades de la vida diaria. ChatGPT recomendó no prescribir medicamentos en pacientes sin antecedentes de enfermedades cardiovasculares, cuando fue cuestionado sobre la reducción de medicamentos recetados. No obstante, fue más conservador cuando se introdujo la enfermedad cardiovascular superpuesta en las preguntas. En ambos casos, los autores del estudio observaron que la gravedad del deterioro de las actividades de la vida diaria no parecía afectar los resultados en las decisiones. Por otro lado, el chatbot tuvo una tendencia a ignorar el dolor de pacientes y favorecer le des prescripción de analgésicos. Además, ChatGPT contestó de diversas maneras ante la misma pregunta y escenario en nuevas sesiones del chat, lo que podría reflejar una inconsistencia en las tendencias de des prescripción clínica. “Nuestro estudio proporciona el primer caso de uso de ChatGPT como herramienta de apoyo clínico para la gestión de medicamentos”, mencionó el Dr. Marc Succi, autor principal. “Si bien se debe tener precaución para aumentar la precisión de dichos modelos, la gestión de la polifarmacia asistida por IA podría ayudar a aliviar la carga cada vez mayor que pesa sobre los médicos generales. Investigaciones adicionales con herramientas de IA específicamente entrenadas pueden mejorar significativamente la atención de los pacientes de edad avanzada”, agregó. Los investigadores detallaron que una herramienta de IA eficaz sería clave para ayudar en la práctica de gestión de medicamentos en pacientes geriátricos, sobre todo en el primer nivel de atención. La investigadora de Mass Brigham, Arya Rao explicó que: “Nuestros hallazgos sugieren que las herramientas basadas en IA pueden desempeñar un papel importante para garantizar prácticas de medicación seguras para los adultos mayores; Es imperativo que sigamos perfeccionando estas herramientas para tener en cuenta las complejidades de la toma de decisiones médicas”. BIBLIOGRAFÍA MASS GENERAL BRIGHAM https://www.massgeneralbrigham.org/en/about/newsroom/articles/study-finds-chatgpt-shows-promise-as-medication-management-tool-could-help-improve-geriatric-health-care SPINGER https://link.springer.com/article/10.1007/s10916-024-02058-y

Leer completo »
big data

Tras un año de su lanzamiento, ¿cómo se utiliza ChatGPT en investigación médica?

Tras un año de su lanzamiento, el chatbot de OpenAI, ChatGPT, ha generado una gran influencia en la investigación científica. El 30 de noviembre de 2022, la compañía de tecnología OpenAI, lanzó su chatbot basado en inteligencia artificial (IA) ChatGPT, creado para responder preguntas o indicaciones en un lenguaje similar al de un humano. Este avance atrajo la atención de millones de personas en internet a nivel global y en sus primeros cinco días obtuvo más de un millón de usuarios y actualmente tiene más de 180 millones de usuarios activos. Sin embargo, después de un año de su lanzamiento, ¿cómo ha sido su influencia en la producción científica? y ¿cuáles han sido sus aportes reales? ChatGPT y los modelos GPT-3 y GPT-4 que lo nutren han sido utilizados y probados en diferentes investigaciones médicas. Por ejemplo, ha sido evaluado para responder preguntas acerca de exámenes de especialidad médica en oftalmología o de gastroenterología. Asimismo, investigadores han desarrollado modelos conversacionales basado en GPT-4 para realizar diagnósticos y triajes de manera precisa; o bien han sido útiles para respaldar la toma de decisiones en pruebas radiológicas para detección de cáncer de mama o en general toma de decisiones médicas. Incluso en un hospital de Perú fue incorporado para resolver dudas rápidas de manera general a los pacientes o a sus familiares. Recientemente, Nature publicó un artículo donde diversos investigadores exponen su punto de vista y su experiencia con la adopción masiva de esta clase de herramientas basada en IA, específicamente en la academia y en la producción científica. Por su parte, la investigadora y especialista en medicina computacional, Marzyeh Ghassemi destaca los logros técnicos de los modelos generativos de lenguaje e imágenes en la IA, reconociendo su capacidad para recrear contenido de diferentes formas. Ghassemi utiliza estos modelos principalmente para adaptar contenido científico para audiencias más amplias o para resumir su investigación para oficiales financieros. Sin embargo, expresa preocupación sobre su uso en la creación de contenido debido a su tendencia a generar información incorrecta o ficticia. En el ámbito de la atención médica, Ghassemi señala problemas de sesgos en el contenido generado por IA. Destaca casos donde herramientas de IA generaron consejos perjudiciales en entornos de salud, lo que genera preocupaciones sobre la falta de regulación y supervisión, especialmente en el manejo de expedientes médicos electrónicos. Además, enfatiza la necesidad de más investigación centrada en la responsabilidad social en lugar de solo en la eficiencia o el lucro al utilizar herramientas de IA generativa, especialmente en el campo de la salud. Estas herramientas han mostrado sesgos al recomendar diferentes tratamientos basados en factores como género, raza, etnia y nivel socioeconómico. En este sentido, Ghassemi aboga por un enfoque más reflexivo en el uso de IA generativa en el ámbito de la salud, sugiriendo entrenar los modelos para ser más empáticos y reducir activamente los sesgos. Asimismo, insta a que la IA se centre en la mejora y transformación del sistema de atención médica en lugar de simplemente acelerarlo, ya que una aceleración sin control podría empeorar las desigualdades y problemas existentes. Por otra parte, Claire Malone, periodista científica, explicó que inicialmente tenía dudas sobre la utilidad de ChatGPT en su trabajo diario como comunicadora de ciencia. Su trabajo implica presentar ideas científicas complejas de manera accesible y fácil de comprender para el público. Además, destaca que la clave para aprovechar ChatGPT radica en formular preguntas precisas para evitar resultados irrelevantes. A pesar de sus limitaciones, encuentra eficiente obtener una visión general de un tema específico para luego profundizar. Además, considera que la experiencia de cada usuario será más personalizada a medida que ChatGPT mejore su poder y precisión en el futuro cercano. De igual forma, Malone valora la capacidad de ChatGPT ofrecer un acercamiento general sobre una amplia gama de temas y lo describe como una fuente inmediata e interactiva de información, aunque no siempre garantiza precisión. Sin embargo, señala que el rol de la herramienta es diferente al de un periodista, ya que este último, además de verificar hechos, considera implicaciones más amplias y a menudo explora temas que los lectores quizás no han considerado previamente. Finalmente, el Dr. Francisco Tustumi señala que, si bien herramientas como ChatGPT y otros sistemas de IA generativa tienen capacidades que podrían llevar a pensar que podrían reemplazar roles humanos en la revisión y redacción de artículos científicos, estas herramientas presentan limitaciones significativas. El Dr. Tustumi reconoce el potencial de estas herramientas en la preparación y revisión de manuscritos, incluida la búsqueda de datos. Sin embargo, destaca ciertos aspectos problemáticos como que ChatGPT no es un motor de búsqueda y se ha demostrado que proporciona respuestas incorrectas en ciertos casos. Otro punto crucial es su falta de transparencia en la construcción de textos, por ejemplo, en el ámbito científico, es esencial que los documentos tengan una metodología clara y reproducible, detallando la fuente de información, selección, extracción de datos y estrategias de reporte. Esta transparencia permite a los lectores evaluar críticamente no solo los datos, sino también el texto de un manuscrito. Tustumi espera que los programas basados en IA en el futuro estén preparados para ser evaluados de manera crítica. Y concluye que solo si estos sistemas pueden proporcionar transparencia y precisión, se pueden usar de manera confiable en la redacción y revisión de manuscritos científicos. BIBLIOGRAFÍA NATURE https://www.nature.com/articles/d41586-023-03798-6

Leer completo »
big data

Anuncian Grok, nuevo modelo de IA que busca competir con ChatGPT

La compañía xAI de Elon Musk anunció el lanzamiento de Grok, una nueva herramienta de inteligencia artificial cuyo objetivo es promover la investigación. Grok es una inteligencia artificial (IA) inspirada en la serie literaria Guía del autoestopista galáctico, diseñada para responder una gran variedad de preguntas y aportar un toque de humor. Este modelo se encuentra en su fase beta inicial, por lo que es un trabajo en proceso y se espera que mejore rápidamente conforme los usuarios la utilicen y compartan sus comentarios. A diferencia de otros modelos como GPT 4 de ChatGPT, Grok tiene una ventaja única, la cual reside en su conocimiento del mundo en tiempo real a través de la plataforma X (antes Twitter). Asimismo, este nuevo modelo de lenguaje está ideado para responder toda clase de preguntas, incluso aquellas que otros chatbots de IA podrían rechazar. El equipo de xAI que está detrás de Grok pretende crear herramientas de IA que beneficien a la humanidad recabando opiniones y garantizando la inclusión de diversos orígenes y opiniones políticas. El desarrollo incluye Grok-1, un potente modelo de lenguaje (LLM) muy potente que cuenta con una precisión del 63,2% en la tarea de codificación HumanEval y del 73% en MMLU. Los objetivos del equipo incluyen capacitar a los usuarios con herramientas de IA, promover la investigación y la innovación y, en última instancia, ayudar en la búsqueda de la comprensión. Para evaluar la capacidad de Grok, los desarrolladores realizaron una serie de evaluaciones utilizando múltiples estándares de referencia de aprendizaje automático, diseñados para medir sus capacidades matemáticas y de razonamiento. Las pruebas de referencias utilizadas fueron: GSM8k que contiene problemas matemáticos de nivel secundaria; MMLI que contiene preguntas de opción múltiple sobre diversas disciplinas; HumanEval, que evalúa tareas de finalización de código Python; y MATH que incluye pruebas matemáticas de preparatoria y secundaria. Además, Grok fue comparado con otro LLM como GPT-3.5, GPT-4, Palm 2, Claude 2, entre otros. El comunicado de lanzamiento explica los avances de la compañía en ingeniería y en la investigación. Por ejemplo, detalla que se encuentran realizando investigaciones en aprendizaje profundo, construyendo una infraestructura confiable basada en Kubernetes, Rust y JAX para el desarrollo de Grok. Asimismo, a pesar de que la capacitación del LLM es intensiva y propensa a fallos en las GPU, xAI ha implementado sistemas distribuidos personalizados para gestionar estos fallos. Rust se ha demostrado como una elección ideal para construir infraestructura escalable y confiable, y ahora están preparándose para mejorar las capacidades del modelo. En cuanto a los avances en investigación y el rol que xAI busca que Grok desempeñe la compañía compartió los avances y limitaciones del modelo. Por ejemplo, que contar con acceso a herramientas de búsqueda e información en tiempo real, al cual que todos los LLM entrenados en predicción de tokens, puede generar información falsa o contradictoria. En este sentido, xAI se centra en la investigación para lograr un razonamiento confiable. Esto incluye supervisión escalable con asistencia de herramientas; integración con verificación formal para seguridad y fiabilidad, comprensión y recuperación de contextos largos; y robustez adversarial y capacidades multimodales para dotar a Grok de sentidos adicionales. El objetivo final es maximizar el valor científico y económico de la IA y garantizar la seguridad ante su posible uso con fines maliciosos. Hasta el momento Grok-1, ha mostrado mejoras significativas, alcanzando una alta precisión las pruebas de referencia a las que fue sometido y siguiendo su objetivo general de capacitar a los usuarios, fomentar la investigación y contribuir a la búsqueda del conocimiento. BIBLIOGRAFÍA XAI https://x.ai/?utm_source=www.therundown.ai&utm_medium=newsletter&utm_campaign=elon-musk-reveals-his-chatgpt-rival

Leer completo »
big data

Nuevo estudio muestra el potencial de ChatGPT en la toma de decisiones clínicas

Investigadores de Mass General Brigham realizaron una investigación cuyos resultados mostraron el potencial de la IA generativa en la toma de decisiones clínicas. El estudio “Evaluación de la utilidad de ChatGPT en todo el flujo de trabajo clínico: estudio de desarrollo y usabilidad” fue publicado en el Journal of Medical Internet Research (JMIR), y sus resultados mostraron que ChatGPT logró aproximadamente un 72% de precisión en toma de decisiones clínicas generales. El estudio evaluó la capacidad del modelo de lenguaje ChatGPT para realizar posibles diagnósticos, decisiones de gestión de la atención y toma de diagnósticos finales. “Nuestro artículo evalúa de manera integral el apoyo a la toma de decisiones a través de ChatGPT desde el comienzo del trabajo con un paciente a lo largo de todo el escenario de atención, desde el diagnóstico diferencial hasta las pruebas, el diagnóstico y el manejo”, dijo el autor Marc Succi, de General Mass Brigham. Asimismo, explicó que, aunque no existen puntos de referencia reales, el desempeño de ChatGPT demostró que está al nivel de un recién graduado de la facultad de medicina, como un pasante o un residente. En este sentido, los grandes modelos de lenguaje (LLM, en inglés) demostraron su potencial para convertirse en una herramienta complementaria para la práctica de la medicina y la toma de decisiones clínicas en sistemas de salud. El estudio encontró que ChatGPT no solo logró una precisión favorable en la toma de decisiones, sino también una precisión del 77% en la realización de diagnósticos finales. Esto llamó la atención de los autores, ya que consideraron que la IA continúa avanzando a un ritmo acelerado y tiene la capacidad de transformar la industria médica. No obstante, los autores también reconocieron que todavía no se ha estudiado lo suficiente la capacidad de los LLM pueden ayudar en todo el ámbito de la atención clínica. Este estudio solo muestra el uso de LLM en la asesoría clínica y en la toma de decisiones. “El estudio se realizó pegando porciones sucesivas de 36 viñetas clínicas publicadas y estandarizadas en ChatGPT. Primero se le pidió a la herramienta que presentara un conjunto de diagnósticos posibles o diferenciales basados ​​en la información inicial del paciente, que incluía edad, sexo, síntomas y si el caso era una emergencia. Luego, a ChatGPT se le proporcionó información adicional y se le pidió que tomara decisiones de gestión y que diera un diagnóstico final, simulando todo el proceso de atención a un paciente real”, explica el estudio. Posteriormente el equipo de Mass General Brigham comparó la precisión de ChatGPT en el diagnóstico diferencial, las pruebas de diagnóstico, el diagnóstico final y la gestión en un proceso ciego estructurado, otorgando puntos por las respuestas correctas y utilizando evaluando y comparando la relación entre el desempeño de ChatGPT y la información demográfica de la viñeta. El rendimiento más bajo se registró en la generación de los diagnósticos diferenciales con 60%. Además, en las decisiones de gestión clínica, por ejemplo, sobre cómo determinar qué medicamentos requiere cada paciente, obtuvo una precisión de 68%. “ChatGPT tuvo problemas con el diagnóstico diferencial, que es el meollo de la medicina cuando un médico tiene que decidir qué hacer. Eso es importante porque nos dice dónde los médicos son verdaderamente expertos y aportan el mayor valor: en las primeras etapas de la atención al paciente con poca información de presentación, cuando se necesita una lista de posibles diagnósticos”, explicó Succi. Los autores concluyeron que antes de considerar herramientas basadas en LLM como ChatGPT, para su integración en la atención clínica, son necesarias más investigaciones y sobre todo una regulación. Consulta el estudio completo en el siguiente enlace: https://www.jmir.org/2023/1/e48659/ BIBLIOGRAFÍA JMIR https://www.jmir.org/2023/1/e48659/ MASS GENERAL BRIGHAM https://www.massgeneralbrigham.org/en/about/newsroom/press-releases/chatgpt-shows-impressive-accuracy-in-clinical-decision-making

Leer completo »
big data

ChatGPT logra responder correctamente preguntas de evaluación de oftalmología

Un estudio reciente probó al modelo de IA generativa en preguntas sobre oftalmología y mostró resultados positivos. La Inteligencia Artificial (IA) generativa es capaz de generar respuestas que se asemejan cada vez más a las respuestas humanas en una amplia gama de temas. Uno de los campos en los que han demostrado su capacidad es en el ámbito de las ciencias de la salud y diversas especialidades médicas. Recientemente fue publicado un estudio en JAMA Ophthalmology donde ChatGPT, uno de los modelos de IA generativa más importantes, fue sometidos a pruebas para responder preguntas de práctica destinadas a preparar a los futuros especialistas para el examen de certificación del American Board of Ophthalmology. El estudio encontró que ChatGPT-4 respondía correctamente aproximadamente la mitad de las preguntas de opción múltiple en el ensayo gratuito de OphthoQuestions utilizado para preparar el examen de certificación del American Board of Ophthalmology. En este estudio, se actualizó la investigación anterior para evaluar la precisión de la versión actualizada de este chatbot al responder preguntas de práctica para el examen de certificación en oftalmología. ChatGPT-4 logró responder correctamente el 84% de una muestra de preguntas de opción múltiple de OphthoQuestions. El trabajo anterior había mostrado la capacidad de ChatGPT-3, la versión anterior, para responder 125 preguntas de opción múltiple basadas en textos también de OphthoQuestions. Asimismo, el trabajo anterior, había logrado responder correctamente solo el 46% de las preguntas. De esta manera, los autores explican que la versión anterior de ChatGPT, podía ser una herramienta insuficiente para quienes se preparan para el examen de certificación de oftalmología en Estados Unidos. No obstante, la actualización del chat en marzo de 2023, ha mostrado un conocimiento general más extenso, así como habilidades de resolución de problemas que su predecesor no tenía. El rendimiento mejorado de esta IA generativa abre las puertas a nuevas técnicas para el estudio y la educación sobre temas especializados. Asimismo, los mismos autores probaron este modelo de IA para realizar preguntas sobre medicina general, retina, vítreo y uveítis, las cuales respondió correctamente en su totalidad. Sin embargo, una de las limitaciones más grandes de este modelo es que está diseñado para proporcionar respuestas únicas a cada consulta. Además, la constante expansión del conocimiento del chatbot puede significar que este estudio no pierda relevancia en meses. Finalmente, ChatGPT continuará utilizándose para explorar sus aplicaciones en la educación médica o en la resolución de dudas de pacientes, y sus continuas actualizaciones permitirán expandirse a más temas y especialidades médicas en un futuro. BIBLIOGRAFÍA JAMA NETWORK https://jamanetwork.com/journals/jamaophthalmology/article-abstract/2807120 HEALTH IT ANALYTICS https://healthitanalytics.com/news/chatgpt-accurately-answers-ophthalmic-knowledge-assessment-questions

Leer completo »
News

Hospital de Perú incorpora el uso de ChatGPT para resolver dudas de pacientes

El Instituto Nacional de Salud del Niño San Borja ubicado en Lima, Perú utiliza inteligencia artificial para facilitar la comunicación con los pacientes pediátricos y sus tutores. La revista científica del Instituto Nacional de Salud del Niño San Borja (INSN SB) publicó los resultados de la primera etapa de una investigación sobre el uso de ChatGPT, el modelo de lenguaje basado en inteligencia artificial (IA) más utilizado actualmente. La incorporación de esta tecnología busca facilitar la respuesta de preguntas de todo tipo sobre la salud de los pacientes y resolver dudas frecuentes. Cabe mencionar que en Perú se aprobó recientemente la Ley 31814, que promueve el uso de IA en favor del desarrollo económico y social del país, lo que permitirá su aplicación en la atención médica. El Dr. Cender Quispe Juli, miembro del grupo de investigadores que llevaron a cabo este estudio, detalló que comenzaron con la investigación en febrero de 2023. Para ello seleccionaron las 14 preguntas más frecuentes de los padres/tutores de los pacientes y sus respectivas respuestas generadas por ChatGPT. Posteriormente un comité de médicos analizó la calidad y veracidad de la información, quienes determinaron que los datos fueron útiles y precisos. Asimismo, desarrollaron una plataforma amigable denominada “Alfabetización en Salud Pediátrica” para que los usuarios puedan acceder fácilmente y resolver sus dudas relacionadas con medicamentos, enfermedades u otra información médica. Incluso no es necesario que los usuarios formulen una pregunta completa, ya que el término de búsqueda se relaciona con consultas ingresadas por los especialistas. Por ejemplo, escribir el nombre de condiciones médicas es suficiente para que la plataforma muestre la información sobre los síntomas, las causas, su tratamiento y recomendaciones específicas de la enfermedad. Para la segunda parte del estudio los investigadores del INSN SB buscan dar seguimiento a las preguntas recibidas y los resultados obtenidos. Posteriormente buscan desarrollar un modelo de lenguaje largo propio del instituto. Por otra parte, desde el 2020 el instituto ha incorporado el uso del software MEDIS, que se basa en IA para realizar análisis cardiacos. Hasta la fecha han procesado 80 casos con el apoyo de esta herramienta. Asimismo, han utilizado algoritmos basados en aprendizaje automático para la detección automatizada del ángulo Cobb, que permite diagnosticar escoliosis congénita o adquirida. “Entrenaremos un algoritmo que nos ayude a diagnosticar los niveles y grados de escoliosis a través de la medición del ángulo de Cobb, con un enfoque más radiológico”, explicó el Dr. Quispe. “Hay mucho para recorrer en inteligencia artificial y más aún en inteligencia artificial en salud y en el ámbito de la salud pediátrica. Tenemos las aplicaciones en diagnóstico, además de pronóstico que coayudan al monitoreo de enfermedades y tiene ilimitadas aplicaciones. Esto recién es el inicio”, concluyó el especialista. BIBLIOGRAFÍA EL PERUANO https://www.elperuano.pe/noticia/217565-asi-se-usa-la-inteligencia-artificial-en-el-instituto-nacional-de-salud-del-nino-san-borja

Leer completo »
big data

ChatGPT podría respaldar toma de decisiones en la elección de pruebas radiológicas para detección de cáncer de mama

Investigadores del sistema de salud Mass General Brigham llevaron a cabo el primer estudio que explora cómo ChatGPT podría ser de utilidad en el proceso de toma de decisiones clínicas. El estudio conducido por investigadores de Mass General Brigham encontró que los modelos de lenguaje basados en inteligencia artificial (IA) como ChatGPT, pueden identificar de manera precisa los servicios de imágenes adecuados para la detección de cáncer de mama y el dolor de mama. Los resultados del estudio sugieren que los modelos de lenguaje extensos (LLM) tiene el potencial de ser un apoyo en la toma de decisiones para los profesionales de atención primaria. Los resultados del estudio fueron publicados en Journal of the American College of Radiology. Uno de los autores, Marc D. Succi, explicó que en este escenario las capacidades de ChatGPT fueron destacables. “Lo veo actuando como un puente entre el profesional de la salud que deriva y el radiólogo experto, interviniendo como un consultor capacitado para recomendar la prueba de imagen correcta en el punto de atención, sin demora. Esto podría reducir el tiempo administrativo tanto en los médicos de derivación como en los de consulta, al tomar estas decisiones respaldadas por evidencia, optimizar el flujo de trabajo, reducir el agotamiento y reducir la confusión del paciente y los tiempos de espera”, detalló. ChatGPT es un LLM entrenado con datos de internet para responder preguntas simulando una interacción humana, desde su introducción en 2022, la comunidad médica y científica ha explorado cómo se puede aprovechar el potencial de esta clase de herramientas en entornos médicos. Cuando una paciente se queja de dolor en los senos es necesario determinar qué prueba de imagen elegir para su evaluación, por ejemplo, una resonancia magnética, una ecografía, una mamografía u otra prueba de imagen. Los radiólogos suelen seguirlos criterios del Colegio Estadounidense de Radiología para esta toma de decisiones, sin embargo, quienes no son especialista pueden desconocer estas pautas, lo que podría llevar a que los pacientes se sometan a pruebas equivocadas o que no necesitan realmente. De esta manera, los investigadores le pidieron a GPT-3.5 y GPT-4 de OpenAI a decidir qué pruebas de imagen utilizar en 21 escenarios de pacientes inventados, que involucraron la necesidad de detección de cáncer de mama o informes de dolor de cáncer de mama utilizando los criterios del Colegio. ChatGPT 3.5 respondió un promedio del 88,9 % de las preguntas de manera correcta mientras que ChatGPT 4 acertó aproximadamente el 98,4 %. Succi explica que el estudio no busca comparar ChatGPT con los radiólogos existentes porque el estándar de oro existente son las pautas del Colegio Estadounidense de Radiología. Este es un estudio puramente aditivo, por lo que no están argumentando que la IA es mejor que su médico para elegir una prueba de imagen, pero puede ser un complemento excelente para optimizar el tiempo de un médico en tareas no interpretativas”, afirmó. De esta manera la integración de la IA en la toma de decisiones médicas podría ser útil en la atención primaria, sobre todo si se ajusta a ChatGPT con diferentes conjuntos de datos y conocimientos terapéuticos y grupos de pacientes específicos. “En Mass General Brigham, contamos con centros especializados de excelencia donde atendemos a pacientes con algunas de las enfermedades más raras y complejas. Podemos aprovechar nuestra experiencia y las lecciones aprendidas de la atención de estos casos de pacientes para capacitar a un modelo que brinde apoyo a las enfermedades raras”, agregó. No obstante, antes de que cualquier IA pueda tomarse siquiera como una opción real para la toma de decisiones médicas, debe ser sometido exhaustivamente a pruebas de sesgo, de privacidad y aprobarse para su uso en entornos y ecosistemas médicos. De igual forma deben tener en cuenta las regulaciones existentes sobre la IA médica y su interacción con los pacientes. Puedes consultar el estudio completo en el siguiente enlace: https://www.jacr.org/article/S1546-1440(23)00394-0/fulltext BIBLIOGRAFÍA MASS GENERAL BRIGHAM  https://www.massgeneralbrigham.org/en/about/newsroom/press-releases/mass-general-brigham-study-finds-chatgpt-4-excels-at-picking-the-right-imaging-tests

Leer completo »
big data

Investigadores comparan resúmenes de artículos generados por ChatGPT con resúmenes reales

Investigadores analizaron la capacidad de ChatGPT para generar resúmenes de artículos científicos basándose en el título y nombre de la revista Los modelos de lenguaje basados en inteligencia artificial (IA), como ChatGPT son capaces de producir textos complejos y precisos sobre casi cualquier tema, sin embargo, también pueden generar información imprecisa o falsa en cuestión de segundos. Un grupo de investigadores publicó un artículo recientemente en el que recopilan 50 resúmenes de investigación o abstract de artículos publicados en cinco revistas médicas de alto impacto. Además, le pidieron a ChatGPT generar resúmenes de investigación basados solamente en los títulos de los artículos y en la revista donde fueron publicados. “Los modelos de lenguaje extenso (LLM) a menudo son modelos de transformadores complejos basados ​​en redes neuronales que pueden generar texto definido por tono y contenido”, explican los autores. Los LLM están entrenados en enormes cantidades de datos por lo que son capaces de producir textos bien estructurados que se leen de forma natural. Como mencionan los autores, “ChatGPT se basa en Generative Pre-trained Transformer-3 (GPT-3), que es uno de los modelos más grandes de este tipo, entrenado con 175,000 millones de parámetros”. Este tipo de modelos genera resultados coherentes que pueden ser difíciles de distinguir de textos escritos por humanos. Durante el ejercicio de generación de resúmenes, a pesar de que todos tenían un formato superficial de resumen científico, solamente ocho, es decir el 16% utilizaron correctamente los encabezados de cada revista en su mensaje. Es decir, los estilos de párrafo de cada revista, y otros aspectos del formato de texto como el número de palabras. Los resúmenes originales fueron sometidos a una detección de plagio y verificación de similitudes, y obtuvieron puntaciones más altas que los resúmenes generados.  Asimismo, a los revisores humanos cegados se les proporcionaron resúmenes generados y originales y lograron identificar 68% de los resúmenes generados como generados y el 86% de los resúmenes originales como originales. “Nuestros revisores comentaron que los resúmenes que pensaban que ChatGPT había generado eran superficiales y vagos, y en ocasiones se centraban en los detalles de los resúmenes originales, como la inclusión de los números de registro de ensayos clínicos y la ortografía alternativa de las palabras”, detallaron los autores. Los revisores incluso clasificaron erróneamente una parte de los resúmenes reales como generados. Además, cabe mencionar que los resúmenes generados contenían números fabricados, sin embargo, estos tenían un tango similar al de los resúmenes reales. Los autores aceptan las limitaciones del estudio debido al pequeño tamaño de muestra y pocos revisores, además reconocen que ChatGPT es muy sensible a las indicaciones que recibe, por lo que solo tomaron el primer resultado proporcionado, sin realizar otras generaciones que podrían haber mejorado su credibilidad. Finalmente, los autores anticipan que esta tecnología podría usarse tanto de manera ética como no ética. Y aunque el texto generado puede ayudar a aliviar la carga de escritura para los investigadores, es necesario que este sea editado por un científico y se someta a una revisión cuidadosa. O bien los LLM pueden ser utilizado para generar resúmenes en idiomas distintas al de los investigadores originales. Conoce más consultando el artículo completo: https://www.nature.com/articles/s41746-023-00819-6 BIBLIOGRAFÍA NATURE https://www.nature.com/articles/s41746-023-00819-6

Leer completo »
big data

ChatGPT no logra aprobar examen del Colegio Estadounidense de Gastroenterología

Investigadores pusieron a prueba los modelos de IA generativa ChatGPT-3 y ChatGPT-4 ante exámenes del Colegio Estadounidense de Gastroenterología. Durante este año ha incrementado considerablemente la popularidad y el uso de herramientas basadas en inteligencia artificial (IA), la mayoría para la generación de texto o imágenes. Herramientas de IA generativa y conversacional como Bard y ChatGPT han sido aprovechadas para ser utilizadas con fines educativos en diversas disciplinas. Recientemente un estudio publicado en American Journal of Gastroenterology (AJG), puso a prueba a los modelos de IA generativa GPT-3 y GPT-4 al aplicarles los exámenes de opción múltiple 2021 y 2022 del Colegio Estadounidense de Gastroenterología (ACG, en inglés). El objetivo de este estudio fue probar el potencial educativo de esta clase de modelos, específicamente en la educación médica. “Recientemente se ha prestado mucha atención al ChatGPT y al uso de la IA en diversos sectores. Cuando se trata de la educación médica, hay una falta de investigación en torno a esta herramienta innovadora potencial”, explicó el Dr. Arvind Trindade autor principal del estudio. Ambos modelos de procesamiento de lenguaje natural fueron puestos a prueba y las mismas preguntas del examen fueron ingresadas de manera exacta. Para aprobar este examen es necesaria una calificación de 70% o superior. Tanto el examen 2021 como el 2022 consisten en 300 preguntas de opción múltiple. Para la prueba ambos modelos respondieron 455 preguntas ya que se excluyeron 145 preguntas debido a requerimientos de imagen. GPT-3 respondió correctamente 296 preguntas, un 65.1% y GPT-4 respondió 284 preguntas un 62.4%. Es decir, ambos resultados fueron insuficientes para aprobar ambos exámenes.  Los autores explican que la falta de comprensión de temas por parte de ChatGPT, la hace una herramienta poco fiable para la educación médica al menos en gastroenterología. “Sobre la base de nuestra investigación, ChatGPT no debe utilizarse para la educación médica en gastroenterología en este momento y tiene un camino por recorrer antes de que deba ser implementado en el campo de la salud”, menciono el Dr.  Trinidade. Además, el acceso limitado a revistas médicas de suscripción o artículos de pago, puede ser una de las razones por las que ChatGPT se nutre de fuentes dudosas o incluso obsoletas o no relevantes dentro de la comunidad médica, lo que deriva en la generación de información errónea. BIBLIOGRAFÍA HEALTH IT ANALYTICS https://healthitanalytics.com/news/chatgpt-fails-american-college-of-gastroenterology-assessment-tests AJG https://journals.lww.com/ajg/Abstract/9900/Chat_Generative_Pretrained_Transformer_Fails_the.751.aspx BUSINESS WIRE https://www.businesswire.com/news/home/20230522005470/en/ChatGPT-flunks-American-College-of-Gastroenterology-exams-Feinstein-Institutes-reportLorem fistrum por la gloria de mi madre esse jarl aliqua llevame al sircoo. De la pradera ullamco qué dise usteer está la cosa muy malar.

Leer completo »
Secured By miniOrange