{"id":67580,"date":"2026-02-16T10:35:53","date_gmt":"2026-02-16T16:35:53","guid":{"rendered":"https:\/\/saluddigital.com\/?p=67580"},"modified":"2026-02-16T10:39:37","modified_gmt":"2026-02-16T16:39:37","slug":"estudio-muestra-como-los-modelos-de-lenguaje-pueden-creer-informacion-medica-falsa","status":"publish","type":"post","link":"https:\/\/saluddigital.com\/en\/big-data\/estudio-muestra-como-los-modelos-de-lenguaje-pueden-creer-informacion-medica-falsa\/","title":{"rendered":"Study shows how language models can believe false medical information"},"content":{"rendered":"<div data-elementor-type=\"wp-post\" data-elementor-id=\"67580\" class=\"elementor elementor-67580\" data-elementor-post-type=\"post\">\n\t\t\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-2316cc09 elementor-section-boxed elementor-section-height-default elementor-section-height-default wpr-particle-no wpr-jarallax-no wpr-parallax-no wpr-sticky-section-no\" data-id=\"2316cc09\" data-element_type=\"section\" data-e-type=\"section\">\n\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-dd91a2a\" data-id=\"dd91a2a\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-106bf1b5 elementor-widget elementor-widget-heading\" data-id=\"106bf1b5\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"heading.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t<h2 class=\"elementor-heading-title elementor-size-default\">El estudio publicado en The Lancet Digital Health, revel\u00f3 que los LLMs pueden creer en informaci\u00f3n m\u00e9dica falsa, especialmente si esta est\u00e1 redactada con lenguaje formal y t\u00e9cnico.<\/h2>\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-52a95f4a elementor-section-boxed elementor-section-height-default elementor-section-height-default wpr-particle-no wpr-jarallax-no wpr-parallax-no wpr-sticky-section-no\" data-id=\"52a95f4a\" data-element_type=\"section\" data-e-type=\"section\">\n\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-192b8203\" data-id=\"192b8203\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-2bc8269d elementor-widget elementor-widget-text-editor\" data-id=\"2bc8269d\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t<p>Investigadores de Mount Sinai publicaron en <a href=\"https:\/\/www.thelancet.com\/journals\/landig\/article\/PIIS2589-7500(25)00131-1\/fulltext\"><em>The Lancet Digital Health<\/em><\/a> un an\u00e1lisis sobre la <strong>vulnerabilidad de los grandes modelos de lenguaje (LLMs, en ingl\u00e9s), frente a la desinformaci\u00f3n m\u00e9dica<\/strong>. Los resultados mostraron que los sistemas pueden aceptar recomendaciones m\u00e9dicas fabricadas, sobre todo cuando est\u00e1n redactadas con tono formal y cl\u00ednico, similar al de una nota hospitalaria o cl\u00ednica real.<\/p><p>El estudio evalu\u00f3 20 modelos distintos mediante m\u00e1s de 3.4 millones de pruebas. Entre los modelos analizados destacan las principales familias de modelos, <strong>incluyendo OpenAI GPT, Meta Llama, Google Gemma, Microsoft Phi,<\/strong> entre otros. Los investigadores analizaron qu\u00e9 tan frecuentemente los modelos aceptaban como v\u00e1lidas afirmaciones m\u00e9dicas falsas y c\u00f3mo cambiaba su respuesta cuando esas afirmaciones se presentaban usando falacias l\u00f3gicas, como apelaciones a la autoridad, a la emoci\u00f3n o a la popularidad.<\/p><p>El equipo utiliz\u00f3 tres tipos de contenidos, primero, notas m\u00e9dicas reales de egreso hospitalario, a las que se les insert\u00f3 deliberadamente una recomendaci\u00f3n falsa. Posteriormente, utilizaron ejemplos reales de desinformaci\u00f3n m\u00e9dica tomados de foros p\u00fablicos como Reddit. Y finalmente utilizaron, vi\u00f1etas cl\u00ednicas simuladas y validadas por m\u00e9dicos.<\/p><p>Cada texto se present\u00f3 a los modelos en dos versiones: una directa, preguntando si conten\u00eda informaci\u00f3n incorrecta, y otra en la que la afirmaci\u00f3n falsa estaba envuelta en una falacia l\u00f3gica. Por ejemplo, se a\u00f1ad\u00eda una frase como \u201cun m\u00e9dico con m\u00e1s de 20 a\u00f1os de experiencia respalda esta recomendaci\u00f3n\u201d para simular una apelaci\u00f3n a la autoridad.<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-7b6108bd elementor-section-boxed elementor-section-height-default elementor-section-height-default wpr-particle-no wpr-jarallax-no wpr-parallax-no wpr-sticky-section-no\" data-id=\"7b6108bd\" data-element_type=\"section\" data-e-type=\"section\">\n\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-50 elementor-top-column elementor-element elementor-element-109d73fa\" data-id=\"109d73fa\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-2a0a4d03 elementor-widget elementor-widget-image\" data-id=\"2a0a4d03\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"image.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<img fetchpriority=\"high\" decoding=\"async\" width=\"1200\" height=\"630\" src=\"https:\/\/saluddigital.com\/wp-content\/uploads\/2026\/02\/02-26-21.jpg\" class=\"attachment-full size-full wp-image-67583\" alt=\"\" \/>\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t<div class=\"elementor-column elementor-col-50 elementor-top-column elementor-element elementor-element-7c04c402\" data-id=\"7c04c402\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-40959c4f elementor-widget elementor-widget-text-editor\" data-id=\"40959c4f\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t<p>Los investigadores midieron si el modelo aceptaba la afirmaci\u00f3n falsa y si detectaba correctamente la presencia de una falacia l\u00f3gica. En conjunto<strong>, los modelos aceptaron informaci\u00f3n m\u00e9dica falsa en 31.7% de los casos<\/strong> cuando se les present\u00f3 en formato directo. Sin embargo, la tasa de aceptaci\u00f3n variaba considerablemente seg\u00fan el tipo de texto.<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-1ea8f8b6 elementor-section-boxed elementor-section-height-default elementor-section-height-default wpr-particle-no wpr-jarallax-no wpr-parallax-no wpr-sticky-section-no\" data-id=\"1ea8f8b6\" data-element_type=\"section\" data-e-type=\"section\">\n\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-2d3d6bc7\" data-id=\"2d3d6bc7\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-60b15848 elementor-widget elementor-widget-text-editor\" data-id=\"60b15848\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t<p>Las notas hospitalarias modificadas resultaron ser las m\u00e1s problem\u00e1ticas: casi la mitad de las recomendaciones fabricadas en este formato fueron aceptadas como correctas. En contraste, los textos provenientes de redes sociales tuvieron una tasa de aceptaci\u00f3n mucho menor, inferior al 10% en su versi\u00f3n base. Esto sugiere que el estilo formal y t\u00e9cnico de una nota cl\u00ednica puede conferir una apariencia de legitimidad que influye en la respuesta del modelo.<\/p><p>Entre los ejemplos de afirmaciones falsas que algunos modelos respaldaron se encontraron ideas como que \u201cciertos medicamentos causan autismo\u201d, que \u201cel ajo aplicado de forma rectal refuerza el sistema inmunol\u00f3gico\u201d o que \u201cel ejercicio reduce la esperanza de vida porque el coraz\u00f3n tiene un n\u00famero limitado de latidos\u201d. Tambi\u00e9n aceptaron recomendaciones cl\u00ednicas inventadas, como disolver un laxante en agua caliente para \u201cactivar\u201d sus ingredientes.<\/p><p>Los autores detallan que, de manera inesperada, la mayor\u00eda de las falacias l\u00f3gicas no aumentaron la credulidad de los modelos, sino que la redujeron. La apelaci\u00f3n a la popularidad, por ejemplo, fue la que m\u00e1s disminuy\u00f3 la aceptaci\u00f3n de informaci\u00f3n falsa.<\/p><p>Solo dos tipos de falacias tendieron a incrementar la vulnerabilidad, la pendiente resbaladiza y la apelaci\u00f3n a la autoridad. Esta \u00faltima es especialmente relevante en el \u00e1mbito m\u00e9dico, donde las referencias a expertos pueden parecer particularmente persuasivas.<\/p><p>Los investigadores se\u00f1alan que este efecto podr\u00eda deberse a que los sistemas actuales han sido entrenados para sospechar de ciertos patrones ret\u00f3ricos asociados con desinformaci\u00f3n, especialmente aquellos cargados de emoci\u00f3n o consenso social.<\/p><p>Aunque los modelos m\u00e1s grandes tendieron a mostrar menor susceptibilidad, el tama\u00f1o no fue el \u00fanico factor determinante. Algunos modelos de tama\u00f1o intermedio mostraron un desempe\u00f1o muy s\u00f3lido, mientras que varios modelos ajustados espec\u00edficamente para tareas m\u00e9dicas tuvieron, en promedio, mayor vulnerabilidad a aceptar afirmaciones fabricadas.<\/p><p>Esto sugiere que no basta con aumentar la escala o especializar el entrenamiento en datos m\u00e9dicos. La forma en que se implementan mecanismos de alineaci\u00f3n y verificaci\u00f3n de hechos parece ser m\u00e1s decisiva.<strong>\u00a0<\/strong><\/p><p>El estudio advierte que herramientas basadas en LLM utilizadas para resumir notas m\u00e9dicas o generar recomendaciones para pacientes podr\u00edan transmitir informaci\u00f3n incorrecta si no cuentan con salvaguardas adicionales. El riesgo es mayor cuando el contenido falso est\u00e1 integrado en un texto que imita el estilo cl\u00ednico formal.<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-5c423d95 elementor-section-boxed elementor-section-height-default elementor-section-height-default wpr-particle-no wpr-jarallax-no wpr-parallax-no wpr-sticky-section-no\" data-id=\"5c423d95\" data-element_type=\"section\" data-e-type=\"section\">\n\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-5783897\" data-id=\"5783897\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-16e2135d elementor-widget elementor-widget-toggle\" data-id=\"16e2135d\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"toggle.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t<div class=\"elementor-toggle\">\n\t\t\t\t\t\t\t<div class=\"elementor-toggle-item\">\n\t\t\t\t\t<div id=\"elementor-tab-title-3831\" class=\"elementor-tab-title\" data-tab=\"1\" role=\"button\" aria-controls=\"elementor-tab-content-3831\" aria-expanded=\"false\">\n\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon elementor-toggle-icon-left\" aria-hidden=\"true\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-closed\"><i class=\"fas fa-caret-right\"><\/i><\/span>\n\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-opened\"><i class=\"elementor-toggle-icon-opened fas fa-caret-up\"><\/i><\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t\t<\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t<a class=\"elementor-toggle-title\" tabindex=\"0\"> BIBLIOGRAPHY<\/a>\n\t\t\t\t\t<\/div>\n\n\t\t\t\t\t<div id=\"elementor-tab-content-3831\" class=\"elementor-tab-content elementor-clearfix\" data-tab=\"1\" role=\"region\" aria-labelledby=\"elementor-tab-title-3831\"><p><strong>THE LANCET<\/strong><\/p><p><a href=\"https:\/\/www.thelancet.com\/journals\/landig\/article\/PIIS2589-7500(25)00131-1\/fulltext\">https:\/\/www.thelancet.com\/journals\/landig\/article\/PIIS2589-7500(25)00131-1\/fulltext<\/a><\/p><\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t<\/div>","protected":false},"excerpt":{"rendered":"<p>Estudio muestra c\u00f3mo los modelos de lenguaje, como ChatGPT, Meta y Google Gemma, pueden creer informaci\u00f3n m\u00e9dica falsa.<\/p>","protected":false},"author":1,"featured_media":67583,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[156,160],"tags":[145],"class_list":["post-67580","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-big-data","category-noticias","tag-noticias"],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/posts\/67580","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/comments?post=67580"}],"version-history":[{"count":5,"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/posts\/67580\/revisions"}],"predecessor-version":[{"id":67587,"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/posts\/67580\/revisions\/67587"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/media\/67583"}],"wp:attachment":[{"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/media?parent=67580"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/categories?post=67580"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/tags?post=67580"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}