{"id":68472,"date":"2026-03-30T10:01:49","date_gmt":"2026-03-30T16:01:49","guid":{"rendered":"https:\/\/saluddigital.com\/?p=68472"},"modified":"2026-03-30T10:05:21","modified_gmt":"2026-03-30T16:05:21","slug":"meta-presenta-tribe-v2-un-modelo-de-ia-que-aprende-a-leer-el-cerebro-humano","status":"publish","type":"post","link":"https:\/\/saluddigital.com\/en\/big-data\/meta-presenta-tribe-v2-un-modelo-de-ia-que-aprende-a-leer-el-cerebro-humano\/","title":{"rendered":"Meta presenta TRIBE v2, un modelo de IA que aprende a \u201cleer\u201d el cerebro humano"},"content":{"rendered":"<div data-elementor-type=\"wp-post\" data-elementor-id=\"68472\" class=\"elementor elementor-68472\" data-elementor-post-type=\"post\">\n\t\t\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-4472fe6d elementor-section-boxed elementor-section-height-default elementor-section-height-default wpr-particle-no wpr-jarallax-no wpr-parallax-no wpr-sticky-section-no\" data-id=\"4472fe6d\" data-element_type=\"section\" data-e-type=\"section\">\n\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-7c1ef2c5\" data-id=\"7c1ef2c5\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-2741e839 elementor-widget elementor-widget-heading\" data-id=\"2741e839\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"heading.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t<h2 class=\"elementor-heading-title elementor-size-default\">Un modelo trimodal desarrollado por investigadores de Meta es capaz de predecir la actividad cerebral con una precisi\u00f3n sin precedentes, abriendo una nueva era para la neurociencia.<\/h2>\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-68be6178 elementor-section-boxed elementor-section-height-default elementor-section-height-default wpr-particle-no wpr-jarallax-no wpr-parallax-no wpr-sticky-section-no\" data-id=\"68be6178\" data-element_type=\"section\" data-e-type=\"section\">\n\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-444d9562\" data-id=\"444d9562\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-598b24e elementor-widget elementor-widget-text-editor\" data-id=\"598b24e\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t<p>Un equipo de investigadores del laboratorio de inteligencia artificial de Meta (FAIR at Meta) public\u00f3 el 25 de marzo de 2026 un estudio que podr\u00eda transformar la manera en que la ciencia estudia el cerebro humano. El modelo se llama TRIBE v2 y es capaz de predecir, con notable precisi\u00f3n, c\u00f3mo responde el cerebro de una persona cuando ve una pel\u00edcula, escucha un podcast o lee un texto, todo ello sin necesidad de realizarle un nuevo experimento en el laboratorio. En t\u00e9rminos simples, <strong>se trata de una inteligencia artificial que ha aprendido a anticipar lo que el cerebro siente y procesa ante diferentes est\u00edmulos del mundo real<\/strong>. El estudio fue publicado en <a href=\"https:\/\/ai.meta.com\/research\/publications\/a-foundation-model-of-vision-audition-and-language-for-in-silico-neuroscience\/\"><em>ArXiv<\/em><\/a><em>.<\/em><\/p><p>Durante d\u00e9cadas, los neurocient\u00edficos han estudiado el cerebro de manera fragmentada: un equipo investigaba c\u00f3mo procesamos los rostros, otro c\u00f3mo entendemos el lenguaje, otro c\u00f3mo percibimos el movimiento. Cada grupo usaba sus propios experimentos, sus propios modelos, y sus propios datos. El resultado era una ciencia poderosa pero desarticulada, como un enorme rompecabezas al que le faltaba el marco.<\/p><p>TRIBE v2 propone una soluci\u00f3n a ese problema: un \u00fanico modelo de inteligencia artificial entrenado para predecir la actividad cerebral ante cualquier tipo de est\u00edmulo sensorial, ya sea visual, auditivo o ling\u00fc\u00edstico. Su nombre proviene de las tres modalidades que integra: video (video), audio (audio) e idioma (language, en ingl\u00e9s), de ah\u00ed las siglas TRI-B-E.<strong>\u00a0<\/strong><\/p><p>El modelo fue entrenado con m\u00e1s de mil horas de registros de resonancia magn\u00e9tica funcional (fMRI), una t\u00e9cnica que mide la actividad cerebral a trav\u00e9s de los cambios en el flujo sangu\u00edneo. Estos registros provienen de 720 personas distintas expuestas a pel\u00edculas, podcasts, videos y oraciones escritas en condiciones tanto naturales como experimentales de laboratorio.<\/p><p>Para hacer sus predicciones, TRIBE v2 combina tres modelos de inteligencia artificial previamente entrenados por separado: uno especializado en video (V-JEPA2, de Meta), uno en audio (Wav2Vec-Bert) y uno en lenguaje (Llama 3.2, tambi\u00e9n de Meta). Las representaciones de estos tres modelos se integran a trav\u00e9s de un sistema de tipo transformador, la arquitectura que tambi\u00e9n impulsa los modelos de lenguaje como ChatGPT, con m\u00e1s de mil millones de par\u00e1metros aprendibles. En t\u00e9rminos generales, el modelo \u201cdigiere\u201d lo que una persona ve, oye y lee, y a partir de eso calcula c\u00f3mo responder\u00eda su cerebro, regi\u00f3n por regi\u00f3n, con una resoluci\u00f3n que cubre toda la corteza cerebral.<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-21531b94 elementor-section-boxed elementor-section-height-default elementor-section-height-default wpr-particle-no wpr-jarallax-no wpr-parallax-no wpr-sticky-section-no\" data-id=\"21531b94\" data-element_type=\"section\" data-e-type=\"section\">\n\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-50 elementor-top-column elementor-element elementor-element-222c668f\" data-id=\"222c668f\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-4fc1e9ce elementor-widget elementor-widget-image\" data-id=\"4fc1e9ce\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"image.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<img fetchpriority=\"high\" decoding=\"async\" width=\"1200\" height=\"630\" src=\"https:\/\/saluddigital.com\/wp-content\/uploads\/2026\/03\/03-26-41.jpg\" class=\"attachment-full size-full wp-image-68474\" alt=\"\" \/>\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t<div class=\"elementor-column elementor-col-50 elementor-top-column elementor-element elementor-element-fefcab\" data-id=\"fefcab\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-39b4b61b elementor-widget elementor-widget-text-editor\" data-id=\"39b4b61b\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t<p>Uno de los hallazgos m\u00e1s importantes del estudio es que TRIBE v2 puede predecir la respuesta promedio de un grupo de personas ante un est\u00edmulo nuevo mejor de lo que lo har\u00eda cualquier individuo del grupo por s\u00ed solo. Esto significa que, en muchos casos, el modelo podr\u00eda reemplazar o complementar costosos experimentos con participantes humanos.<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-24d0b2df elementor-section-boxed elementor-section-height-default elementor-section-height-default wpr-particle-no wpr-jarallax-no wpr-parallax-no wpr-sticky-section-no\" data-id=\"24d0b2df\" data-element_type=\"section\" data-e-type=\"section\">\n\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-4d4b6818\" data-id=\"4d4b6818\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-6774a3fd elementor-widget elementor-widget-text-editor\" data-id=\"6774a3fd\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t<p>El equipo demostr\u00f3 adem\u00e1s que el modelo es capaz de replicar, de forma virtual, d\u00e9cadas de resultados establecidos por la neurociencia experimental. Por ejemplo, sin haber sido entrenado espec\u00edficamente para ello, TRIBE v2 identific\u00f3 correctamente que el cerebro activa el \u00e1rea fusiforme al ver rostros, el \u00e1rea parahipocampal al ver lugares, y las regiones del lenguaje al escuchar oraciones. Experimentos que tardaron a\u00f1os en establecerse en laboratorios de todo el mundo, el modelo los reproduce en cuesti\u00f3n de minutos de forma computacional.<\/p><p>Otra capacidad notable es la de adaptarse a personas nuevas con una cantidad muy peque\u00f1a de datos. Con apenas una hora de registros cerebrales de un individuo desconocido, el modelo puede ajustarse para predecir sus respuestas espec\u00edficas con una precisi\u00f3n de dos a cuatro veces superior a la de los m\u00e9todos tradicionales.<\/p><p>M\u00e1s all\u00e1 de la predicci\u00f3n, TRIBE v2 tambi\u00e9n aporta nueva informaci\u00f3n sobre c\u00f3mo el cerebro humano combina lo que ve, oye y lee. Los investigadores encontraron que cada modalidad sensorial domina distintas regiones: el audio predomina cerca de la corteza auditiva, el video domina en las regiones visuales occipitales y parietales, y el lenguaje domina en las \u00e1reas de procesamiento sem\u00e1ntico y grandes partes del l\u00f3bulo prefrontal.<\/p><p>Las mayores ganancias al combinar las tres modalidades se observaron en la uni\u00f3n temporo-parieto-occipital, una regi\u00f3n conocida por su papel en la integraci\u00f3n multisensorial, con incrementos de hasta un 50% en la precisi\u00f3n de las predicciones. Esto confirma de manera computacional algo que los neurocient\u00edficos sospechaban: que el cerebro no procesa los sentidos por separado, sino que los fusiona activamente para construir una representaci\u00f3n coherente del mundo.<\/p><p>Los propios autores reconocen que TRIBE v2 tiene fronteras importantes. La resonancia magn\u00e9tica funcional, por su naturaleza, no puede capturar los eventos que ocurren en milisegundos en el cerebro, por lo que el modelo opera con una resoluci\u00f3n temporal limitada. Adem\u00e1s, el modelo trata al cerebro como un observador pasivo de est\u00edmulos externos y no incorpora a\u00fan la dimensi\u00f3n activa del comportamiento humano: decisiones, movimientos, emociones complejas o interacciones sociales en tiempo real.<\/p><p>El modelo tampoco incluye modalidades sensoriales como el olfato, el tacto o el equilibrio, y fue desarrollado principalmente con participantes adultos y sanos, lo que limita su aplicabilidad directa a poblaciones cl\u00ednicas, infantiles o de diversas condiciones neurol\u00f3gicas. Los investigadores se\u00f1alan que integrar estas dimensiones es una de sus principales metas a futuro.<\/p><p>Otro aspecto relevante es que <a href=\"https:\/\/ai.meta.com\/blog\/tribe-v2-brain-predictive-foundation-model\/\">Meta ha publicado de forma abierta<\/a> tanto el c\u00f3digo como los pesos del modelo, accesibles a trav\u00e9s de GitHub y Hugging Face respectivamente. Tambi\u00e9n existe una demostraci\u00f3n interactiva en l\u00ednea donde cualquier persona puede explorar c\u00f3mo el modelo predice la actividad cerebral ante diferentes est\u00edmulos visuales y auditivos.<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-4790b1f0 elementor-section-boxed elementor-section-height-default elementor-section-height-default wpr-particle-no wpr-jarallax-no wpr-parallax-no wpr-sticky-section-no\" data-id=\"4790b1f0\" data-element_type=\"section\" data-e-type=\"section\">\n\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-4f0112ce\" data-id=\"4f0112ce\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-4d1dc1a0 elementor-widget elementor-widget-toggle\" data-id=\"4d1dc1a0\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"toggle.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t<div class=\"elementor-toggle\">\n\t\t\t\t\t\t\t<div class=\"elementor-toggle-item\">\n\t\t\t\t\t<div id=\"elementor-tab-title-1291\" class=\"elementor-tab-title\" data-tab=\"1\" role=\"button\" aria-controls=\"elementor-tab-content-1291\" aria-expanded=\"false\">\n\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon elementor-toggle-icon-left\" aria-hidden=\"true\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-closed\"><i class=\"fas fa-caret-right\"><\/i><\/span>\n\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-opened\"><i class=\"elementor-toggle-icon-opened fas fa-caret-up\"><\/i><\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t\t<\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t<a class=\"elementor-toggle-title\" tabindex=\"0\"> BIBLIOGRAPHY<\/a>\n\t\t\t\t\t<\/div>\n\n\t\t\t\t\t<div id=\"elementor-tab-content-1291\" class=\"elementor-tab-content elementor-clearfix\" data-tab=\"1\" role=\"region\" aria-labelledby=\"elementor-tab-title-1291\"><p><strong>META<\/strong><\/p><p><a href=\"https:\/\/ai.meta.com\/blog\/tribe-v2-brain-predictive-foundation-model\/\">https:\/\/ai.meta.com\/blog\/tribe-v2-brain-predictive-foundation-model\/<\/a><\/p><p><a href=\"https:\/\/ai.meta.com\/research\/publications\/a-foundation-model-of-vision-audition-and-language-for-in-silico-neuroscience\/\">https:\/\/ai.meta.com\/research\/publications\/a-foundation-model-of-vision-audition-and-language-for-in-silico-neuroscience\/<\/a><\/p><p><a href=\"https:\/\/scontent.fcyw4-1.fna.fbcdn.net\/v\/t39.2365-6\/657045057_4517522795185706_3804826277082824742_n.pdf?_nc_cat=107&amp;ccb=1-7&amp;_nc_sid=3c67a6&amp;_nc_ohc=EuCY89GgEVoQ7kNvwF8yeqO&amp;_nc_oc=AdrefY5HSFtqCWri2lF53WJUCWkeINubtHjM9WC49YTIrFuF5BGoj0W1KEWkEFeREyfrC3o0qAXl5AyKaAVZY6jn&amp;_nc_zt=14&amp;_nc_ht=scontent.fcyw4-1.fna&amp;_nc_gid=fa2pK9woe-8uF7XYMRv_Dw&amp;_nc_ss=7a30f&amp;oh=00_AfzeirlJtt_ohCoU7ZKkP6E2ruEC6umfiDhAXAI7ydOTzg&amp;oe=69CE93B2\">https:\/\/scontent.fcyw4-1.fna.fbcdn.net\/v\/t39.2365-6\/657045057_4517522795185706_3804826277082824742_n.pdf?_nc_cat=107&amp;ccb=1-7&amp;_nc_sid=3c67a6&amp;_nc_ohc=EuCY89GgEVoQ7kNvwF8yeqO&amp;_nc_oc=AdrefY5HSFtqCWri2lF53WJUCWkeINubtHjM9WC49YTIrFuF5BGoj0W1KEWkEFeREyfrC3o0qAXl5AyKaAVZY6jn&amp;_nc_zt=14&amp;_nc_ht=scontent.fcyw4-1.fna&amp;_nc_gid=fa2pK9woe-8uF7XYMRv_Dw&amp;_nc_ss=7a30f&amp;oh=00_AfzeirlJtt_ohCoU7ZKkP6E2ruEC6umfiDhAXAI7ydOTzg&amp;oe=69CE93B2<\/a><\/p><\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t<\/div>","protected":false},"excerpt":{"rendered":"<p>Meta presenta TRIBE v2, un modelo de IA que aprende a \u201cleer\u201d el cerebro humano; es capaz de predecir a actividad cerebral con una precisi\u00f3n sin precedentes.<\/p>","protected":false},"author":1,"featured_media":68474,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[156,160],"tags":[145],"class_list":["post-68472","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-big-data","category-noticias","tag-noticias"],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/posts\/68472","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/comments?post=68472"}],"version-history":[{"count":4,"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/posts\/68472\/revisions"}],"predecessor-version":[{"id":68479,"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/posts\/68472\/revisions\/68479"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/media\/68474"}],"wp:attachment":[{"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/media?parent=68472"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/categories?post=68472"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/tags?post=68472"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}