Modelos de lenguaje generan hipótesis científicas validadas en laboratorio para el tratamiento del cáncer de mama.
Un estudio pionero publicado en Journal of the Royal Society Interface demuestra que los grandes modelos de lenguaje (LLMs, en inglés), como GPT-4, pueden generar hipótesis científicas novedosas y viables en el campo de la oncología. La investigación, centrada en el cáncer de mama, validó experimentalmente combinaciones de fármacos propuestas por inteligencia artificial (AI) ofreciendo sinergias contra células tumorales.
El equipo, liderado por investigadores de la Universidad de Cambridge y colaboradores internacionales, utilizó el modelo GPT-4 de OpenAI para proponer pares de fármacos no oncológicos aprobados por la Administración de Alimentos y Medicamentos (FDA, en inglés) que pudieran actuar de manera sinérgica contra la línea celular MCF7 (cáncer de mama), minimizando el daño a células sanas (MCF10A). En la primera iteración, de 12 combinaciones generadas por AI, tres superaron en sinergia a los controles positivos, por ejemplo los fármacos itraconazol + atenolol y simvastatina (fármaco para tratar el colesterol) + disulfiram (tratamiento contra el alcoholismo).
Tras incorporar estos resultados en un segundo ciclo, GPT-4 propuso cuatro nuevas combinaciones, de las cuales tres mostraron efectos sinérgicos, incluida la pareja disulfiram + fulvestrant, con potencial terapéutico específico para células cancerosas. Los experimentos, realizados con robótica de laboratorio, confirmaron que estas combinaciones atacaban selectivamente las células tumorales.
“Los LLMs supervisados ofrecen una capa escalable e imaginativa de exploración científica, y pueden ayudarnos como científicos humanos a explorar nuevos caminos en los que no habíamos pensado antes”, detalló el afirma el profesor Ross King, del Departamento de Ingeniería Química y Biotecnología de Cambridge, que dirigió la investigación. “Esto puede ser útil en áreas como el descubrimiento de fármacos, donde hay muchos miles de compuestos en los que buscar”.

Aunque los LLMs, destacaron por explorar espacios de hipótesis inusuales, evitando sesgos humanos y lograron acelerar el descubrimiento de combinaciones, reduciendo costos no solo financieros sino intelectuales, los autores reconocieron en el estudio las limitaciones de esta herramienta, por ejemplo:
- Errores biológicos en algunas justificaciones de GPT-4, por ejemplo, mecanismos de acción incorrectos
- Inconsistencias al repetir consultas, como “olvidar” combinaciones previas
“La capacidad de los LLM supervisados para proponer hipótesis entre disciplinas, incorporar resultados previos y colaborar entre iteraciones marca una nueva frontera en la investigación científica” afirma King. “Un “científico de AI” ya no es una metáfora sin validación experimental: ahora puede ser un colaborador en el proceso científico”.
Este trabajo sugiere que los LLMs pueden ser “colegas” virtuales en la ciencia, complementando la creatividad humana con su capacidad para procesar grandes cantidades de datos. Los autores proponen integrar bases de datos especializadas en literatura médica, como por ejemplo lo hace OpenEvidence, para mejorar la precisión de las hipótesis.