Estudio internacional muestra las actitudes y percepciones de los investigadores médicos sobre el uso de chatbots de IA en la investigación científica.
El uso de la inteligencia artificial (IA) en la investigación científica ha aumentado en los últimos años, especialmente con la aparición de chatbots que simulan conversaciones humanas. Estas herramientas tienen el potencial de optimizar procesos, pero también plantean desafíos éticos y de precisión. Un estudio publicado en The Lancet Digital Health evaluó las actitudes y percepciones de investigadores médicos sobre el uso de chatbots de IA en sus trabajos, explorando tanto beneficios como limitaciones.
Los chatbots de IA, como ChatGPT de OpenAI o Gemini de Google, están diseñados para simular conversaciones y pueden realizar tareas que van desde búsquedas de literatura hasta análisis de datos complejos. En la investigación médica, estos chatbots pueden reducir la carga administrativa, mejorar la precisión en la recopilación de datos y facilitar la redacción de artículos científicos, especialmente para aquellos que no son hablantes nativos del inglés. Sin embargo, su utilización también plantea cuestiones sobre la ética, la precisión y la transparencia.
Para entender las percepciones y actitudes de los investigadores médicos sobre los chatbots de IA en los procesos científicos, los autores del estudio realizaron una encuesta transversal internacional a gran escala. El objetivo fue investigar hasta qué punto los investigadores están familiarizados con los chatbots de IA, así como los beneficios y limitaciones percibidos sobre su uso en la investigación y los factores que podrían influir en su adopción.
Para este estudio, los autores realizaron encuestas a más de 2 mil investigadores médicos de todo el mundo y los resultados mostraron que el 60.5% de los encuestados estaban familiarizados con los chatbots de IA y casi la mitad los había usado en su trabajo. Sin embargo, a pesar del interés, sólo un 11.4% de los encuestados había recibido formación institucional sobre el uso de estas herramientas. La mayoría consideró que los chatbots son útiles para tareas administrativas, aunque persisten dudas sobre su capacidad para tomar decisiones complejas o generar contenido científico confiable.
Entre los principales desafíos identificados en el estudio se encuentran la precisión y la confiabilidad de los resultados generados por los chatbots. Existe preocupación sobre su capacidad para evitar la difusión de información errónea, así como sobre problemas éticos relacionados con el plagio, la amplificación de sesgos y la falta de transparencia en los procesos de generación de contenido. En este sentido, solamente el 9.9% de los investigadores indicó que dentro de su institución tenían políticas específicas sobre el uso de IA generativa y chatbots.
A pesar de los desafíos, la mayoría de los investigadores encuestados, el 69.7%, expresó interés en recibir capacitación adicional sobre el uso de chatbots de IA. Según explica el estudio, la adopción de este tipo de tecnologías dependerá en gran medida de la formación adecuada y de la claridad en las políticas de uso, así como del desarrollo de un enfoque ético y transparente en la aplicación de la IA en la ciencia médica.
Asimismo, el estudio es un ejemplo del interés creciente de los investigadores médicos en el uso de chatbots e IA generativa, aunque también resalta la necesidad de una mayor formación y regulación en su aplicación para una adopción correcta. Por ellos es fundamental que las instituciones académicas y científicas desarrollen políticas claras, marcos normativos y proporcionen formación adecuada para asegurar su uso ético y efectivo. La IA tiene el potencial de transformar la investigación médica, pero su integración debe manejarse con cuidado para evitar sesgos y asegurar resultados precisos y reproducibles.