Estudios recientes evalúan la eficiencia y seguridad en la respuesta a mensajes de pacientes con ayuda de IA.
El incremento de las responsabilidades administrativas, incrementado por los sistemas de registros médicos electrónicos (EHR, en inglés), ha desviado la atención de los médicos de la atención directa al paciente, promoviendo el agotamiento profesional. En respuesta, los grandes modelos de lenguaje (LLM, en inglés), como los desarrollados por OpenAI, están siendo adoptados para agilizar las tareas clínicas y administrativas. Un comentario reciente publicado en The Lancet Digital Health examina el impacto del uso de estos modelos en la respuesta a mensajes de pacientes a través de portales en línea.
Un estudio, realizado en el Hospital Brigham and Women’s en Boston, se centró en la utilización del modelo GPT-4 de OpenAI, para asistir en la redacción de respuestas a mensajes de pacientes oncológicos. Los investigadores evaluaron la eficiencia subjetiva, las recomendaciones clínicas y los posibles daños de las respuestas generadas por inteligencia artificial (IA) en comparación con las respuestas manuales de los médicos.
Se llevó a cabo un estudio observacional en dos etapas durante 2023. En la primera etapa, seis oncólogos respondieron manualmente a los mensajes de los pacientes. En la segunda, los mismos oncólogos editaron las respuestas generadas por GPT-4 para asegurarse de que fueran clínicamente adecuadas.
Los resultados mostraron que las respuestas generadas por IA (169 palabras de promedio) eran más largas y detalladas que las respuestas manuales (34 palabras de promedio). Sin embargo, en el 7.1% de los casos, las respuestas de IA presentaron riesgos de daño grave, y en el 0.6% de los casos, incluso riesgo de muerte. La mayoría de estos riesgos se debieron a una incorrecta evaluación o comunicación de la gravedad de la situación clínica.
Pese a estos riesgos, los médicos encontraron que el uso de IA mejoró la eficiencia subjetiva en el 76.9% de los casos y aumentó la consistencia entre las respuestas de diferentes médicos. Sin embargo, se destacó que los médicos podrían estar adoptando las evaluaciones de la IA en lugar de simplemente utilizarlas para mejorar la comunicación de sus propias evaluaciones, lo cual plantea preguntas sobre la influencia de la IA en la toma de decisiones clínicas.
El uso de LLM como GPT-4 tiene el potencial de reducir la carga de trabajo de los médicos y mejorar la consistencia y calidad de las respuestas a los pacientes. Sin embargo, el estudio también subraya la necesidad de una evaluación rigurosa y continua de estos sistemas para garantizar que no introduzcan riesgos inadvertidos en la atención al paciente. Es esencial equilibrar el potencial innovador de estas tecnologías con un compromiso firme con la seguridad y calidad del cuidado médico.
De esta manera, la adopción de IA en la práctica clínica, como mencionan diversos autores y la academia en general, debe ser cuidadosa y estar respaldada por evaluaciones continuas y transparentes para evitar consecuencias negativas y asegurar que la tecnología se utilice como complemento del juicio clínico experto y no como sustituto.