Filter by input type
Filter by category
Specialist warns of privacy risks when using AI for mental health support

Investigadora de la Universidad de Duke advierte sobre la necesidad de mayor protección y transparencia en el uso de chatbots para fines emocionales y psicológicos.

La creciente popularidad de herramientas de artificial intelligence (AI) para apoyo emocional plantea serias preocupaciones sobre la privacidad y seguridad de los usuarios, advirtió Pardis Emami-Naeini, profesora asistente de Ciencias de la Computación, Ingeniería Eléctrica e Informática y Políticas Públicas en la Universidad de Duke.

Como directora del laboratorio InSPIre Lab, Emami-Naeini lidera investigaciones sobre la interacción entre personas y sistemas de AI, enfocándose en cómo perciben los riesgos al compartir información sensible con estas tecnologías. Según explicó en una entrevista, los usuarios suelen confiar más de lo debido en estas herramientas, sin considerar la magnitud de datos que se recolectan y las posibles consecuencias de su uso indebido.

Uno de los hallazgos de su equipo, es que muchas personas creen erróneamente que las interacciones con chatbots generales como ChatGPT están protegidas por la Ley de Portabilidad y Responsabilidad de Seguros de Salud (HIPAA, en inglés), al igual que una consulta médica. Sin embargo, esos datos no cuentan con ese resguardo legal.

El estudio también reveló casos de usuarios en situación de violencia doméstica que optaron por usar chatbots de propósito general para evitar ser detectados por sus agresores. Sin embargo, esto los expone a que información sensible, como ansiedad, depresión o traumas, pueda ser inferida y utilizada en su contra, incluso por empleadores o terceros con acceso a los registros.

Ante este panorama, el equipo de Duke trabaja en el diseño de tecnologías de protección y herramientas de transparencia que permitan a los usuarios evaluar qué información comparten, en qué momento y bajo qué condiciones. La meta, según Emami-Naeini, es otorgar a las personas una “agencia informada” para tomar decisiones conscientes sobre su privacidad, sin perder los beneficios que los chatbots pueden brindar en situaciones de estrés o crisis emocional.

Aunque reconoce que los chatbots ofrecen apoyo valioso a quienes atraviesan dificultades, la investigadora enfatiza que aún falta regulación y educación del usuario para evitar riesgos. “No se trata de decir ‘no los usen’, sino de asegurar que existan mecanismos de protección y que las personas comprendan las implicaciones de compartir datos sensibles con sistemas de AI”, finalizó.

Outstanding news

Stay updated

News by country

Related Content

Secured By miniOrange