El NIST presentó un borrador sobre los lineamientos para evaluar las técnicas de protección de la privacidad en la era de la inteligencia artificial.
El Instituto Nacional de Estándares y Tecnología (NIST, en inglés), es una agencia del gobierno de Estados Unidos, encargada de desarrollar y promover estándares, mediciones y tecnologías para mejorar la seguridad y la eficiencia de la información, soluciones tecnológicas y las industrias.
El NIST planea una situación hipotética en la que una empresa que fabrica wearables que monitorean la actividad física, ha construido una gran base de datos de salud de sus clientes, de esta forma investigadores ven útil el aprovechamiento de dichos datos para generar investigaciones clínicas para mejorar diagnósticos de enfermedades. Sin embargo, la empresa no puede compartir información privada y confidencial, pero le gustaría formar parte de la investigación.
De esta manera, el NIST busca promover la investigación basada en información útil y precisa sin descuidar la privacidad individual. De esta forma, la agencia ofrece orientación sobre el uso de un tipo de algoritmo matemático llamado privacidad diferencial. La aplicación de la privacidad diferencial, sugiere que los datos se divulguen públicamente sin revelar a las personas que forman parte del conjunto de datos.
Este concepto es una de las soluciones tecnológicas que mayor madurez tienen para mejorar la privacidad en el análisis de datos. No obstante, es necesario contar con suficientes estándares para facilitar su uso eficaz y eliminar barreras para los usuarios. La privacidad diferencial promete que la probabilidad de un resultado es la misma tanto si los usuarios aportan sus datos como si no lo hace.
El NIST toma en cuenta los términos de la Orden Ejecutiva de inteligencia artificial (IA) firmada por el presidente Joe Biden para avanzar en la investigación y mejorar la privacidad. En el documento, Directrices para evaluar garantías de privacidad diferenciales, el NIST plantea una herramienta para ayudar a desarrolladores de software, propietarios de empresas, investigadores, académicos, formuladores de políticas públicas, y otros actores de la industria tecnológica.
“Se puede utilizar la privacidad diferencial para publicar análisis de datos y tendencias sin poder identificar a ningún individuo dentro del conjunto de datos”, explicó Naomi Lefkovitz, gerente del Programa de Ingeniería de Privacidad del NIST y una de las editoras de la publicación. Sin embargo, destaca que tecnología de privacidad diferencial aún está madurando y existen riesgos que se deben tener en cuenta. “Queremos que esta publicación ayude a las organizaciones a evaluar productos de privacidad diferenciales y tener una mejor idea de si las afirmaciones de sus creadores son precisas”.
La publicación está ideada también para agencias federales, sin esta de sus propósitos es que este tema técnico sea comprensible para la población sin este tipo de conocimientos. “Mostramos las matemáticas involucradas, pero estamos tratando de concentrarnos en hacer que el documento sea accesible”, añadió. “No queremos que tengas que ser un experto en matemáticas para utilizar la privacidad diferencial de forma eficaz”, agregó Lefkovitz.
La publicación se encuentra en un periodo de 45 días de comentarios públicos el cual finalizará el 25 de enero de 2024. Más adelante en el año se publicará la versión final de estos lineamientos o directrices.