La UE, Estados Unidos y China, han comenzado a navegar por los desafíos de la IA y la necesidad de marcos regulatorios y de gobernanza.
La inteligencia artificial (IA) es una tecnología que se está desarrollando a un ritmo acelerado. Esta tecnología emergente tiene el potencial de transformar muchos aspectos en la ciencia, en los datos, en la atención médica, en la productividad, y múltiples aspectos de la vida diaria. Sin embargo, también plantea una serie de riesgos, como la discriminación y sesgos, la desinformación y la ética y la vigilancia alrededor de su uso.
En respuesta a estos riesgos, los gobiernos de todo el mundo están trabajando para desarrollar regulaciones en IA. Estos esfuerzos se centran en garantizar que la IA se desarrolle y se utilice de manera ética y responsable.
La Unión Europea (UE) es pionera en la regulación de la IA. En 2021, la Comisión Europea propuso un marco regulatorio para la IA, que se espera que entre en vigor en 2024. Este marco establece cuatro categorías de riesgo para los sistemas de IA, según su potencial de causar daño. Los sistemas de alto riesgo, como los que se utilizan en la toma de decisiones automatizadas, estarán sujetos a los requisitos más estrictos.
Estados Unidos también están trabajando en la regulación de la IA. En 2022, el Departamento de Comercio de los Estados Unidos publicó un conjunto de principios para el desarrollo y uso de la IA. Estos principios enfatizan la importancia de la transparencia, la rendición de cuentas y la protección de los derechos humanos. Asimismo, el Instituto Nacional de Estándares y Tecnología (NIST, en inglés), publicó en 2023 un borrador de los lineamientos sobre privacidad diferencial en la era de la IA.
Asimismo, en septiembre de 2022, la Oficina de Responsabilidad del Gobierno (GAO, en inglés) publicó un reporte sobre los beneficios y desafíos de las tecnologías de aprendizaje automático o machine learning en el diagnóstico médico y en la atención médica en general.
La GAO identificó los principales desafíos para el desarrollo y adopción de machine learning en el diagnóstico médico. En primer lugar, la necesidad de demostrar el rendimiento de estas tecnologías en el mundo real en diversos entornos clínicos y en estudios rigurosos. También resaltaron la importancia de satisfacer las necesidades clínicas, como el desarrollo de tecnologías que se integren en los flujos de trabajo clínicos. Y finalmente abordar las deficiencias normativas, por ejemplo, proporcionando orientaciones claras para el desarrollo de algoritmos.
Otros países, como China, Japón y Corea del Sur, también están desarrollando regulaciones en IA. Estos esfuerzos se centran en diferentes aspectos de la tecnología, como la seguridad, la privacidad y la ética.
Por ejemplo, China, en agosto de 2023, publicó sus nuevas regulaciones sobre IA. Los puntos clave incluyeron: nuevas Disposiciones Administrativas sobre la Recomendación de Algoritmos para los Servicios de Información de Internet; disposiciones sobre la gestión de la síntesis profunda en los servicios de información; disposiciones provisionales sobre la gestión de los servicios de IA generativa y la publicación de un reglamento sobre este tipo de IA; y medidas de prueba para la Revisión Ética de las Actividades Científicas y Tecnológicas.
Esto puntos clave detallan la creación de múltiples entidades y reglamentos encargadas de regular aspectos de la IA por ejemplo el Proyecto de Medida de Revisión Ética, la Regulación de la IA Generativa, Reglamento sobre Síntesis Profunda, y la Regulación de la Recomendación de Algoritmos.
En este sentido según especialistas las nuevas herramientas de gobernanza de IA adoptadas por China, las ubican como un ejemplo internacional no solo a nivel normativo, sino también competitivo.
¿Qué desafíos enfrentan las regulaciones en IA?
No obstante, el desarrollo de regulaciones en IA es un desafío complejo. Esta clase de tecnología evoluciona con una rapidez pocas veces vista, lo que hace que sea difícil identificar los riesgos potenciales. Además, las regulaciones deben ser equilibradas para permitir la innovación sin comprometer la seguridad y los derechos humanos.
Algunos de los desafíos específicos que enfrentan las regulaciones en IA incluyen las definiciones de IA, las aplicaciones de las regulaciones de manera indiscriminada o a sistemas específicos, cómo medir y evaluar los riesgos potenciales, y que medidas deben tomarse para mitigar estos riesgos, entre otros.