Filter by input type
Filter by category
La Unión Europea avanza en regulación de inteligencia artificial 

La Unión Europea plantea adoptar el primer conjunto integral de leyes a nivel mundial que regulan la AI.

El avance acelerado de las tecnologías basadas en inteligencia artificial hace evidente la necesidad de regulaciones de esta tecnología en el mundo. La Unión Europea (UE), inició su proyecto de ley para regular la AI desde 2021 y así es cómo ha avanzado hasta 2024.

En abril de 2021, la Comisión Europea publicó una propuesta para la regulación de la AI en la UE. En agosto del mismo año, el periodo de consulta pública sobre la Ley de AI recibió 304 propuestas. En este sentido, a finales de noviembre de 2021, la presidencia del Consejo de la UE compartió un texto sobre los compromisos del proyecto de Ley de AI, reconociendo aspectos importantes como el reconocimiento biométrico y las aplicaciones de alto riesgo.

Desde entonces la Comisión de Asuntos Jurídicos del Parlamento Europeo, la Comisión de Industria, Investigación y Energía, la Presidencia francesa del Consejo y otros actores importantes han publicado sus enmiendas a la Ley de AI. Asimismo, se han realizado diversos debates con los gobiernos para conocer las principales propiedades de la Ley de AI para cada uno de los 27 Estados miembros.

En diciembre de 2023, el Parlamento y el consejo alcanzaron un acuerdo provisional sobre la Ley de AI. Finalmente, el 21 de enero de 2024, miembros de Parlamento compartieron de manera pública el borrador más reciente de la ley. El 2 de febrero, los países aprobaron la ley, sin embargo, aún es necesaria la aprobación final del Parlamento, lo cual podría ocurrir en abril. No obstante, la ley entraría en vigor hasta 2026.

En términos generales la ley clasifica la AI de acuerdo a su riesgo, por lo que se abordan temas de obligaciones de transparencia para desarrolladores e implementadores. La mayor parte de las obligaciones son para los proveedores de sistemas de AI de alto riesgo. Asimismo, la AI de propósitos generales deben proveer documentación técnica, instrucciones de uso, directrices de copyright, y un resumen sobre el contenido utilizado para su entrenamiento.

¿Qué dicen los expertos?

Recientemente la revista Nature publicó un artículo en el cual se explora la Ley de AI de la UE y cómo puede incidir en la investigación. Especialistas explican que el enfoque de la UE se basa en regular los modelos en función de su riesgo potencial, lo que sugiere reglas más estrictas para las aplicaciones de mayor riesgo.

Además, la ley prohíbe los sistemas de AI que significan un riesgo inaceptable, es decir aquellos que utilizan datos biométricos para inferir características sensibles, por ejemplo, la orientación sexual de las personas. Además, la ley también incluye castigos a cualquier empresa que viole las reglas establecidas por la ley, y se esperan castigos de hasta el 7% de sus ganancias globales anuales.

Uno de los puntos más importantes y beneficiosos para los investigadores, es que el Parlamento añadió una cláusula que eximiría a los modelos de AI desarrollados para investigación, desarrollo o creación de prototipos. Es decir, que la ley busca garantizar que la ley no impacte de manera negativa a la producción científica ni a la innovación tecnológica.

Sin embargo, modelos como GPT-4 de OpenAI, Gemini de Google o LLaMA de Meta son considerados de alto riesgo, debido a la gran cantidad de operaciones informáticas utilizadas para su entrenamiento, para realizar una evaluación de riesgos, la Comisión Europea creará una oficina especializada en AI, que además recibirá asesorías de expertos independientes para continuar por el camino de la transparencia.

Related Content

Secured By miniOrange