La Ley de Inteligencia Artificial de la Unión Europea, que entrará en vigor el 1 de agosto de 2024, es una normativa pionera destinada a regular el uso de la inteligencia artificial (IA) en la región.
Este reglamento, aprobado por el Parlamento Europeo y el Consejo de la UE, establece un marco regulador exhaustivo que clasifica las aplicaciones de IA según su nivel de riesgo, con el objetivo de garantizar la seguridad y los derechos fundamentales de los ciudadanos europeos y fomentar la innovación en el sector
Clasificación de los sistemas de IA
La Ley de IA clasifica los sistemas de inteligencia artificial en tres categorías de riesgo.
Riesgo inaceptable. Incluye aplicaciones prohibidas que pueden causar daños significativos, como sistemas de puntuación social utilizados por gobiernos, manipulación cognitiva y vigilancia biométrica masiva. Estos sistemas están completamente vetados dentro de la UE.
Riesgo alto. Comprende sistemas que, aunque permitidos, deben cumplir estrictos requisitos de seguridad y transparencia. Ejemplos incluyen vehículos autónomos, dispositivos médicos y sistemas utilizados en infraestructuras críticas. Estos sistemas requieren una evaluación rigurosa de su impacto en derechos fundamentales y deben contar con supervisión humana
Riesgo limitado. Son aplicaciones que no presentan un riesgo significativo y, por lo tanto, están sujetas a menos regulaciones. Sin embargo, deben cumplir con ciertas obligaciones de transparencia, como informar a los usuarios de que están interactuando con una IA.
Principales objetivos de la Ley IA de la UE
La ley tiene dos objetivos fundamentales. Por un lado, el de garantizar la seguridad y los derechos de los ciudadanos y, por otro, el de fomentar de manera correcta la innovación y la inversión.
La Ley IA de la UE pretende que los sistemas de IA sean seguros y respeten los derechos fundamentales de las personas. Esto incluye la protección contra posibles abusos y la prevención de impactos negativos en la sociedad.
También, busca crear un entorno propicio para la investigación y el desarrollo de tecnologías de IA en Europa, impulsando la competitividad y el liderazgo tecnológico de la región.
¿Dónde se aplica y que se excluye?
La Ley de IA no se aplica a sistemas utilizados exclusivamente con fines militares, de defensa, o fuera del ámbito del Derecho de la UE. También quedan excluidos los sistemas empleados para investigación e innovación que no estén destinados al mercado
La normativa prevé la creación de la Oficina Europea de Inteligencia Artificial, encargada de supervisar y garantizar el cumplimiento de la ley. Esta oficina desarrollará herramientas y guías para ayudar a las empresas a entender sus obligaciones y a cumplir con los requisitos establecidos.
Aunque la Ley de IA ha sido bien recibida en general, algunos expertos han señalado posibles lagunas, como las disposiciones del artículo 6 que podrían permitir a ciertas empresas eludir los requisitos de alto riesgo declarando que sus sistemas no lo son.
Además, la necesidad de que los proveedores reconozcan el riesgo significativo de sus sistemas para que estos sean considerados de alto riesgo ha sido criticada por potencialmente crear inseguridad jurídica y fragmentación.
¿Por qué se ha llegado a esta necesidad?
La necesidad de una ley sobre IA surge de la creciente presencia y el impacto de estas tecnologías en múltiples aspectos de la vida cotidiana, la economía y la sociedad en general.
Garantizar la seguridad y los derechos de los ciudadanos es una de las razones primordiales para implementar una ley sobre IA. Los sistemas de inteligencia artificial, especialmente aquellos con alto riesgo, pueden tener impactos significativos en la privacidad, la seguridad y los derechos fundamentales de las personas. Por ejemplo, aplicaciones de IA en vigilancia masiva o en decisiones críticas como el crédito o el empleo pueden llevar a discriminación y violación de la privacidad.
La IA presenta una variedad de riesgos que deben ser gestionados adecuadamente. Esto incluye desde la manipulación cognitiva y la discriminación algorítmica hasta la seguridad de los sistemas autónomos. La ley busca identificar y mitigar estos riesgos, estableciendo controles y requisitos específicos para sistemas de alto riesgo, y prohibiendo aplicaciones consideradas inaceptables.
Una regulación clara y coherente también puede fomentar la innovación y la inversión en IA al proporcionar un marco de confianza tanto para los desarrolladores como para los usuarios. Esto ayuda a prevenir un enfoque desregulado que podría llevar a desarrollos peligrosos o irresponsables, al mismo tiempo que promueve un entorno competitivo y ético.
La Unión Europea, con esta ley, aspira a convertirse en un referente global en la regulación de la IA. Así como ocurrió con el Reglamento General de Protección de Datos (GDPR), que estableció un estándar mundial en privacidad, la Ley de IA de la UE puede influir en cómo otras jurisdicciones regulan estas tecnologías emergentes, estableciendo prácticas comunes y evitando un “carreras hacia el fondo” en términos de estándares regulatorios.