Este primer día de agosto se marca un hito importante en la regulación de la inteligencia artificial a nivel mundial, con la entrada en vigor de la Ley Europea de Inteligencia Artificial (Ley AI). Esta legislación, la primera de su tipo, establece un marco regulador integral para garantizar que la IA desarrollada y utilizada en la Unión Europea sea fiable y segura, protegiendo los derechos fundamentales de las personas y fomentando un mercado interno armonizado para la IA.
Objetivos y alcance de la Ley de IA
La Ley AI tiene como objetivo establecer un entorno propicio para la innovación y la inversión en tecnología de inteligencia artificial dentro de la UE. La normativa introduce una definición de IA con visión de futuro, basada en un enfoque de seguridad de productos y riesgos. Este enfoque clasifica los sistemas de IA en cuatro categorías: riesgo mínimo, riesgo específico de transparencia, alto riesgo y riesgo inaceptable.
Riesgo mínimo
Los sistemas de IA que presentan un riesgo mínimo, como los sistemas de recomendación habilitados por IA y los filtros de spam, no tienen obligaciones bajo la Ley AI debido a su baja amenaza a los derechos y la seguridad de los ciudadanos. Las empresas pueden adoptar códigos de conducta adicionales de manera voluntaria.
Riesgo específico de transparencia
Para los sistemas de IA que implican un riesgo específico de transparencia, como los chatbots, es obligatorio informar a los usuarios de que están interactuando con una máquina. Además, cualquier contenido generado por IA, incluidos los deep fakes, debe estar claramente etiquetado como tal. Los sistemas de categorización biométrica o de reconocimiento de emociones deben informar a los usuarios de su uso. Los proveedores también deben diseñar sistemas de manera que el contenido audiovisual, textual e imagen generados artificialmente sea identificable mediante un formato legible por máquina.
Alto riesgo
Los sistemas de IA considerados de alto riesgo deben cumplir con importantes requisitos, que incluyen sistemas de mitigación de riesgos, alta calidad de conjuntos de datos, registro de actividades, documentación detallada, información clara para los usuarios, supervisión humana y altos niveles de robustez, precisión y ciberseguridad. Los «sandbox regulatorios» facilitarán la innovación responsable y el desarrollo de sistemas de IA conformes. Ejemplos de sistemas de IA de alto riesgo incluyen aquellos utilizados para la contratación o para evaluar la elegibilidad para préstamos.
Riesgo inaceptable
Los sistemas de IA que representan una amenaza clara para los derechos fundamentales de las personas estarán prohibidos. Esto incluye aplicaciones de IA que manipulan el comportamiento humano para eludir la voluntad de los usuarios, como juguetes que utilizan asistencia por voz para fomentar comportamientos peligrosos en menores, sistemas que permiten la «puntuación social» por parte de gobiernos o empresas, y ciertas aplicaciones de vigilancia predictiva.
También se prohíben algunos usos de sistemas biométricos, como los sistemas de reconocimiento emocional en el lugar de trabajo y algunos sistemas de identificación biométrica remota en tiempo real para la aplicación de la ley en espacios públicos.
Reglas para modelos de IA de propósito general
La Ley AI también introduce normas para los llamados modelos de IA de propósito general, que son modelos altamente capaces diseñados para realizar una amplia variedad de tareas, como generar texto similar al humano. Estos modelos se utilizan cada vez más como componentes de aplicaciones de IA. La Ley AI garantizará la transparencia a lo largo de la cadena de valor y abordará posibles riesgos sistémicos de los modelos más capaces.
Los Estados miembros tienen hasta el 2 de agosto de 2025 para designar autoridades nacionales competentes, que supervisarán la aplicación de las normas para los sistemas de IA y llevarán a cabo actividades de vigilancia del mercado. La Oficina de IA de la Comisión será el principal organismo de implementación de la Ley AI a nivel de la UE, así como el responsable de hacer cumplir las normas para los modelos de IA de propósito general.
Las empresas que no cumplan con las normas serán sancionadas. Las multas pueden llegar hasta el 7% del volumen de negocios anual global por violaciones de aplicaciones de IA prohibidas, hasta el 3% por violaciones de otras obligaciones y hasta el 1.5% por proporcionar información incorrecta.
Aplicación de las normas
La mayoría de las normas de la Ley AI comenzarán a aplicarse el 2 de agosto de 2026. Sin embargo, las prohibiciones de los sistemas de IA considerados de riesgo inaceptable entrarán en vigor en seis meses, mientras que las normas para los llamados modelos de IA de propósito general se aplicarán después de 12 meses.
Para cubrir el período de transición antes de la implementación completa, la Comisión ha lanzado el Pacto de IA. Esta iniciativa invita a los desarrolladores de IA a adoptar voluntariamente las principales obligaciones de la Ley AI antes de los plazos legales.
La Comisión también está desarrollando directrices para definir y detallar cómo debe implementarse la Ley AI, facilitando instrumentos co-regulatorios como normas y códigos de práctica.