Regular la IA, que avanza a un ritmo frenético, ha pasado a ser una prioridad no solo de los grandes gobiernos, sino en general, de todo el mundo. La expansión y generalización de ChatGPT de OpenAI hizo de la IA una herramienta plenamente accesible, por lo que ha provocado la necesidad de que se establezcan principios normativos sobre ella.

2023 ha sido el año clave para que los legisladores acuerden los primeros pasos. Así pues, se aprobó la primera ley de gran calado de IA en la UE, se organizaron audiencias en el Senado y órdenes ejecutivas en EEUU y normas específicas en China para aspectos relacionados como los algoritmos de recomendación. Por todo ello, se espera que 2024 sea el año en el que, de forma definitiva, se transforme todo ello en acciones concretas.

EEUU

A finales de octubre, el presidente Joe Biden emitió la orden ejecutiva sobre IA que exigía más transparencia y un nuevo tejido normativo al respecto. De este modo, se exige a los productos más punteros que puedan suponer un peligro para los usuarios, que efectúen una serie de pruebas de seguridad y que notifiquen los resultados al Ejecutivo antes de lanzar sus productos. Por todo ello, serán supervisadas de manera constante para valorar sus riesgos.

Esto se suma a la recomendación sobre las compañías de IA Generativa a que marquen las fotos, vídeos y audios creados con IA para que no se confundan con el contenido real, siendo algo plenamente obligatorio. No obstante, no aborda un aspecto clave como la desinformación, restringiendo productos de IA que ya están en el mercado y que generan un riesgo inminente.

La seguridad nacional que defiende EEUU implica que las empresas que operen servicios de computación en la nube tengan la obligación de informar al Gobierno sobre sus clientes extranjeros. De igual modo, otras directrices se mantendrán clasificadas. Así pues, se generará un gran impacto en los puestos de trabajo y en el ecosistema informativo.

Biden pone el foco en solicitar a las agencias del Gobierno federal que estudien las consecuencias de la IA, creando normas sobre la compra y uso de dichas herramientas y proporcionando recomendaciones para evitar sesgos discriminatorios de los algoritmos.

Se busca poner límites a Silicon Valley con mayores medidas efectivas en el Congreso y consolidar el Instituto de Seguridad de la Inteligencia Artificial, que ejecutará la mayoría de las políticas contempladas en la orden. Su objetivo es implantar una clasificación de los tipos y usos de la IA en función del riesgo que planteen, similar a la Ley de IA de la UE. La propuesta parte del Instituto Nacional de Normas y Tecnología. No obstante, la regulación de la IA dependerá del resultado electoral tras la cita del próximo mes de noviembre.

Europa

Sin duda, pionera al imponer la Ley de Inteligencia Artificial. Su aprobación oficial llegará en el primer semestre de 2024 y supondrá la prohibición de ciertos usos de la IA, pues aquellas empresas que desarrollen modelos y aplicaciones de base consideradas ‘de alto riesgo’ para los derechos fundamentales, tendrán que cumplir la nueva normativa. Aquí entran en juego sectores como la educación, la sanidad y las Fuerzas de Seguridad.

También se prohíbe la creación se bases de datos de reconocimiento facial, como las de Clearview AI, así como el uso de tecnología de reconocimiento de emociones en el trabajo o en las escuelas. Las empresas deberán ser más transparentes y deberán utilizar sistemas de IA de alto riesgo para sumir mayor responsabilidad frente a los daños resultantes.

La nueva ley de IA plantea estimular la inversión y la innovación en IA en Europa, aplicándose el Reglamento de IA dos años después de su entrada en vigor. De este modo, las empresas que desarrollen modelos funcionales (como GPT-4), deberán cumplir la ley en el plazo de un año tras su entrada en vigor, teniendo otras empresas dos años para aplicarla.

Se exige una mayor transparencia a las empresas y que informen sobre incidentes graves y compartan detalles sobre su consumo de energía. De este modo, las empresas de IA de código abierto están exentas de la mayor parte de los requisitos de transparencia de la Ley de IA, salvo que desarrollen modelos intensivos en computación. De lo contrario, se enfrentan a multas elevadas o el bloqueo de sus productos en la UE.

La UE trabaja, de igual modo, el proyecto de ley de Directiva sobre responsabilidad civil en materia de IA. Esta normativa garantizará que las personas perjudicadas por la tecnología puedan obtener una compensación económica.

China

La regulación de la IA en China está fragmentada y es poco sistemática. Se han promulgado leyes individuales al surgir nuevos productos de IA, existiendo normas para los servicios de recomendación algorítmica y para los deepfakes, así como para la IA Generativa.

En junio de 2023, el Consejo de Estado de China anunció que en su agenda legislativa se contempla una ley de IA, esperándose el primer borrador para 2024. En agosto de 2023, la Academia China de Ciencias Sociales publicó una versión de ‘sugerencias de expertos’ sobre la nueva normativa, exigiendo un informe de responsabilidad social anual y fijando un lista negativa de áreas de IA con mayores riesgos.

Cualquier modelo funcional de IA debe ser registrado ante el Gobierno antes de que se diese a conocer al público. A finales de 2023, 22 empresas ya habían registrado sus modelos de IA. De igual modo, el entorno comercial nacional seguirá protegiendo a las empresas chinas de IA, otorgándole ventajas estratégicas frente a los competidores occidentales.

 

Deja un comentario

Por favor, introduce tu comentario
Por favor, introduce tu nombre