La Inteligencia Artificial ha irrumpido con fuerza en el panorama tecnológico mundial, pero como todas las tecnologías, también presenta desafíos. La Comisión Europea ha incrementado su vigilancia sobre Microsoft, especialmente en lo que se refiere a las capacidades de inteligencia artificial (IA) y riesgos de su motor de búsqueda Bing.

La Comisión ha emitido una solicitud de información legalmente vinculante a Microsoft. La preocupación radica en el manejo de los riesgos asociados con las funciones generativas de IA, particularmente en aplicaciones como «Copilot in Bing» e «Image Creator by Designer». Esta acción sale después de que Microsoft no respondiera satisfactoriamente a una solicitud previa de información el pasado 14 de marzo.

Bajo la normativa del Acta de Servicios Digitales (Digital Services Act), la Comisión ha dado a Microsoft hasta el 27 de mayo para suministrar la información requerida sobre los procesos internos y las evaluaciones de riesgo asociadas con sus funciones de IA. Estas demandas de la Comisión Europea a Microsoft se originan en la preocupación de que Bing podría estar violando esta legislación debido a problemas como la difusión de deepfakes, y la manipulación automatizada de contenidos que podrían confundir o engañar a los votantes.

Los artículos 34 y 35 del Acta de Servicios Digitales exigen que los servicios designados, incluido Bing, realicen una evaluación de riesgos adecuada y adopten medidas para mitigar esos riesgos. La IA generativa ha sido identificada por la Comisión como un riesgo significativo, especialmente en lo que respecta a la integridad de los procesos electorales, con objetivo de cara a las próximas elecciones al Parlamento Europeo en junio.

Potenciales sanciones y multas

En caso de que Microsoft no cumpla con el plazo para responder, la Comisión podría imponerle multas importantes. Estas podrían ascender hasta el 1% de los ingresos anuales totales o del volumen de negocios global de Microsoft, con sanciones periódicas que podrían alcanzar hasta el 5% de los ingresos diarios medios globales. Además, por proporcionar información incorrecta, incompleta o engañosa, la Comisión podría imponer multas adicionales de hasta el 1% del volumen de negocios mundial.

Al haber sido designado como un motor de búsqueda de muy gran tamaño, Bing está obligado a cumplir con un conjunto completo de disposiciones bajo el Acta de Servicios Digitales.

La solicitud de información por parte de la Comisión es un acto de investigación que no determina de antemano las medidas que podrían adoptarse en el futuro. Dependiendo de la evaluación de las respuestas de Microsoft, la Comisión decidirá los pasos a seguir, lo que podría incluir la apertura de un procedimiento formal según el artículo 66 de la Ley de Servicios Digitales

La DSA y sus objetivos

El Acta de Servicios Digitales (Digital Services Act, DSA) de la Unión Europea es una legislación diseñada para modernizar el marco regulatorio para los servicios digitales. Aprobada en 2022, la DSA apunta a hacer que el espacio digital sea más seguro y a garantizar que los derechos de los usuarios estén protegidos en línea. Esta legislación tiene el propósito de regular a las plataformas en línea, incluidos los gigantes tecnológicos, para que sean más responsables de los contenidos que se comparten en sus plataformas.

Sus objetivos son:

  1. Mayor transparencia: El DSA obliga a las plataformas digitales a ser más transparentes en sus operaciones, incluyendo algoritmos de recomendación, y a explicar cómo y por qué se muestra cierto contenido a los usuarios.
  2. Protección contra contenidos ilegales: Requiere que las plataformas actúen rápidamente para eliminar contenidos ilegales, como discursos de odio y desinformación, una vez que estos han sido identificados.
  3. Derechos de los usuarios: Fortalece los derechos de los usuarios, permitiéndoles apelar decisiones relacionadas con moderación de contenido y otros aspectos de los servicios digitales.
  4. Protección de datos y privacidad: Asegura que se protejan los datos personales y la privacidad de los usuarios, evitando la recolección y el uso excesivo de datos personales.
  5. Medidas contra riesgos sistémicos: Exige a las plataformas de gran tamaño realizar evaluaciones de riesgos y tomar medidas para mitigar riesgos de manipulación y otros problemas de seguridad.
  6. Control y sanciones: Establece un marco de supervisión y sanciones para garantizar que las plataformas cumplan con la normativa, incluyendo multas significativas por incumplimiento.

 

 

Periodista especializada en ciberseguridad y tecnología. Mi enfoque se centra en analizar mundo de las aplicaciones y la seguridad especialmente en redes sociales. Con un interés constante en informar sobre avances, riesgos y sin olvidar la importancia de la prevención, busco compartir información precisa y comprensible para el usuario.

Deja un comentario

Por favor, introduce tu comentario
Por favor, introduce tu nombre