La inteligencia artificial avanza a un ritmo frenético, hasta tal punto que los expertos llegan a desconocer cuáles son sus límites y los riesgos que pueden acarrear en materia de ciberseguridad para empresas y usuarios en general.

El último avance de OpenAI, Sora, pone el foco sobre la dificultad para distinguir la realidad alternativa de la verdadera real. Y es que esta eficiente herramienta de IA es capaz de entender lo que el usuario ha solicitado en el prompt, pero también de comprender el contexto de cómo son las cosas en el mundo físico.

No obstante, Sora no será el último eslabón de una cadena que parece que no tendrá fin. Se espera que Stability Cascade, principal competencia de OpenAI, surja en las próximas semanas. De igual modo, aparecerá una nueva versión de Runway, por lo que los desarrolladores de inteligencia artificial seguirán trabajando en el difícil reto de no saber distinguir la realidad de la ficción, con el riesgo que ello supone también en materia de ciberseguridad.

En este sentido, la Comisión Europea definió a los sistemas de IA como software diseñados por humanos con un objetivo complejo, los cuales se pueden basar en reglas simbólicas o numéricas. Tanto en Europa como en EEUU se viene trabajando en la creación de leyes y regulaciones que garanticen el uso seguro de esta tecnología.

La UE trabaja en su Ley de Inteligencia Artificial desde 2021, así como su Ley de Ciberresiliencia. En el caso de EEUU, se publicó recientemente ‘Blueprint for an AI Bill of Rights’, un documento que recoge las características que debe reunir una IA para ser segura.

Propiedad intelectual y derechos de autor

Una consecuencia para la ciberseguridad del uso de la IA prioritaria. Y es que la titularidad de los derechos de autor por parte de la IA promovería la innovación y el desarrollo tecnológico, reconociendo el esfuerzo y la inversión para crear sistemas de IA que reproduzcan obras originales. De este modo, los desarrolladores de IA podrían crear sistemas más avanzados y creativos en aras del progreso cultural y tecnológico.

Hay que recordar que si se otorgan derechos de autor a la IA se estarán infringiendo las protecciones vigentes de las creaciones humanas. Esto desviaría la atención de los verdaderos creadores y, además de un riesgo de ciberseguridad, plantaría dilemas éticos sobre la autoría y la originalidad. Como consecuencia directa, se podría limitar el acceso libre al conocimiento y la cultura.

Qué consecuencias suponen los avances en inteligencia artificial como Sora en la ciberseguridad

Privacidad y derechos de imagen

Los grandes avances en IA permiten crear videos ultrarrealistas, como bien hace Sora, aunque en este sentido los derechos de imagen se verían alterados al generar representaciones precisas de individuos sin su consentimiento. Por tanto, la ciberseguridad quedaría en entredicho.

Con este avance tecnológico, se genera una contradicción entre la realidad y la ficción, permitiendo la creación de contenido empleado en contextos perjudiciales o difamatorios y poniendo en riesgo la imagen pública de quienes se encuentran involucrados.

Un riesgo esencial para la ciberseguridad, pues el hecho de que una inteligencia artificial como Sora no garantice la diferencia entre el contenido real y el ficticio, aumentará la vulnerabilidad de los individuos retratados y su derecho a la privacidad y control de su imagen. De ahí la necesidad imperiosa de establecer marcos legales robustos, que regulen el uso de la IA en contenidos audiovisuales.

En todo momento, sería necesario el consentimiento explícito de las personas representadas en vídeos generados por IA. De igual modo, se requiere implantar mecanismos de reparación de daño efectivos para quienes se viesen afectados negativamente por su uso indebido.

Riesgo de difamación

La difamación y desinformación se ven potenciadas por el uso de vídeos ultrarrealistas creados por IA, creando escenarios falsos y manipulando declaraciones de manera intencionada. De este modo, el usuario receptor se verá vulnerable en materia de ciberseguridad, pues podrá influir en la opinión pública y manipular eventos políticos sin un método sencillo de verificación.

Es clave implantar tecnologías de detección de deepfakes y marcos legales sancionadores. Para ello, tecnólogos, legisladores y educadores deberán trabajar para aumentar la concienciación sobre los riesgos de la desinformación.

Regulación excesiva

Sora pone el punto de mira en la necesidad de controlar los videos ultrarrealistas de IA, fijando un marco legal específico que aborde la creación, distribución y utilización de dichos vídeos, protegiendo en todo momento los derechos individuales y preservando la integridad de la información.

Solo así se podrá recalcar la transparencia sobre el origen de los vídeos, estableciendo una colaboración internacional para homogeneizar los marcos regulatorios y la gestión de contenido a nivel global como sinónimo de equilibrio entre la innovación tecnológica y la protección de los derechos fundamentales.

La Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) tiene un papel esencial en este sentido, dirigiendo sus campañas a entidades de derecho público y privado.

Malware y filtración de datos

Los avances en IA pueden venir acompañados del desarrollo de un malware más efectivo, evasivo y personalizado, capaz de ocultarse hasta encontrar su víctima específica por reconocimiento facial o de voz. De igual modo, la IA es capaz de mejorar y optimizar los ataques de phishing, explotando las vulnerabilidades psicológicas de los humanos.

La generación de malware permite la filtración de datos sensibles, pudiendo acceder a direcciones IP individuales de cada usuario, tipos de navegadores y datos relevantes de una empresa.

De ahí la importancia de contar con los sistemas de ciberseguridad más eficientes y de concienciar a los trabajadores y usuarios en general en una formación adecuada en este sentido.

Deja un comentario

Por favor, introduce tu comentario
Por favor, introduce tu nombre