La Unión Europea ha dado un paso importante para frenar uno de los usos más dañinos de la inteligencia artificial: la creación de falsos desnudos y contenido sexual manipulado sin consentimiento. A propuesta del Gobierno de España, los negociadores europeos han acordado prohibir en todo el territorio comunitario la comercialización, puesta en servicio y uso de sistemas de IA capaces de generar deepfakes sexuales.
La medida se ha incorporado a la reforma de la Ley Europea de Inteligencia Artificial, conocida como AI Act, después de varios meses de debate político. España puso la propuesta sobre la mesa en enero, tras la polémica generada por la aparición de imágenes de mujeres y menores desnudas creadas con Grok, el asistente virtual de la red social X. Desde entonces, el Ejecutivo español ha defendido que este tipo de herramientas no pueden considerarse una simple función tecnológica más, sino una amenaza directa contra la intimidad, la dignidad y la seguridad de las personas.
El acuerdo se cerró durante la negociación tripartita entre el Parlamento Europeo, la Presidencia del Consejo y la Comisión Europea, finalizada en la madrugada del 7 de mayo. La propuesta española, respaldada también por Francia, ha recibido finalmente el visto bueno para ser incluida en la reforma de la normativa europea sobre inteligencia artificial.
Qué se va a prohibir exactamente
La enmienda incorpora dos nuevas prácticas prohibidas de inteligencia artificial en la Unión Europea.
La primera afecta a los sistemas capaces de generar o manipular imágenes, vídeos o audios realistas de partes íntimas de una persona, o que la representen en actividades sexuales, sin su consentimiento expreso. Es decir, herramientas que permiten crear falsos desnudos, vídeos sexuales manipulados o audios sintéticos de contenido sexual atribuidos a una persona real.
La segunda prohibición se dirige a los sistemas capaces de generar o manipular pornografía infantil. En este caso, la medida busca cerrar la puerta al uso de la IA para producir material de abuso sexual infantil, aunque las imágenes hayan sido creadas artificialmente.
La clave está en que la prohibición no se limita al contenido final, sino que apunta también a los sistemas que permiten generarlo. Esto significa que no solo se persigue a quien utiliza una herramienta para crear un deepfake sexual, sino también la introducción en el mercado y la puesta en funcionamiento de sistemas diseñados para facilitar ese tipo de contenidos.
Por qué esta medida era necesaria
Los deepfakes sexuales se han convertido en una de las caras más oscuras de la inteligencia artificial generativa. Hasta hace no mucho, crear una imagen falsa y realista requería conocimientos técnicos avanzados. Hoy, en cambio, muchas herramientas permiten generar o manipular contenido en cuestión de segundos.
El daño para las víctimas puede ser enorme. Aunque la imagen, el vídeo o el audio sean falsos, las consecuencias son reales: humillación pública, acoso, chantaje, pérdida de reputación, ansiedad, exposición en redes sociales y dificultad para eliminar el contenido una vez se ha difundido.
Además, este tipo de violencia digital afecta de forma especialmente grave a mujeres, adolescentes y menores. En muchos casos, los deepfakes sexuales se usan para intimidar, castigar, extorsionar o atacar la vida privada de una persona. La tecnología permite fabricar una falsa escena íntima, pero el impacto social y emocional recae sobre una víctima real.
Por eso, la UE quiere dejar claro que no todo lo que la inteligencia artificial permite hacer debe estar permitido. La innovación tecnológica tiene límites cuando entra en conflicto con derechos fundamentales como la intimidad, el honor, la propia imagen o la protección de la infancia.
España celebra el acuerdo
El ministro para la Transformación Digital y de la Función Pública, Óscar López, ha celebrado el respaldo europeo a la propuesta española. Según ha señalado, España sigue impulsando un modelo europeo de inteligencia artificial basado en la confianza y en la protección de derechos.
El Gobierno relaciona esta medida con otras iniciativas nacionales, especialmente con la Ley Orgánica para la protección de las personas menores de edad en los entornos digitales, actualmente en tramitación en el Congreso de los Diputados. Esta norma prevé reformar el Código Penal para castigar los deepfakes de contenido sexual y reforzar la persecución del grooming, es decir, el engaño online a menores con fines sexuales.
El objetivo es construir un marco legal que responda a problemas que ya están ocurriendo. La inteligencia artificial ha acelerado la capacidad de crear contenidos falsos, y las leyes tradicionales no siempre estaban preparadas para abordar este tipo de manipulación digital.



































