El Parlamento Europeo quiere poner palos en las ruedas a la IA a la hora de crear imágenes y vídeos sexualmente explícitos. En Bruselas los miembros de la Eurocámara han aprobado hoy por una amplia mayoría la prohibición de los denominados «denufiers», aquellos sistemas que se apoyan en la IA para crear o manipular imágenes que son sexualmente implícitas o de naturaleza íntima y que colocan bajo los focos sin su consentimiento expreso a personas reales susceptibles de ser reconocibles.
Los sistemas de que impiden a los usuarios la creación de este tipo de imágenes y vídeos sin el consentimiento de las personas allí retratadas no se verán afectadas por el veto. De todos modos, antes de que entre en vigor esa prohibición, se deberá alcanzar un acuerdo con los estados miembros de la Unión Europea. Y los estados miembros se han mostrado recientemente favorables al veto.
Lo que ha movido en último término al Parlamento Europeo a dar luz verde a la prohibición fue la polémica que se generó a principios de este año a cuenta de la diseminación de «deepfakes» de desnudos alumbrados por Grok en la red social social X.
Se demora también la entrega en vigor de algunas partes de la Ley de IA de la UE
La UE ya adoptó en mayo de 2024 una directiva que clasificaba la difusión no consensuada de material íntimo o manipulado (incluyendo los «deepfakes») como una forma criminal de ciberviolencia. Y los estados miembros deben transponer lo recogido en esa directiva en sus respectivas legislaciones nacionales antes de mediados de junio 2027.
El veto de los «deepfakes» de desnudos aprobado por la Eurocámara formará parte la Ley de IA de la UE, que ha sido convenientemente revisada. Además, la entrega en vigor de alguna de sus partes ha sido igualmente demorada.
Los eurodiputados se han pronunciado a favor de retrasar hasta diciembre de 2027 los preceptos recogidos en esa norma que afectan a los desarrolladores de sistemas de IA de alto riesgo, aquellos que entrañan potencialmente graves riesgos para la salud, la seguridad o los derechos fundamentales.
Por su parte, las empresas que desarrollan sistemas de IA sujetos a normas de seguridad específicas (las que fabrican juguetes o dispositivos médicos, por ejemplo) dispondrán de un plazo aún más largo para acatar lo recogido en la norma, hasta agosto de 2028.
De manera similar, la entrega en vigor de las normas que exigen a los proveedores añadir marcas de agua a los contenidos generados con IA se retrasarán hasta noviembre de 2026 (cuando su vigencia debería haber comenzado en realidad en agosto de este año).






























