6 minutos de lectura
Preguntas y respuestas sobre el Anteproyecto de Ley de IA en España
Carmen Torres : 09-abr-2025 10:58:33

La futura Ley de Inteligencia Artificial en España marcará un antes y un después en el sector digital. Aunque aún no está aprobada, el anteproyecto ya define las bases de la normativa, que busca garantizar transparencia y confianza en el uso de la IA. En este artículo, analizamos los puntos clave de la regulación y su impacto en medios de comunicación, empresas tecnológicas y creadores de contenido.
El Gobierno español se ha puesto manos a la obra para regular la IA en nuestro país, y adaptar el Reglamento Europeo a una norma nacional que busca la transparencia y la responsabilidad en la aplicación de la inteligencia artificial por parte de todos.
El Anteproyecto de Ley para un uso ético, inclusivo y beneficioso de la Inteligencia Artificial fue anunciado por el Ejecutivo el pasado 11 de marzo de 2025. Su objetivo es asegurar el cumplimiento normativo y una gobernanza de la inteligencia artificial en España, en concordancia con la legislación Europea.
En este sentido, la normativa establecerá un régimen sancionador si se incumple el Reglamento (UE) 2024/1689 sobre Inteligencia Artificial, que promueve la adopción de una IA fiable y de conformidad con los valores y principios de funcionamiento de la Unión Europea.
A continuación, exponemos los puntos clave de la futura Ley, que afectará, entre otros agentes, a los medios de comunicación, creadores de contenido, al sector del marketing y la publicidad. También impactará en empresas tecnológicas y startups que desarrollen y distribuyan sistemas de inteligencia artificial. Estas compañías deberán demostrar que sus modelos cumplen con la normativa europea de transparencia y ética.
Preguntas y respuestas del Anteproyecto de Ley de la IA
¿A quién se aplica la Ley?
La norma va dirigida a personas jurídicas y entidades del sector público que actúen como operadores de sistemas de IA, incluyendo proveedores, proveedores potenciales (durante pruebas en condiciones reales), responsables de despliegue, fabricantes que introduzcan sistemas de IA con su producto, importadores y distribuidores de sistemas de IA.
¿Qué tipos de infracciones contempla y cuáles son sus sanciones asociadas?
La Ley clasifica las infracciones en muy graves, graves y leves, que varían según la gravedad de los hechos y si el infractor es una sociedad o grupo de sociedades. Las multas pueden ser con importes fijos o porcentajes del volumen de negocio mundial de las compañías en el ejercicio anterior (en concreto, se aplicará el importe mayor de los dos).
- Infracciones muy graves (en sistemas de IA prohibidos): las multas van desde 7,5 hasta 35 millones de euros, o del 2% al 7% del volumen de negocio.
- Infracciones muy graves (en sistemas de IA de alto riesgo): multas desde 7,5 a 15 millones de euros, o del 2% al 3% del volumen de negocio.
- Infracciones graves: desde 500.000 euros hasta 7,5 millones de euros, o del 1% al 2% de la facturación.
- Infracciones leves: desde 6.000 hasta 500.000 euros, o del 0,5% al 1% del volumen de negocio. En el caso de las PYMES, se aplicará el menor importe o el porcentaje resultante
En infracciones muy graves relacionadas con prácticas prohibidas o incidentes graves, además de la multa económica, se podrá ordenar la retirada del producto o la desconexión del sistema de IA.
¿Qué mecanismos de gobernanza y supervisión se establecen?
La Ley designa a diversas autoridades como componentes para la supervisión y sanción en materia de la IA, entre ellas, la Agencia Española de Supervisión de Inteligencia Artificial. La AESIA será el punto de contacto único y la autoridad de vigilancia para ciertos tipos de sistemas de inteligencia artificial, como infraestructuras críticas, prácticas prohibidas, alto riesgo en biometría, etc.
La Agencia de Protección de Datos, el Banco de España o la CNMV actuarán también como entidades supervisoras. La AESIA presidirá una comisión mixta de autoridades de vigilancia del mercado para asegurar un proceso uniforme y eficaz.
¿Cuándo entrará en vigor la Ley de IA?
La Ley se tramitará por la vía de urgencia y entrará en vigor al día siguiente de su publicación en el BOE. Sin embargo, la aplicación del régimen sancionador se realizará de forma progresiva:
- 2 de agosto de 2025: régimen sancionador para sistemas de IA prohibidos y para organismos notificados.
- 2 de agosto de 2026: régimen sancionador para operadores relacionados con sistemas de IA de alto riesgo contenidos en el Anexo III del Reglamento de la UE.
- 2 de agosto de 2027: régimen sancionador para operadores relacionados con sistemas de IA de alto riesgo contenidos en el Anexo I de la regulación europea.
¿Cuáles son las principales obligaciones impuestas por el Reglamento UE sobre IA?
Entre las más destacadas, figura el deber de transparencia. De este modo, la normativa indica que cuando los sistemas de inteligencia artificial (como los chatbots) estén destinados a interactuar con personas físicas, se les debe informar que están interactuando con un sistema de IA.
Asimismo, la normativa europea recoge la obligación de marcar contenido sintético, ya sea audio, imagen, vídeo o texto, de tal modo que pueda detectarse su naturaleza artificial, especialmente los que constituyan una ultra suplantación o sean informaciones sobre asuntos de interés público.
Cómo afecta la normativa a los medios de comunicación
Como hemos visto, la nueva regulación obligará a etiquetar los contenidos creados con inteligencia artificial, para evitar la desinformación y mejorar la transparencia digital. Así, cualquier vídeo, imagen o audio creado con IA deberá llevar un aviso a los usuarios de su origen. Los medios de comunicación que utilicen inteligencia artificial para generar noticias o reportajes tendrán que dejarlo claro. Una medida que evitará la propagación de noticias falsas, pero que a su vez podría limitar utilizar la IA para automatizar el periodismo.
Además, se restringe el uso de inteligencia artificial con el objetivo de manipular a la ciudadanía de forma subliminal, y poner en riesgo sus derechos fundamentales. El objetivo de la nueva norma es evitar Deepfakes y recreaciones hiperrealistas, lo que afectará sobre todo a influencers y creadores en redes sociales, y a la viralidad de ciertos contenidos.
La pregunta que surge es ¿cómo etiquetar el contenido generado por IA?. Pues tendremos que esperar a que se publique la Ley en el Boletín Oficial del Estado, que recogerá los métodos oficiales de etiquetado que defina la Agencia de Supervisión de IA.
Podrían ser desde marcas de agua, avisos de audio o metadatos incorporados en archivos digitales, para indicar que fueron creados con IA.
De momento, algunos medios de comunicación ya están recogiendo en sus manuales de estilo, y otras guías y normas éticas su postura ante la Inteligencia Artificial, entre ellos, la Agencia EFE (cuyo manual de estilo recogimos en un anterior artículo de nuestro blog), o nuestros clientes RTVE y elDiario.es, que ha sido el último en publicar una declaración de principios sobre el uso de la inteligencia artificial.
RTVE: IA en un medio público
Nuestro cliente RTVE ha sido uno de los medios de comunicación pioneros en el uso y regulación de la Inteligencia Artificial. En septiembre de 2024, su Consejo de Administración aprobó una nueva norma que garantiza que los profesionales del Ente Público y sus entidades proveedoras utilizan las soluciones de IA de manera responsable, segura, transparente y fiable, cumpliendo así los valores de la organización.
Fuente: RTVE.
Previamente, en el documento IA en una gran medio público, avanzando con certeza y garantías entre la incertidumbre, ya recogía una propuesta sobre cómo trabajar con inteligencia artificial. En la misma, se indica que la IA es una herramienta más, que nunca debe ser, ni es, un fin en sí misma, y debe servir para mejorar el trabajo de los profesionales.
RTVE afirma expresamente que es necesario aplicar el principio de transparencia a los contenidos generados sintéticamente, comunicando su autoría. Añade que es recomendable conocer de manera más amplia y precisa la opinión de las audiencias y su interés en consumir contenidos no generados por profesionales humanos.
El Ente Público lleva años experimentando las posibilidades de la IA y sus casos de uso, y ya lo está aplicando en distintas soluciones, entre ellas, las encaminadas a facilitar la accesibilidad de sus contenidos. Ahí se enmarca nuestro último proyecto con RTVE sobre el desarrollo de un sistema de generación de gráficos alternativos con inteligencia artificial, que ya están utilizando.
elDiario.es: el periodismo, una capacidad humana
A mediados de marzo, elDiario.es publicó una Declaración de principios del medio sobre la inteligencia artificial, titulada El periodismo, una capacidad humana. En ella, el diario de Ignacio Escolar aborda la IA teniendo en cuenta dos premisas: que la innovación tecnológica ha sido su aliada imprescindible desde su fundación, en 2012, y cómo han sido testigos en la última década de cómo no utilizar correctamente la tecnología puede desembocar en la polarización, el odio, la manipulación de masas o la concentración de poder.
Fuente: elDiario.es
Así, el documento establece una serie de principios básicos y normas de uso. Entre ellos, se destaca la capacidad exclusivamente humana del periodismo. Además, se enfatiza la importancia de un modelo editorial en el que la innovación tecnológica contribuya a la mejora continua y la credibilidad, que podría ponerse en riesgo por un mal uso de la IA. Para evitarlo, elDiario.es establece una serie de normas para la redacción en dos ámbitos: la publicación de contenidos generados por IA y cómo ésta debe ser un asistente para los periodistas en su trabajo.
Entre las normas, se indica que no publicarán formatos de valor añadido generados únicamente por IA, que estará limitada a textos experimentales, informaciones básicas de servicio o formatos basados en datos. Cualquier contenido generado íntegramente por IA deberá ser claramente identificado como tal en un lugar visible y se prohíbe expresamente el uso de imágenes o voces para crear situaciones que no se hayan dado en la realidad.
Cualquier proceso con IA deberá ser revisado y validado por un periodista del periódico, y ningún periodista utilizará herramientas de inteligencia artificial sin el conocimiento de la redacción. Estas normas serán revisadas y actualizadas de forma periódica para adaptarse a los avances tecnológicos. El diario digital añade que defenderá una regulación de la IA respetuosa con los derechos humanos y siempre supeditada a la democracia y al interés público.
———
Bitban Technologies, como proveedor de soluciones de inteligencia artificial para medios de comunicación a través de su gestor de contenidos, bCube CMS, vigila estrechamente el uso de la IA de manera responsable y está atento a la normativa vigente para ofrecer el mejor servicio a sus clientes. Así, en la actualidad, la herramienta permite etiquetar en el sistema los contenidos generados por inteligencia artificial en las redacciones, entre otras medidas encaminadas al buen uso de la tecnología.
Si estás interesado en conocer cómo funciona bCube CMS y qué puede hacer por tu medio, te invitamos a ponerte en contacto con nuestro equipo para que resuelvan todas tus dudas.