5 minutos de lectura
IA en las redacciones: cómo los medios trazan sus propias reglas
Carmen Torres : 28-may-2025 13:41:13

A falta de una regulación común, los medios de comunicación están creando pautas internas para un uso ético y responsable de la IA. Un estudio de la Universidad de Valladolid ha analizado manuales de estilo y directrices de medios, identificando como preocupaciones comunes la necesidad de transparencia y supervisión humana para preservar la credibilidad informativa.
Desde hace dos años, la IA generativa está transformando rápidamente la forma en la que se produce y distribuye la información. Las distintas herramientas de inteligencia artificial facilitan la generación automática de textos, imágenes y audios con una calidad que cada vez es más difícil de distinguir del contenido producido por humanos.
Este avance plantea una pregunta clave ¿cómo puede el periodismo preservar su credibilidad en un entorno dominado por algoritmos? Un reciente estudio de la Universidad de Valladolid analiza esta cuestión desde la perspectiva de la autorregulación ética que los propios medios están implementando frente al uso de la IA.
El informe, titulado: Autorregulación de los medios en el uso de la IA: limitación del contenido generativo multimodal y compromisos éticos con la transparencia y la verificación (1), ofrece una panorámica actualizada de cómo los grandes grupos de comunicación están respondiendo a este desafío.
Fuente: BBC.
Para su elaboración, los autores han analizado 45 guías editoriales y directrices internas de medios de comunicación a nivel global (como la BBC, The Guardian, The New York Times, o los españoles Agencia EFE, El País o nuestro cliente RTVE, entre otros), publicadas entre 2023 y principios de 2025. El propósito del estudio es el de identificar patrones, preocupaciones comunes y estrategias de uso responsable de la IA por parte de los distintos grupos mediáticos.
Principales hallazgos
La mayoría de los medios de comunicación apuestan por un enfoque prudente y ético. Las políticas más comunes incluyen:
- Restricciones al uso de la IA generativa: muchos medios prohíben ya el uso de herramientas generativas para crear imágenes, vídeos o audios que puedan inducir a error, a menos que estén claramente etiquetados. En el caso del texto, su utilización está limitada a tareas como traducción, corrección de textos, búsqueda de sinónimos o redacción de titulares. Algunos medios, incluso, prohíben expresamente la creación de contenido informativo completo con IA (como la BBC) o limitan su uso a información interna no publicable (Associated Press, una de las más estrictas).
- Supervisión humana obligatoria: aunque se permita la asistencia de la IA en algunas fases del proceso, la revisión editorial por parte de los periodistas sigue siendo indispensable. Este es un punto recurrente en casi todos los documentos analizados, con un discurso general que incide en que la Inteligencia artificial debe ser un complemento del trabajo humano, no un sustituto (El País, EFE…). Y es que los profesionales aportan un juicio crítico y contexto cultural que la IA no puede replicar, garantizando la calidad periodística y el respeto por la ética.
- Compromiso con la transparencia: algunos medios ya exigen informar al lector cuando una pieza ha sido generada o editada con ayuda de la IA, con el objetivo de generar confianza, y promueven estándares para la trazabilidad del contenido.
- Refuerzo de los procesos de verificación: ante el riesgo de sesgos, errores o invenciones por parte de los modelos de IA, se insiste en la necesidad de contrastar datos de forma independiente, un compromiso fundamental para mantener la calidad informativa.
- Respeto por los derechos de autor y el contenido humano original al utilizar IA, y necesidad de regular la protección y tratamiento de datos, con especial precaución a la hora de manejar datos sensibles o personales en las consultas a las herramientas de inteligencia artificial.
Fuente: Estudio sobre Autorregulación de los medios en el uso de la IA. Universidad de Valladolid.
Por qué es relevante la autorregulación
Este movimiento hacia la autorregulación está ocurriendo en un contexto de incertidumbre regulatoria institucional. Si bien organismos como la UE o UNESCO han iniciado procesos para establecer marcos normativos sobre inteligencia artificial, aún no existe una legislación internacional coherente. En este vacío, los medios están asumiendo la responsabilidad de liderar con el ejemplo.
Aunque algunas regiones ya están dando pasos firmes en este sentido, como es el caso de Grecia. El país heleno acaba de lanzar el primer código ético en Europa para regular el uso de la IA en el periodismo. El documento se rige por un principio clave: transparencia, y aboga por el etiquetado pertinente cuando un periodista utilice herramientas de inteligencia artificial para elaborar la información, aunque su uso sea parcial.
En nuestro país, el Gobierno también se ha puesto manos a la obra para regular la IA, y en marzo anunció el Anteproyecto de Ley para un uso ético, inclusivo y beneficioso de la inteligencia artificial, que desgranamos anteriormente en el blog. La normativa también está basada en la transparencia y el marcado de contenido sintético, para cumplir con las obligaciones impuestas por el Reglamento Europeo de IA.
Fuente: Thomson Reuters.
Poner coto ético al uso de la inteligencia artificial en el periodismo no es un tema banal. Si no se regula, la IA puede afectar a algo tan esencial como la confianza en las noticias. Los riesgos de dejar la información en manos sólo de la inteligencia artificial, sin revisión, son reales: desinformación, manipulación y pérdida de credibilidad, un punto crítico, según pone de manifiesto el estudio.
Implicaciones para el periodismo
El informe deja varias lecciones claras para los profesionales de la información:
- La IA no sustituye al periodista, pero sí puede ser una herramienta útil si se usa con criterio ético.
- La transparencia se convierte en un nuevo valor editorial, al mismo nivel que la veracidad o la independencia.
- Los códigos internos y manuales editoriales deben actualizarse urgentemente para incluir cláusulas específicas sobre IA, supervisión humana y gestión de riesgos.
En España, uno de los últimos medios en hacer pública su postura respecto a la IA en el sector ha sido nuestro cliente elDiario.es. El nativo digital presentó en marzo de 2025 su primera declaración de principios sobre el uso de la inteligencia artificial en el ámbito periodístico, que establece normas, límites y condiciones con los que aplicará esta tecnología. En el documento, el Diario deja claro que el periodismo es una capacidad exclusivamente humana, imprescindible para las sociedades democráticas.
elDiario.es considera que la IA es útil como complemento técnico o de asistencia en el trabajo periodístico, bajo supervisión. Añade que su uso responsable puede ser valioso para un periodismo más riguroso y de mayor profundidad.
Fuente: elDiario.es
Si bien, como vemos, ya se están dando pasos significativos, aún persisten importantes desafíos. No todos los medios cuentan con políticas definidas, ni existe una normativa gubernamental común, pero el inicio del debate representa un avance relevante.
En términos estratégicos, según concluye el informe, los medios que establezcan protocolos sólidos sobre su uso de la IA podrán reforzar su diferenciación y su relación de confianza con la audiencia.
El periodismo no puede, ni debe, renunciar a las posibilidades que ofrece la IA, pero sí establecer con claridad sus límites, responsabilidades y principios éticos, a la espera de que los marcos legales se terminen de desarrollar. En este proceso, la transparencia, verificación y supervisión humana serán claves para una convivencia sostenible entre IA y periodismo.
(1) Sánchez-García, P., Diez-Gracia, A., Mayorga, IR, & Jerónimo, P. (2025). Autorregulación de los medios en el uso de la IA: limitación del contenido generativo multimodal y compromisos éticos de transparencia y verificación. Periodismo y Medios , 6 (1), 29. https://doi.org/10.3390/journalmedia6010029
———
En Bitban Technologies creemos firmemente en la necesidad de utilizar la IA en el periodismo de manera ética y responsable. Por ello, hemos desarrollado una solución de inteligencia artificial, bCube Synapse, adaptada a las necesidades de cada medio, respetando su esencia, estilo editorial y normas éticas, asegurando así la calidad de la información.
Detrás de bCube Synapse hay un trabajo de ingeniería y adaptación constante que garantiza precisión, coherencia editorial y eficiencia. La IA de nuestro CMS tiene la capacidad de incorporar el contexto específico del medio (guías, manuales, directrices…) y actuar conforme a sus reglas, estilo y estructura.
En la era del periodismo aumentado, la inteligencia artificial se convierte en una tecnología invisible que amplifica el alcance, la personalización y la calidad del contenido. El desafío de las redacciones ya no es si integrar o no la IA, sino cómo hacerlo de forma que refuerce la esencia del periodismo, y desde Bitban Technologies estamos preparados para ayudarles en el proceso.