El blog de bCube

Estudio EBU/BBC. Los asistentes IA tergiversan casi la mitad de las noticias

Escrito por Carmen Torres | 29-oct-2025 11:15:10

La IA es el nuevo motor de noticias pero ¿es confiable? Un estudio pionero de la EBU/BBC revela que los principales asistentes de IA tergiversan el contenido noticioso en el 45% de sus respuestas. El problema ya no son sólo las “alucinaciones”, sino una falta sistémica de atribución, que afecta al 31% de los resultados. Analizamos por qué esta crisis de integridad en las noticias de IA obliga a editores y usuarios a repensar la confianza en el algoritmo.

 

La inteligencia artificial ha cambiado para siempre la forma en que consumimos información. Dejar atrás la barra de búsqueda y preguntar directamente a un chatbot cómo va el mundo es la nueva normalidad. Pero, ¿hasta qué punto es confiable esa fuente?

Un estudio pionero y de gran magnitud ha encendido todas las alarmas en el sector editorial y tecnológico. El informe “EBU-MIS-BBC News Integrity in AI Assistant Report 2025” liderado por la Unión Europea de la Radiodifusión (EBU, por sus siglas en inglés) y la BBC, en el que ha participado nuestro cliente RTVE, revela una crisis silenciosa sobre la integridad en las noticias en asistentes de IA.

 

Fuente: Infografía del estudio. Página web EBU (Unión Europea de Radiodifusión)

 

El dato central es contundente y crucial para entender el panorama: el 45% de las respuestas de los asistentes de IA tienen al menos un fallo importante. El porcentaje se eleva hasta un preocupante 81% si se incluyen las respuestas que presentan al menos “un problema de algún tipo”.

Este hallazgo es particularmente sensible, puesto que el uso creciente de estos asistentes y los motores de búsqueda para acceder a noticias o información general se está disparando. Según el último informe de Reuters Institute, el 34% de las personas utiliza semanalmente una herramienta de IA generativa, siendo la búsqueda de información la aplicación de mayor crecimiento, especialmente entre los jóvenes.

 

Problemáticas en las respuestas de IA

La cifra del 45% no es una estadística menor, es la manifestación de un fallo sistémico. Este porcentaje representa la cantidad total de respuestas de los principales asistentes de IA que contenían al menos un “problema significativo” al analizar y resumir fuentes verificadas.

 

Fuente: "EBU-MIS-BBC News Integrity in AI Assistants Report 2025".

 

El estudio, en el que han participado 22 medios de comunicación de servicio público de 18 países (14 idiomas), evaluó cómo ChatGPT, Copilot, Gemini y Perplexity responden a preguntas sobre noticias y actualidad (en total, se analizaron más de 3.000 respuestas). 

El informe concluye que la falta de confiabilidad de las noticias en IA es transversal. Es decir, los problemas no son fallos puntuales, sino debilidades fundamentales en la forma en la que estos modelos procesan y sintetizan la actualidad.

Estas son las principales problemáticas encontradas:

    • El 45% de las respuestas cuenta con al menos un error grave de sourcing o precisión, poniendo en riesgo la verdad.

    • El 31% falla en la atribución de fuentes, incluyendo citas falsas o engañosas.

    • El 20% incluye detalles inventados o información desactualizada.
  • Gemini tiene el peor desempeño, con problemas significativos en el 76% de las respuestas. Le siguen Copilot (37%), ChatGPT (36%) y Perplexity (30%).

 

Por qué el sourcing es crítico

Si bien, como hemos visto, las alucinaciones de la inteligencia artificial en las noticias son llamativas, el estudio enfatiza que la principal causa de la tergiversación es el sourcing o la atribución de fuentes, que afecta a más de una de cada tres interacciones, y se manifiesta de varias maneras:

  • Atribución falsa: la IA puede citar información que es incorrecta y atribuírsele a una organización de noticias legítima (como la propia BBC). Esto daña la credibilidad del medio y disemina información errónea con sello de autoridad.

  • Omisión total: se sintetiza una noticia sin proporcionar un enlace o una mención clara a la fuente original, creando una respuesta “huérfana” sin posibilidad de verificación.

El dilema de la deferencia periodística

El informe también señala un sesgo clave de la IA: la falta de deferencia. Un periodista profesional o un sistema de noticias confiable, cuando no tiene la certeza de un dato, se abstiene de responder o explica las limitaciones de la información disponible (ejemplo: “hasta el momento, no hay confirmación”), optando por la cautela y la transparencia.

Los asistentes de IA hacen lo contrario: tienden a “rellenar el hueco” con explicaciones y detalles no verificados para parecer completos. Así, priorizan la fluidez conversacional sobre la certeza, un riesgo que se convierte en un arma de doble filo para la confiabilidad de las noticias en asistentes IA.

 

Implicaciones para los editores

Ante esta situación, los editores se deberán replantear su estrategia:

1. Protección del contenido y compensación

Si los LLMs (modelos de lenguaje de IA) están utilizando el contenido para generar respuestas sin la correcta atribución o sin la compensación adecuada, los editores deben actuar. Es fundamental reforzar las licencias de contenido, utilizar robots.txt de forma estratégica y considerar APIs específicas para la IA que garanticen el uso ético de la información.

2. Transparencia y autoridad (E-E-A-T)

En un ecosistema donde el 45% del contenido generado por IA es dudoso, la transparencia se convierte en el máximo diferenciador SEO. Google y los modelos de IA valoran la Autoridad, Experiencia y Confiabilidad (E-E-A-T).

Así, los sitios de noticias que inviertan en marcado de datos estructurados (como nuestro cliente Bainet, del que recientemente hemos publicado su caso de éxito), enlace claro a fuentes primarias y citas explícitas en sus metadatos serán priorizados por los motores de IA como fuentes de alta calidad. De esta manera, consolidarán su posición en un entorno dominado por la optimización de modelos de lenguaje.

3. La llamada a la regulación

La EBU y sus miembros están presionando a los reguladores (especialmente en la UE con la Ley de la Inteligencia Artificial) para que se apliquen y refuercen las leyes existentes sobre la integridad de la información y la pluralidad mediática. Este estudio es un muy buen argumento para exigir a las Big Tech la implementación de mecanismos de verificación obligatorios y penalizaciones por la difusión de información errónea a gran escala, así el ser transparentes sobre cómo usan la información de los medios.

 

Escenario de futuro

El informe pone de relieve que la conveniencia de la IA no puede ser un sustituto de la verdad. La integridad de las noticias en los asistentes artificiales es un desafío global que requiere una acción concertada de los reguladores, desarrolladores de IA y, fundamentalmente, de los medios de comunicación. 

Mientras los modelos de lenguaje sigan priorizando la fluidez sobre la exactitud y los problemas de sourcing persistan en el 31% de los casos, la responsabilidad recae en los usuarios. La alfabetización mediática en la era de la IA es más crítica que nunca. La recomendación final es tajante: verificar siempre la fuente original. La confianza en el algoritmo es un riesgo que la democracia y el periodismo no pueden permitirse.

Kit de herramientas

Como “bonus”, la Unión Europea de Radiodifusión pone a disposición de los usuarios un kit de herramientas, que incluye una descripción detallada de los componentes clave de una buena respuesta informativa de un asistente de IA, así como una taxonomía completa y estructurada de las maneras en que los chatbots se equivocan al responder a las noticias. Según la institución, este recurso práctico está diseñado para ayudar a las empresas tecnológicas a evaluar, supervisar y mejorar el rendimiento de los asistentes IA en el contexto informativo, además de ser una ayuda clave para investigadores, profesionales y formadores de medios de comunicación e inteligencia artificial. 

________

El informe resalta un punto clave: los asistentes de IA no están reemplazando al periodismo, sino que están haciendo que su valor sea más evidente. La información confiable aún depende del juicio, el contexto y la verificación humana, algo que compartimos plenamente desde bCube CMS.

Nuestro asistente de IA, bCube Assistant, respeta el estilo, la esencia y los desafíos de cada medio de comunicación. Estamos desarrollando una inteligencia artificial responsable, bCube Synapse, que garantiza la integridad periodística y los principios éticos de la profesión. ¿Quieres conocer lo que puede hacer por tu medio?