El blog de bCube

Cómo los verificadores de datos usan la IA para combatir la desinformación

Escrito por Carmen Torres | 04-sep-2025 8:16:46

En la lucha contra los bulos, la IA bien aplicada está siendo un recurso estratégico decisivo. Un estudio realizado en Brasil ha analizado el uso que hacen los verificadores de datos de esta tecnología, que potencia el trabajo humano para combatir la desinformación y permite anticiparse a ella antes que se propague. En este artículo, recogemos las conclusiones más importantes de la investigación.

 

La desinformación se ha convertido en uno de los principales retos para la salud democrática y la confianza ciudadana en los medios. Frente a este escenario, las organizaciones de verificación de datos asumen un papel clave y, en la actualidad, se apoyan cada vez más en la inteligencia artificial para reforzar su misión.

Un reciente estudio realizado por universidades brasileñas ha analizado cómo verificadores de Brasil (Aletheia), Argentina (Chequeado), Portugal (Polígrafo) y España (Maldita) están integrando la IA en sus procesos, revelando tendencias, desafíos y oportunidades.

 

Verificación de datos: de respuesta reactiva a pilar del debate público

Las primeras iniciativas de fact-checking surgieron en la primera década de este siglo, como respuesta a la proliferación de rumores, bulos y narrativas políticas sesgadas. Hoy, según datos de la Universidad de Duke (EEUU), existen 446 organizaciones de verificación en 102 países. Desde pioneras como Factcheck.org (2003) o Channel 4 Fact Check en el Reino Unido, este ecosistema ha evolucionado hacia una red global de proyectos con valores como la imparcialidad, búsqueda de neutralidad, investigación rigurosa de fuentes, ética profesional y enfoque en temas de interés público, que comparten con el periodismo. 

Aunque muchas de estas iniciativas han nacido en redacciones periodísticas, también proliferan ONGs, proyectos universitarios o plataformas ciudadanas con un objetivo común: mejorar la calidad del debate público. Todas ellas buscan fortalecer la confianza a través de metodologías rigurosas y transparentes, explicando paso a paso cómo se contrasta la información, qué fuentes se consultan y qué herramientas se utilizan.

 

La llegada de la IA al fact-checking

La inteligencia artificial también ha llegado a la industria del fact-checking. Ante una “infodemia” marcada por la velocidad y el volumen de bulos (muchos generados ya por sistemas de IA), los verificadores de datos se ven obligados a incorporar algoritmos para detectar patrones, rastrear narrativas y agilizar procesos.

Según vemos en el estudio, entre otras funcionalidades, la inteligencia artificial permite las organizaciones:

  • Monitorizar campañas de desinformación, mediante el análisis masivo de texto y contenido audiovisual.

  • Detectar similitudes entre piezas sospechosas y contenidos ya verificados.

  • Automatizar tareas rutinarias, como transcripción de audio o traducción de materiales. 

  • Filtrar la información para revisión humana, acelerando la priorización de casos urgentes.

Pero, según vemos en el informe, aún persisten limitaciones: definir algorítmicamente qué es desinformación, contar con bases de datos fiables y superar la falta de “sentido común” en los modelos actuales. Por ello, el trabajo híbrido entre algoritmos y periodistas sigue siendo indispensable.

 

Ejemplos en Iberoamérica y la Península Ibérica

El estudio analiza experiencias concretas de verificadores de datos en varios países de ambos lados del Atlántico:

Brasil: durante las elecciones de 2022, Lupa lanzó un asistente que recibía bulos de los ciudadanos para análisis humano, mientras que Aos Fatos desarrolló Fátima, un sistema que monitorea la web en búsqueda de desinformación viral.

Portugal: la agencia de noticias Lusa lidera ContraFake, un proyecto que combina IA y recursos tecnológicos para apoyar a periodistas y ciudadanos frente a campañas de manipulación.

España: Newtral ofrece un chatbot vía WhatsApp para solicitar verificaciones y utiliza IA para transcripciones y autenticación de contenido. Por su parte, Maldita.es incorpora chatbots y sistemas predictivos para anticipar olas de desinformación.

Argentina: Chequeado creó Chequeabot, disponible en siete países, que transcribe audios y vídeos en tiempo real, especialmente útil durante debates políticos.

 

 

Los chatbots permiten consultar en tiempo real la veracidad de las afirmaciones, transcribir y analizar contenidos audiovisuales o monitorear redes sociales para rastrear bulos emergentes. Además, se han transformado en una de las herramientas más visibles y eficaces para acercar la verificación a los ciudadanos, que se convierten en colaboradores activos en la lucha contra la desinformación. 

Las preguntas de los usuarios que interactúan con el chatbot sirven como fuente de referencias cruzadas a través de la IA, que se incorporan al repositorio de comprobaciones, como en el caso de Maldita. Esto permite al verificador español anticipar olas estacionales o temas de desinformación y, de manera preventiva, trabajar en la educación mediática. 

 

Tres niveles de implementación de la IA

Los investigadores del estudio han identificado tres grados de integración de la IA en el fact-checking. En todos los niveles, es fundamental una revisión humana para reforzar la credibilidad del proceso. 

  1. Nivel instrumental: uso de herramientas de IA de terceros para respaldar rutinas de verificación de datos (como la transcripción de audio y vídeo, traducción o búsqueda inversa de imágenes), que provienen de grandes tecnológicas como OpenAI, Meta o Google y se utilizan mediante suscripción.

  2. Nivel experimental: desarrollo de proyectos piloto o laboratorios de innovación para probar herramientas de IA diseñadas específicamente para la verificación de datos o las investigaciones periodísticas. (Puedes descargar nuestro whitepaper exclusivo sobre IA y periodismo, en el que recogemos una lista de 60 IAs, entre las que se encuentran herramientas de verificación y análisis de datos más utilizadas por los periodistas en España y Latinoamérica). A este nivel, la implementación de la IA busca ser accesible a otros contextos o entornos, como centros de investigación universitarios (Chequeado y Aletheia).

  3. Nivel disruptivo: el nivel más avanzado de implementación, en el que las organizaciones crean internamente sistemas propios de IA con capacidades predictivas. En este nivel, verificadores como Maldita y Chequeado desarrollan herramientas que identifican narrativas emergentes y, además, las comercializan a otras instituciones, sirviendo como herramienta de monetización. 

 

Financiación y sostenibilidad

La independencia financiera es un pilar fundamental para la credibilidad de los verificadores. Según recalca el estudio, el acceso a fondos filantrópicos, subvenciones internacionales y donaciones ciudadanas les permite mantener su autonomía frente a gobiernos y empresas. Además, como hemos visto anteriormente, Maldita o Chequeado desarrollan tecnología propia (chatbots, sistemas de monitorización…) que luego comercializan a otras instituciones, generando ingresos adicionales. Esta estrategia fortalece su sostenibilidad y, a la vez, impulsa la innovación en el ecosistema global de verificación.

Para formar parte de redes internacionales de verificación, como European Fact-Checking Standard Network (EFCSN) o la International Fact-Checking Network (IFCN), las organizaciones deben cumplir con altos estándares de transparencia, especialmente en lo relativo a sus fuentes de financiación. En concreto, uno de los requisitos clave para la certificación es la prohibición de recibir apoyo financiero de gobiernos o grandes compañías que pudieran comprometer su independencia editorial. (Ver nuestro anterior artículo del blog: Cómo identificar las Fake News. El Fact-Checking).

 

Retos y perspectivas

Aunque se ha avanzado mucho, aún quedan desafíos clave en el campo de la inteligencia artificial aplicada a la verificación de datos:

  • Definir estándares globales sobre el uso ético de la IA en la verificación.
  • Garantizar la transparencia algorítmica para reforzar la confianza ciudadana.
  • Acceder a bases de datos fiables y compartidas internacionalmente.
  • Superar los sesgos de la IA y evitar que se convierta en un nuevo vector de desinformación.

Los autores del estudio proponen fortalecer la cooperación internacional y endurecer los marcos legislativos contra la desinformación. En España, por ejemplo, no existe una ley específica, pero sí normativas audiovisuales y digitales que refuerzan la veracidad de los contenidos y apuestan por la educación mediática. 

 

Fuente: Canavilhas, J., e Ito, L. (2025). Sobre el servicio de verificación de datos: Usos de la inteligencia artificial en los verificadores de datos iberoamericanos. Ciencias Sociales, 14(9), 514. https://doi.org/10.3390/socsci14090514