¿Hablamos?
¿Hablamos?

 

bCube (1)

 

3 minutos de lectura

Guía del periodista para detectar contenido generado por IA

Featured Image

Detectar contenido generado por IA ya no es opcional: vídeos, audios e imágenes manipuladas se difunden a gran velocidad. GIJN, red global de periodismo de investigación, ofrece a los periodistas herramientas y técnicas para identificar información falsa, para proteger la veracidad y mantener la credibilidad.

 

La desinformación avanza casi a la misma velocidad que la información veraz. Hoy en día, un vídeo falso de un líder político o un audio manipulado pueden hacerse virales en minutos, poniendo a prueba a los periodistas que trabajan contra reloj. Frente a este escenario, la Red Global de Periodismo de Investigación (GIJN por sus siglas en inglés) ha publicado una interesante guía práctica para ayudar a los profesionales a reconocer qué es real y qué ha sido creado por IA. 

El manual, elaborado por Henk Van Ess, pionero en investigación digital basada en IA y verificación, reúne siete categorías de detección, que todo periodista debería dominar. El objetivo no es tanto lograr una certeza absoluta (algo casi imposible), sino llegar a un juicio editorial informado, apoyado en múltiples evidencias.

 

7 categorías de detección

 

1. Fallos anatómicos y objetos imposibles

Si en una imagen algo parece demasiado bueno para ser verdad, puede que sea falsa y creada por IA, por ejemplo, una estética de revista en contextos donde ese nivel de cuidado sería imposible o inapropiado, como crisis, conflictos o desastres naturales.

La inteligencia artificial aún tropieza con detalles sutiles. Manos con dedos extra, rostros excesivamente simétricos o escenas demasiado perfectas para contextos de crisis. Las imágenes reales muestran desgaste, asimetrías y desorden que la máquina no siempre imita bien. La guía sugiere la herramienta Forensically, para analizar imágenes en profundidad.

 

2. Violaciones de la física geométrica

Las leyes de la física son un reto para la IA. Reflejos inconsistentes, sombras en direcciones opuestas o perspectivas que no encajan revelan la manipulación. 

El manual aconseja revisar los puntos de fuga de las imágenes, las artificiales muchas veces no coinciden. 

 



vías tren IA   Vías tren Kyle Rosenblad Pixabay

Izqda. Imagen generada por Gemini (IA de Google) Dcha: Imagen real de Kyle Rosenblad en Pixabay.

 

 

3. Huellas técnicas y análisis de pixeles

Cada archivo digital guarda rastros invisibles. En el caso de las creaciones de IA, dejan patrones matemáticos y correlaciones de píxeles que delatan su origen. Es como una prueba de ADN que demuestra que algo fue creado por inteligencia artificial. 

Para detectarlo, los periodistas pueden utilizar la tecnología de TrueMedia.org, que permite identificar IA en audio, imágenes o vídeo. Entre los ejemplos recientes de deepfakes detectados por la herramienta se incluyen una supuesta foto del arresto de Donald Trump y otra del presidente Biden con altos mandos militares.

 

arresto Trump IA

fFuente: imagen creada por IA. Twitter.

 

La guía sugiere que antes de analizar imágenes sospechosas, los profesionales suban la foto al Asistente de verificación de imágenes de Verify Media, que proporciona un porcentaje de probabilidad de falsificación. Para una investigación más profunda, se puede realizar una detección técnica de patrones matemáticos exclusivos de la IA a través del análisis de dominio de frecuencia.

 

4. Voces demasiado perfectas

El habla sintética se traiciona a sí misma. La tecnología de clonación de voz puede replicar la de cualquier persona a partir de segundos de audio, pero deja rastros que se pueden detectar en los patrones de habla, la autenticidad emocional y las características acústicas.

Las voces clonadas suenan fluidas, pero carecen de respiraciones, vacilaciones o ruido ambiente. El resultado: un audio limpio en exceso y con inflexiones robóticas.

Herramienta útil: Hiya Deepfake Voice Detector, un sencillo plugin de Chrome, aunque no es 100% preciso en todos los casos. También se puede transcribir (por ejemplo, con Notta.ai) y hacer un análisis semántico (utilizando alguna IA, como Claude). 

La mejor defensa es jugar con las mismas armas: usar la inteligencia artificial para detectar la inteligencia artificial.

 

5. El contexto no encaja

Una playa soleada en pleno invierno, un teléfono de última generación en una foto de hace diez años o uniformes que no corresponden a un conflicto: la IA no siempre entiende la lógica temporal y contextual. 

La guía aconseja a los periodistas comparar siempre las imágenes con fuentes externas fiables.

 

6. Multitudes sospechosas

Los modelos de inteligencia artificial pueden replicar la apariencia humana, pero tienen dificultades para reproducir el comportamiento humano auténtico, la dinámica social o los patrones naturales de interacción. 

 

protestas creada con chatGPT

Imagen creada por ChatGPT.

 

Como vemos en la imagen, la IA crea multitudes y personas que parecen reales de un primer vistazo, pero fallan en el comportamiento, ya que todas miran al mismo lugar, muestran gestos idénticos o una uniformidad antinatural.

 

7. Confiar en el instinto

La intuición también cuenta. El cerebro humano es un detector de patrones entrenado durante millones de años. Si algo “no cuadra”, probablemente merezca una segunda revisión. 

La guía de GIJN recuerda que la detección perfecta quizá nunca exista. La misión del periodismo es combinar herramientas técnicas, criterios editoriales sólidos y, cuando sea necesario, usar la propia inteligencia artificial para desenmascarar a la IA. 

 

Recomendaciones de INCIBE

INCIBE, el Instituto Nacional de Ciberseguridad, también ofrece pistas y recomendaciones para identificar el contenido falso generado por inteligencia artificial. Y es que los ciberdelincuentes están utilizando la capacidad de la IA para generar contenido falso con diversos propósitos: desde el fraude y difamación hasta la manipulación política y social. 

El organismo español incide en que para detectar el contenido falso, es clave verificar la fuente, y asegurarse de que proviene de medios confiables. También conviene analizar la calidad del contenido: 

  • en los textos, revisar la coherencia y gramática.

  • en las imágenes, observar detalles como proporciones, iluminación y sombras.

  • en vídeos, notar movimientos faciales, parpadeos y sincronización con el sonido.

  • en audio, detectar variaciones de tono, ritmo y ruido de fondo inusuales.

Además, desde INCIBE señalan que es muy importante comprobar que el contenido sea consistente con el contexto y el estilo de quien lo produce.

 

Herramientas de detección de IA

Para texto: plagiarismdetector, GPTZero y CopyLeaks analizan patrones lingüísticos y estructuras gramaticales para determinar si el contenido fue generado por IA. 

Para multimedia: herramientas como VerifAI, Deepware, Illuminarty, Resemble Detect, AI or Not, VerificAudio, Forensicall, TrueMedia.org o Hiya Deepfake Voice Detector permiten identificar deepfakes, audios y vídeos manipulados mediante inteligencia artificial, aportando un análisis más profundo y preciso.

 

Suscríbete