Con la creciente incorporación de la inteligencia artificial en los medios, es vital revisar los principios éticos y la calidad del periodismo. En este artículo, exploramos los riesgos que la IA plantea en las redacciones, desde una perspectiva deontológica. La falta de transparencia y responsabilidad en su uso podría impactar seriamente el futuro de la profesión periodística. Actuar de manera preventiva es esencial para garantizar un periodismo ético y confiable.
El uso de la inteligencia artificial en el periodismo está transformando la manera en la que se crean y distribuyen las noticias. Desde la automatización de contenidos hasta el análisis de grandes volúmenes de datos, la IA ofrece un potencial innovador sin precedentes.
Sin embargo, junto a estas ventajas surgen también serios problemas éticos, como el sesgo algorítmico, la privacidad de los datos o la proliferación de fake news, que ponen en jaque la credibilidad periodística y la responsabilidad de los medios.
El creciente uso de la IA en las redacciones plantea preguntas sobre la transparencia, la verificación de hechos y el impacto en la ética profesional, lo que obliga a repensar el rol de la inteligencia artificial en la búsqueda de una información veraz y responsable.
En su artículo Los desafíos éticos del periodismo en la era de la inteligencia artificial, María José Ufarte Ruiz, Luis Mauricio Calvo Rubio y Francisco José Murcia Verdú exploran los problemas éticos asociados con el uso de IA en la creación y distribución de noticias. En la investigación, que data de 2021, cuando el uso de esta tecnología en los medios era aún muy incipiente, ya se señalaba que la IA en el ámbito periodístico abre debates que van más allá de la sustitución del individuo por la máquina, y que se trasladan al campo de la deontología profesional.
Los resultados del estudio evidenciaron, entre otras cuestiones, que era necesario revisar el Código Deontológico de la FAPE para adaptarlo al periodismo automatizado, sobre todo en materia de autoría, elaboración, transparencia y jerarquización de las informaciones redactadas a través de la inteligencia artificial. Un código que nació en 1993 y fue actualizado por última vez en 2017. En la última Asamblea General de la Federación de Asociaciones de Periodistas de España, celebrada el pasado abril, se aprobó estudiar la modificación del Código en base a las nuevas tecnologías. Para ello, se ha creado un grupo de trabajo, formado por expertos y periodistas, para analizar la regularización del uso en los medios de la IA.
En febrero de 2022, otro interesante estudio, Algoritmos en las redacciones: retos y recomendaciones para dotar a la inteligencia artificial de valores éticos del periodismo, elaborado por el Consell de la Informació de Catalunya, ofrece una reflexión crítica sobre la gestión algorítmica de la información por parte de los medios. Un informe que tenía como finalidad dotar al periodismo de herramientas para convertirse en referente de la tecnoética de la comunicación.
El documento recalca que los nuevos dilemas éticos tendrán que entenderse como variantes de los valores básicos que fundamentan el periodismo: la verdad, la justicia, la libertad y la responsabilidad. El Consell catalán hace una serie de recomendaciones para dotar a la inteligencia artificial de estos valores, desde la convicción de que la IA puede convertirse en una potente herramienta editorial. Eso sí, siempre que su uso esté guiado por el compromiso con la calidad informativa y la misión periodística de servicio público.
Entre sus recomendaciones, figuran las siguientes:
En este sentido, en el reciente evento AInnovación, se enfatizó la necesidad de que el periodista tiene que tener el control en todo momento y estar a los mandos de la inteligencia artificial, que es únicamente una herramienta de ayuda para que los medios creen contenido más rápidamente, sin descuidar la calidad. Una herramienta que debe ser usada con responsabilidad.
De ello también se habló en la VI Cumbre Mundial de Medios que se celebró a mediados de este mes en China. Tras el encuentro, se emitió una declaración conjunta que enfatiza la importancia de adoptar racionalmente las tecnologías de IA, al tiempo que se defiende la ética periodística y los estándares profesionales. Además, en el evento se presentó un informe de un grupo de expertos sobre responsabilidad y misión de los medios en la era de la inteligencia artificial, publicado por el instituto Xinhua, afiliado a la agencia de noticias estatal china. El documento examina las oportunidades y retos a los que se enfrentan los medios mundiales en la era de la IA.
El pasado septiembre, la UNESCO advirtió sobre los riesgos de la IA generativa en el periodismo, señalando de que aunque tiene el potencial de transformar el sector, es vital que su desarrollo sea regulado para promover la ética, la diversidad cultural y los derechos de autor, protegiendo así la integridad de la información y la sostenibilidad de los medios.
Fuente: UNESCO.
En su informe La IA y el futuro del periodismo, el organismo lanza una serie de mensajes clave respecto al cumplimiento de las leyes de derechos de autor, acuerdos de compensación justos a los medios por utilizar su contenido, la creación de información falsa y, sobre todo, hace un llamamiento a la transparencia en su uso.
Así, la UNESCO subraya que las empresas de IA deben ser claras sobre cómo recopilan y utilizan datos, y tienen que asegurar que el contenido generado esté adecuadamente acreditado a sus fuentes originales. Además, recalca la necesidad de implementar mecanismos que garanticen la autenticidad de la información.
A pesar de que, como vemos,cada vez hay más voces alertando de riesgos y desafíos, aún no existe un marco ético, común y unificado, como señala el Ministerio español para la Transformación Digital y de la Función Pública en su blog. En el artículo, recalca que los grandes grupos de comunicación están invirtiendo sus esfuerzos en desarrollar principios éticos específicos para el uso de la IA en la creación y difusión de contenidos, para paliar así el vacío que existe en los grandes marcos o incluso en el Reglamento Europeo.
Las universidades españolas están integrando también de manera creciente en sus estudios de periodismo la reflexión ética sobre el uso de la inteligencia artificial, conscientes de la importancia de formar profesionales sensibilizados con el empleo responsable de esta tecnología en la creación y difusión de noticias. Asimismo, están creando distintos grupos de investigación para explorar la dimensión ética del periodismo automatizado.
———
En Bitban Technologies estamos desarrollando distintas soluciones de IA para bCube CMS, con el objetivo de facilitar el trabajo de las redacciones y periodistas. Nuestro enfoque con la inteligencia artificial se basa en respetar la ética periodística y fomentar la calidad de la información de nuestros clientes, grandes medios de comunicación.
Así, el sistema se adaptará al estilo del medio, obteniendo patrones y sintetizando una serie de guías o reglas basadas en los distintos documentos de estilo, códigos deontológicos, estatutos o documentos de gobernanza de los distintos grupos editoriales.