Monográfico junio 2022. Interacción del Marketing y la Inteligencia Artificial

Verificación automatizada de contenidos en las radiotelevisiones públicas europeas: primeras aproximaciones al uso de la inteligencia artificial

Automated content verification in European public broadcast media: initial analysis of the use of artificial intelligence

Cesar Fieiras Ceide
Universidade de Santiago de Compostela, España
Martín Vaz Álvarez
Universidade de Santiago de Compostela, España
Miguel Túñez López
Universidade de Santiago de Compostela, España

Verificación automatizada de contenidos en las radiotelevisiones públicas europeas: primeras aproximaciones al uso de la inteligencia artificial

REDMARKA. Revista de marketing aplicado, vol. 26, núm. 1, pp. 36-51, 2022

Universidade da Coruña

Compartir — copiar y redistribuir el material en cualquier medio o formato Adaptar — remezclar, transformar y construir a partir del material para cualquier propósito, incluso comercialmente.

Recepción: 20 Enero 2022

Aprobación: 10 Junio 2022

Resumen: La proliferación de noticias falsas en el renovado contexto digital se erige como uno de los problemas centrales a los que se enfrentan los medios de comunicación. Se ha comprobado que, para atajar la desinformación, no basta con la aplicación de soluciones tecnológicas, ya que se trata de una cuestión estructural que debe ser contenida desde la raíz: la alfabetización mediática desde la juventud para el desarrollo de un pensamiento crítico. Con todo, el uso de herramientas basadas en la automatización o la inteligencia artificial (IA) simplifica la tarea de verificación de contenidos y de rastreo de falsedades, permitiendo un análisis inmediato de grandes volúmenes de información. En el caso concreto de las radiotelevisiones públicas europeas, las 8 entrevistas en profundidad realizadas para el presente estudio a responsables de innovación e inteligencia artificial en radiotelevisiones públicas revelan que ya han comenzado a implementar estas soluciones en sus procesos de producción, lo que supone un paso adelante hacia una mitigación efectiva de la desinformación.

Palabras clave: noticias falsas, verificación, inteligencia artificial, automatización, periodismo, comunicación, internet, radiotelevisiones públicas.

Abstract: The proliferation of fake news in the new digital era is one of the main problems facing the media. Technological solutions alone are not enough to tackle misinformation, as the problem is a structural one requiring root cause solutions, such as the promotion of media literacy from a young age to develop critical thinking. The use of tools based on automation or artificial intelligence (AI) simplifies the task of verifying content and tracing false information, and allows large volumes of information to be analysed quickly. The eight in-depth interviews conducted for this study with heads of innovation and artificial intelligence at European public broadcasters reveal that these solutions have already begun to be implemented as part of their production processes. This represents a step in the right direction towards mitigating the problem of misinformation in the future.

Keywords: fake news, verification, artificial intelligence, automation, journalism, communication, internet, public broadcast media.

1. INTRODUCCIÓN. LAS FAKE NEWS EN EL ECOSISTEMA DE MEDIOS

El registro de la primera noticia falsa en la historia contemporánea data de 1835, fue publicada por The Sun y relataba la existencia de seres vivos en la Luna (Abad, 2019). El impacto en el país norteamericano fue enorme, y se acentuó por la irrupción de tres factores fundamentales que facilitaron el acceso a la información y la propagación de ésta: la creación de grandes empresas dedicadas a la prensa, la bajada en el precio de los periódicos y la llegada de nuevos transportes como los barcos y los trenes.

La desinformación ha estado presente desde los orígenes de los medios de comunicación, agravándose en momentos de crisis o conflictos bélicos (Bloch, 1999). Para combatirla se han desarrollado prácticas como el fact-checking, una técnica periodística basada en la comprobación y verificación de informaciones publicadas en los medios (Mantzarlis, 2018). Su propósito, según Gueham (2017), es paliar el impacto de la distribución de fake news, que es cada vez más masiva e incontrolable debido a la expansión de los entornos digitales y plataformas sociales (Lopez-Borrull; Vives-Gràcia; Badell, 2018).

Vázquez-Herrero, Vizoso y López García (2019) analizan la figura del fact-checker, un periodista concentrado en la comprobación y verificación de datos y discursos, con el objetivo de localizar incoherencias o inexactitudes (Graves, 2016, p. 77). Para ello, recurren a diferentes aplicaciones tecnológicas que analizan grandes volúmenes de información y de bases documentales (Brandtzaeg et al., 2018). Mantzarlis (2018) establece 3 fases diferenciadas en el proceso de verificación: la búsqueda de declaraciones verificables; el rastreo de los propios hechos originales mediante la consulta de la fuente de información que los apoye; y la corrección y matización del contenido presentando las evidencias pertinentes.

Con respecto al término posverdad, Fernández-García (2017) lo define como una “falsedad” que sigue siendo aceptada por parte de la sociedad a pesar de saberse que es un hecho falso. Las redes sociales son las nuevas líderes de información en internet, un espacio donde existen filtros como los recomendadores de contenido que impiden que lleguen a nosotros puntos de vista que difieran de los nuestros, lo que acaba por crear la burbuja informativa que puede derivar en una grave falta de sentido crítico (Pariser, 2017, p.11).

La consolidación del uso de redes sociales deriva en un aumento de la proliferación de las fake news, lo que dificulta la confianza en determinadas informaciones. La carrera electoral entre Donald Trump y Hillary Clinton marcó un antes y un después en la trayectoria de las noticias falsas en internet, ya que a partir de ahí no solo fueron normalizadas, sino que se convirtieron en un nuevo y demoledor instrumento político de propaganda (Journell, 2017). Según Mcnair (2018), este fenómeno tiene su base en el “auge de los populismos y los nacionalismos y el desprestigio de las élites y los medios de comunicación”.

2. MARCO TEÓRICO. EL PAPEL DE LA INTELIGENCIA ARTIFICIAL EN EL PERIODISMO ACTUAL

Silverman (2013) apunta que la inteligencia artificial (IA) mejora “la calidad y precisión del periodismo” al permitir una verificación en directo y una identificación de errores más efectiva, así como la detección del plagio o la manipulación. Este “periodismo artificial” (Tuñez, Toural y Valdiviezo, 2019) o “automated journalism” (Carlson, 2015; Graefe, 2016), “algorithm journalism” (Diakopoulos, 2014; Dörr, 2016), o “robot journalism” (Oremus, 2015), reemplaza determinadas funciones de los profesionales de la información con algoritmos, pero no debe entenderse como rival, sino como un nuevo aliado para mejorar la creación de la historia.

La aplicación de la IA no solo se limita a la prensa escrita o a las noticias automatizadas, sino que se ha extendido a todos los apartados del newsmaking (Túñez, Toural y Frazão, 2020). Se emplea en la mayoría de procesos de la cadena de producción periodística, tanto en la generación de alertas, notificaciones y recomendaciones como en la asistencia a los informadores en la verificación, comercialización, y, principalmente, en la automatización inteligente del flujo de trabajo para la creación de historias y cobertura en directo de acontecimientos (Rojas-Torrijos, 2018).

En la próxima década impactará sobre el sector de la comunicación una nueva ola tecnológica, la que tendrá como protagonistas a la inteligencia artificial, el big data y a las nuevas interfaces visuales y basada en voz (Newman, 2020). Este uso a gran escala de datos e IA supone la cuarta etapa en la digitalización del periodismo tras los medios online, móviles y sociales (EBU, 2017). “La transcripción, la traducción automatizada y los servicios de texto a voz serán algunas de las primeras tecnologías impulsadas por la IA que alcanzarán una adopción masiva este año, abriendo nuevas fronteras y oportunidades para los editores” (Newman, 2020).

En el desarrollo de soluciones inteligentes se han identificado dos tipos de tendencias en los medios de comunicación: los que han creado su propio software o los que han acudido a empresas proveedoras (Rojas-Torrijos, 2018). The Washington Post ha sido una de las cabeceras que desarrolló su propio sistema basado en IA, llamado Heliograf. Este proyecto consiste en una plantilla creada por periodistas que es rellenada por la tecnología basada en inteligencia artificial con los útlimos datos disponibles sobre la materia objeto de trabajo. Posteriormente, esos textos se convierten en artículos ya preparados para ser distribuidos (Universidad Fasta, 2020). Con Heliograf se generan automáticamente titulares y breves que proyectan a través de Twitter y Messenger de Facebook, entre otros canales.

En el caso concreto de los medios de servicio público (Public Service Media -PSM- en inglés), la IA brinda nuevas oportunidades en todas sus facetas. En la BBC se ha testado la traducción automática de idiomas y la tecnología de voz sintetizada en la puesta en marcha de su servicio de vídeo japonés. También emplearon un software inteligente para publicar 689 historias locales en escasas horas durante la noche de las elecciones de diciembre de 2019 (Newman, 2020). Tanto la BBC como Deutsche Welle y SRG-SSR en Suiza son algunas de las emisoras públicas que trabajan intensamente con tecnologías lingüísticas, de hecho, BBC World Service ya opera en más de 40 idiomas (EBU, 2019).

En la producción de contenido, la inteligencia artificial puede contribuir con la misión de los PSM al analizar la toma de decisiones algorítmicas con el objetivo de detectar sesgos y manipulación, ofreciendo nuevas técnicas de verificación que refuerzan la confianza en el periodismo (EBU, 2019). La European Broadcasting Union (2019) prevé oportunidades interesantes para los medios de servicio público a partir del avance de tecnologías del lenguaje, como son la traducción automática, el reconocimiento de voz y la generación de voz y texto.

Tabla 1
Beneficios de la aplicación de IA en los medios
Detectar tendencias en redes sociales
Obtener consejos para romper tendencias
Obtener ángulos de la historia, imágenes y personas sugeridas a través de una búsqueda en línea
Verificación de hechos
Verificación de fotos y vídeos falsos
Comprobación de falsificaciones profundas
Encontrar direcciones de correo electrónico conectadas a sitios web
Descubrir bots en redes sociales
Transcripción de audio
Creación de historias a partir de datos estructurados
Traducción automática de textos
Corrección automática de textos
Asistencia de la IA en la edición de vídeo
Edición automática de audio
Automatización de los flujos de trabajos
Análisis predictivos para generar ingresos y aumentar la satisfacción de los clientes
Creación de un chatbot
Limpieza y filtración de los datos
elaboración propia a partir de European Broadcasting Union, 2019

Para garantizar la protección de la información personal y de la privacidad las corporaciones deben cumplir con las regulaciones nacionales y las de la UE. En concreto, la General Data Protection Regulation (GDPR), en vigor desde el 25 de mayo de 2018, es la normativa europea que se encarga de este apartado y “prevé la ampliación de los derechos de los usuarios a proteger la información personal, incluido el derecho a ser informados sobre el tratamiento de sus datos y el derecho al olvido” (Sørensen y Van den Bulck, 2020).

Tortoise Media (2021) elaboró un índice global de inteligencia artificial que estudia cómo 62 países aplican y se adaptan al desarrollo de esta nueva corriente tecnológica. Lo hacen a través de tres pilares: inversión, innovación e implementación. Reino Unido, primera nación europea y número tres mundial después de los EEUU y China, es la tercera mejor valorada en cuanto a talento, solo por detrás de los propios EEUU y la India. Países Bajos y Alemania cierran el podio Europeo, mientras que España no entra en la lista de las 10 regiones más avanzadas, localizándose en undécima posición. Aún así, la estrategia de gobierno española es la cuarta mejor valorada por el índice.

Tabla 2
Ranking europeo de IA posiciones globales
PaísTalentoInfraestructuraEntornoOperativoInvestigaciónDesarrolloEstrategia de gobiernoComercialRanking global
1. Reino Unido323245111143
2. Países Bajos691015833188
3. Alemania1113306121089
4. Francia91417161551010
5. Irlanda8531287252512
6. Finlandia162218172082113
7. Dinamarca1318111332182614
8. Luxemburgo183332317302015
9. Suiza14115431358918
10. Suecia1017341122472219
11. España211923262942821
elaboración propia a partir de Tortoise Media, 2021

3. METODOLOGÍA

Esta investigación se plantea a modo exploratorio descriptivo con hipótesis ciega. Se opta por emplear métodos cualitativos y se recurre a la realización de entrevistas personales en profundidad a los directores de innovación, estrategia e inteligencia artificial de las de las televisiones públicas de Alemania (ARD) Austria (ORF), Bélgica (VRT), España (RTVE), Gran Bretaña (BBC), Italia (RAI), Suiza (RTS), así como a miembros de la EBU; a modo de Delphi y en dos vueltas.

Se selecciona una muestra intencional de conveniencia que se amplía en modo bola de nieve a partir de las aportaciones de los entrevistados y se realiza una segunda consulta para matizar detalles de la información recolectada. Se trabaja con cuestionario semiestructurado que nunca superó las 12 preguntas y en el que se incluyeron cuestiones específicas en función de la corporación entrevistada. Aún así, los bloques principales en todas ellas fueron: aplicación de la inteligencia artificial en la verificación de contenidos; sistemas de detección y rastreo de noticias falsas; avance y desarrollo de las estrategias de innovación de las radiotelevisiones; y previsión y retos de futuro con respecto a las fake news.

Se realizaron 25 contactos y se validó finalmente una muestra de conveniencia en la que estuvieran representados PSM de los tres modelos mediáticos descritos por Hallin y Mancini (2004). El panel final de 8 entrevistados quedó integrado por:

Tabla 3
Relación de entrevistados corporación y cargo
ABREVIATURANOMBRECORPORACIÓNCARGO
(AM/RAI)Alberto MessinaRAIDirector del área de I+D
(AJ/EBU)Atte JääskeläinenEBUProfessor en LUT University y asesor en la EBU
(DC/RTVE)David CorralRTVEResponsable de innovación en contenidos
(JA/BBC)Jatin AythoraBBCArquitecto jefe, responsable de IA
(KP/ORF)Karl PetermichlORFResponsable de gobernanza, estrategia e innovación
(LB/RTS/EBU)Léonard BouchetRTS/EBULíder de datos y archivos en RTS; Codirector de IA en EBU
(MM/ VRT)Mike MattonVRTResponsable de colaboraciones internacionales de innovación
(RA/ZDF)Robert AmlungZDFDirector de estrategia digital
elaboración propia

De esta forma, por modelos, quedan representados el modelo pluralista polarizado con RTVE y Rai; por el modelo corporativista-democrático la ORF, VRT, RTS y ZDF; y por último el modelo liberal con la BBC.

Tabla 4
Relación de corporaciones participantes en el estudio con el modelo definido por Hallin y Mancini 2004
PLURALISTA POLARIZADOCORPORATIVISTA DEMOCRÁTICOLIBERALOTROS
RAI (Italia) RTVE (España)ARD (Alemania) ORF (Austria) RTS (Suiza) VRT (Bélgica) ZDF (Alemania)BBC (Gran Bretaña)European Broadcasting Union (EBU)
elaboración propia

Las entrevistas se realizaron entre el 17 de abril de 2020 y el 3 de marzo de 2021 a través de las plataformas Skype, Zoom y Meetings de Google, con una duración situada entre los 30 y los 40 minutos. El 1 de abril de 2020 comenzó la primera ronda de contacto a los correos corporativos de las radiotelevisiones, para posteriormente afinar y conseguir el contacto personal de cada uno de los profesionales de interés. La transcripción y traducción del material se realizó paralelamente a su recogida, mientras que el análisis de los resultados comenzó una vez se cerró este periodo.

La triangulación metodológica se consigue a través de un barrido bibliográfico de la literatura científica sobre la aplicación de la IA en los medios de comunicación y la problemática de las noticias falsas en el contexto global de comunicación, además de una revisión de los sitios y plataformas web de las corporaciones contactadas, con el objetivo de contextualizar las preguntas y verificar las respuestas de los entrevistados.

4. RESULTADOS

4.1. Inteligencia artificial vs noticias falsas en las radiotelevisiones públicas europeas

La desinformación ocasionada por la proliferación de las fake news es uno de los problemas angulares a los que se enfrentan los medios de servicio público (Public Service Media, -PSM- en inglés) a la hora de defender y cumplir con su misión. En ello coinciden el conjunto de entrevistados para el presente estudio, que alegan que parte de las soluciones que están implementando y desarrollando tienen como base la automatización y la inteligencia artificial.

El nuevo contexto digital ha multiplicado los canales a través de los que el contenido llega a la audiencia, por lo que es prácticamente imposible controlar todas las vías de distribución y ‘prohibir’ que se difundan mentiras. Es por ello que las soluciones automatizadas resuelven o agilizan parte del trabajo rutinario llevado a cabo por los verificadores, bien sean estos periodistas, o figuras asociadas a la labor comunicativa. En esta línea, la inteligencia artificial permite rastrear palabras claves, contrastar información y analizar grandes volúmenes de datos en tiempo récord.

Esta decisión permite a los profesionales de la información centrarse en tareas específicas de testeo, monitorización o logística, con un componente humano que desde las corporaciones entienden como insustituible, referenciando a la coherencia y pensamiento crítico como valores principales. Aun así, la combinación de recursos humanos y tecnológicos es crucial a la hora de concretar una estrategia eficaz que se adecúe a las características específicas de la realidad identificada.

Atte Jääskeläinen, asesor de la EBU, apunta que el principal problema reside en la mente humana, mentirosa, y a la que le gusta creerse las noticias falsas. No considera que la desinformación sea un “rompecabezas” con una fecha de caducidad concreta, sino que lo entiende como una condición que se perpetuará en el tiempo. Es por ello que no se muestra optimista en relación a las nuevas herramientas digitales que están irrumpiendo en el contexto de los medios de comunicación, a pesar de que las valora positivamente y las cataloga como necesarias para afrontar la situación desencadenada.

(AJ/EBU) “Hay una carrera interminable contra las fake news si se intenta hacer de la manera en que se hace ahora. El verdadero problema no es que alguien esté creando noticias falsas, y la resolución no es una especie de prohibición de noticias falsas y mentiras, siempre estarán ahí. El verdadero problema es que al cerebro humano le gusta mentir y le gusta creer en las mentiras”.

En la ZDF alemana refuerzan esta idea y van más allá. Aseguran que las fake news son “propaganda” y que para detectarlas es necesario entender el propósito final del actor que las proyecta. Robert Amlung, director de estrategia digital de la corporación, piensa que se debe “humanizar” la solución que se aplique, ya que en este caso concreto un razonamiento coherente y crítico puede ser más resolutivo que un algoritmo o un software determinado.

(RA/ZDF) “Creo que el tema de las noticias falsas es muy complejo, porque al final lo que son noticias falsas, es propaganda. Hay un propósito detrás de ellas y si realmente quieres detectarlas tienes que saber el propósito, eso te lleva a los actores. Al final en muchos casos lo más humano es lo que te lleva a descubrir todo esto”.

La solución que proponen desde la RTS de Suiza es ofrecer contenido de calidad y relevante desde las radiotelevisiones públicas para contrarrestar así el efecto de los bulos y de las burbujas de filtro. Apela Léonard Bouchet, líder de datos y archivos en RTS y codirector de IA en EBU, al poder e infraestructura de los medios de comunicación para fortalecer la relevancia de sus informaciones. El planteamiento de Bouchet se basa en una reacción del PSM fundamentada en la calidad de los contenidos ofrecidos a los usuarios.

(LB/RTS) “Creo que la parte más importante es producir un contenido relevante, bien docu-mentado y difundido en los medios, esto es muy poderoso. Creo que concentrarse en lo que hacemos mejor es nuestra oportunidad para luchar contra las noticias falsas, las burbujas de filtro, etcétera”.

Los PSM asumen que la cuestión de las noticias falsas no desaparecerá de un día para otro, sino que será un problema duradero para el que todavía no tienen muchas soluciones y que afectará de forma desigual a los diferentes sectores de la población. Las radiotelevisiones públicas europeas no están avanzadas en la protección y lucha contra la desinformación, y consideran que la labor que se hace en las escuelas y desde el propio gobierno con los discursos políticos deberían reforzar esta coyuntura.

El desarrollar herramientas útiles es costoso, por lo que corporaciones como RTVE crearon un departamento de verificación en el que emplean tecnologías de terceras plataformas como las de Google o Facebook y contrastan con el material de su archivo. Otras optan por construir alternativas propias, eso sí, mediante colaboraciones con más entidades. La escasez de recursos y de tiempo para implementar las soluciones dificulta en muchos casos su puesta en marcha, por lo que los medios optan por aplicaciones sencillas y generalistas, en vez de concretar sistemas precisos adaptados a sus estructuras.

(DC/RTVE) “Todas las corporaciones estamos peleando contra la desinformación. Nosotros tenemos un departamento de verificación en el que contrastamos con las herramientas que ofrecen Google, Facebook, o con recursos propios, contrastando con nuestro archivo. De momento no hemos desarrollado una herramienta propia anti fake news”.

La vulnerabilidad de sectores concretos de la población a las informaciones falsas, o la desigualdad latente en el impacto que tienen sobre segmentos de audiencia diferentes, es otra de las preocupaciones identificadas entre los profesionales consultados. A juicio de Alberto Messina, director de innovación de la Radiotelevisione Italiana, las mentiras han existido siempre, pero actualmente los medios se enfrentan a una situación inédita de la que solo se encuentran en una primera fase exploratoria. Nunca antes habían sido tan variados los recursos ni fuentes digitales disponibles, lo que complica el control, la competencia leal entre actores involucrados y, como no, la verificación.

(AM/RAI) “No estamos avanzados en la lucha contra las noticias falsas. Estamos empezando a entender qué tecnologías se pueden utilizar. Esto también está relacionado con la confianza, hay ciertas categorías de población que están más sujetas a ser acopladas por la desinformación”.

Las tipologías de fake news son tan variadas como las clases de herramientas que se están desarrollando para combatirlas. De la misma forma que la inteligencia artificial avanza y nutre nuevos sistemas, se desarrollan nuevas ‘trampas’ y ‘distribuidoras de mentiras’ igual de eficaces e innovadoras. Es por ello que la formación a los jóvenes para que estimulen su conciencia crítica y pongan en duda los discursos que reciben es una de las tareas a completar por parte de la sociedad.

En lo relativo a la dificultad para producir soluciones generales que sean efectivas en entornos específicos, desde la ORF exponen que no han descubierto ningún algoritmo que actúe y dé resultado en todos los contextos. Es por ello por lo que cada corporación está trabajando en adaptar los sistemas a sus estructuras, a pesar de que sea más costoso, complejo y lento.

Karl Petermichl, responsable de gobernanza, estrategia e innovación de la radiotelevisión pública de Austria, asegura que en repetidas situaciones ellos no disponen del tiempo necesario para desarrollar herramientas basadas en inteligencia artificial que respondan y cubran sus necesidades, ya que estas requieren de una fase de aprendizaje bastante larga que supera con creces el margen de reacción del que disponen.

(KP/ORF) “El video falso para los expertos tiene un significado muy amplio y no he encontrado un algoritmo que funcione en todos los contextos. Por ejemplo, este es un tipo de video falso porque tal vez este animal no debería estar en este lugar, como pingüinos en Madrid. No he encontrado un algoritmo que pudiera detectarlo, y en caso de haberlo, no sería el mismo que podría identificar un vídeo de declaraciones falsas de Trump”.

En el caso de la VRT, Mike Matton, responsable de colaboraciones internacionales de innovación, explica que desde su corporación apuestan por búsquedas inversas y aplicaciones sencillas con el objetivo de hacerlas accesibles y prácticas para los periodistas, y que así estos sean capaces de emplearlas de forma dinámica en su día a día. Consideran desde la VRT que con herramientas más complejas no serían capaces de ejecutar esta labor de forma permanente, ya que demoraría en sobremanera los procesos.

(MM/VRT) “Nuestros periodistas hacen búsquedas inversas para comprobar el contenido. Estamos tratando de reunir nuestras tecnologías en una plataforma más fácil de acceder para que no sólo los periodistas especializados puedan utilizarla”.

El uso del blockchain para completar un registro seguro y una distribución cifrada de las informaciones es otra de las técnicas a las que apuntan los medios. En concreto, Jatin Aythora, arquitecto jefe responsable de la IA en la BBC, asegura que desde la corporación británica pretenden realizar un rastreo de la hoja de ruta que toman sus informaciones para asegurarse de que han sido empleadas de forma adecuada, sin modificaciones ni sabotajes. Mientras que otras corporaciones recurren a listados para detectar noticias falsas en vídeos, imágenes y textos.

(JA/BBC) “Nuestra intención es utilizar blockchain y el aprendizaje automático para detectar automáticamente el contenido de la BBC que haya sido usado incorrectamente en otro medio. Adobe también proporciona herramientas para la verificación de noticias”.

4.2. Proyectos y herramientas contra noticias falsas en España

En el caso español, en los últimos años se han desarrollado múltiples soluciones digitales para ayudar a la población a detectar información falsa. Estas herramientas proceden de iniciativas tanto públicas como privadas, y abarcan todos los escenarios posibles: redes sociales, internet o incluso bulos que se difundan mediante el boca a boca en las relaciones interpersonales tradicionales. La especialización temática de estos proyectos también es diversa, y vaga entre propuestas más generalistas hasta otras centradas en temas políticos, sociales o sanitarios.

Tabla 5
Proyectos contra fake news en el ámbito español
PROYECTODESCRIPCIÓN
Maldita.esReúne las noticias falsas más difundidas por las redes sociales o los principales medios. Ofrece la posibilidad de contacto vía WhatsApp para verificar bulos distribuidos a través de esta propia aplicación de mensajería.
NewtralAnalizan y desmienten bulos o informaciones sobre distintos temas de actualidad. Tienen un servicio en Twitter a través del que confirman o desmienten rumores a quien lo solicite.
FacterbotBot que envía las últimas novedades en materia de noticias falsas que circulan por Facebook a través del Messenger de esta red social.
Oficina de seguridad del internautaFuente donde se cuelgan avisos y desmentidos de bulos de todas las temáticas, también trabajan sobre amenazas y consejos de ciberseguridad.
Salud sin bulosIniciativa de la Asociación de investigadores en eSalud (AIES) y COM SALUD que trata de frenar bulos y ofrecer información fiable y veraz sobre salud.
PoletikaProyecto que supervisa las noticias y declaraciones de políticos sobre todos los temas: educación, cambio climático, infancia, etc.
TragabulosSección del suplemento ‘Verne’ del diario ‘El País’ destinada a desmentir bulos e identificar noticias falsas e informaciones que se convierten en virales a través de Internet y de las redes sociales.
elaboración propia

5. CONCLUSIONES

Los medios de comunicación en el contexto global encaran una etapa de cambios constantes sin precedentes. Transformaciones que afectan a las rutinas productivas, a los canales de comunicación y plataformas, o a la relación con sus públicos y a las herramientas que emplean. El componente digital de sus estructuras es cada vez mayor, al igual que la necesidad de innovar para mantener la ventaja competitiva con el resto de los agentes involucrados. En este escenario, tecnologías basadas en la automatización o la inteligencia artificial cotizan al alza, consolidándose como una de las respuestas más efectivas y con mayor posibilidad de prolongarse en el futuro.

En esta línea de crecimiento constante de los entornos digitales, las fuentes de información son cada vez más diversas y abundantes, lo que imposibilita un control efectivo sobre ellas y complica el consumo de información veraz por parte de los usuarios. La sobreinformación a la que se exponen los públicos emana de esta oportunidad que se abre para nuevos operadores y plataformas de crear contenido y distribuir información sin ningún tipo de vigilancia.

La proliferación permanente y en escala de fake news es uno de los principales problemas a los que se enfrentan los medios de servicio público en esta nueva realidad. En el contexto europeo, las corporaciones ya han comenzado a implementar soluciones, las que se componen de recursos tanto humanos como tecnológicos, a pesar de que una de las conclusiones coincidentes entre estas operadoras es que no todas las herramientas son efectivas en cualquier entorno, sino que es necesario adaptarlas a las características concretas de cada medio de comunicación, lo que conlleva un largo tiempo de testeo y abundantes recursos económicos.

El principal contratiempo que destaca el conjunto de profesionales entrevistados a la hora de atajar las noticias falsas es la voluntariedad de la mente humana en crear y creerse las mentiras. Explican que este ha sido un dilema presente desde el nacimiento de los medios de comunicación, pero que ahora se ve potenciado exponencialmente con las nuevas tecnologías. Para luchar contra ello, consideran fundamental el trabajo con los más jóvenes desde las escuelas, para incidir en la etapa de formación en el desarrollo de un pensamiento crítico que ponga en duda los discursos recibidos.

Sin embargo, sin el aprovechamiento de las soluciones tecnológicas más innovadoras, en su mayoría basadas en sistemas de inteligencia artificial y en el machine learning, cualquier tarea de verificación, rastreo o monitorización de las informaciones se convierte en un imposible. La unión de estos recursos con la coherencia que se presupone del pensamiento humano esboza una solución más efectiva, ya que, mientras que las herramientas digitales liberan el grueso de trabajo y de volumen de información, los profesionales de la comunicación o verificadores implicados se pueden centrar en tareas en las que aporten un mayor valor añadido y en una toma de decisiones con resultados más eficaces.

Las herramientas empleadas por el PSM europeo parten de diferente origen, vagando entre soluciones personalizadas, de elaboración propia o subcontratadas, y herramientas generalistas de terceros o de código abierto. El impacto desigual sobre la población y la vulnerabilidad de algunos sectores de las audiencias preocupan a los profesionales entrevistados, que aseguran que las campañas gubernamentales de información y formación son necesarias para paliar el efecto de esta ola de mentiras.

Otra de las inquietudes de los medios participantes en el presente estudio reside en la accesibilidad de las aplicaciones implementadas, ya que se considera fundamental que estas sean fácilmente comprensibles por los periodistas para que estos sean capaces de emplearlas en el día a día y de exprimir todo su potencial. En su defecto, las corporaciones no dispondrán de profesionales con formación tecnológica suficiente para defender el uso dinámico y eficaz de estas herramientas, lo que sería inservible.

La solución a esta infección en el sistema de medios y en la sociedad no tiene aún una soluciíon definitiva. Más aún, los expertos aseguran que es necesario aprender a convivir con ella, pero son optimistas con respecto a las medidas que se pueden tomar para paliar su efecto, y se muestran firmes en su idea de que la mejor alternativa consiste en atacar el problema en su origen: la alfabetización de la ciudadanía.

Referencias

Abad, C. S. (2019). La primera “fake news” de la historia. Historia y comunicación social, 24 (2), 411.

Bloch, Marc (1999). Historia e historiadores. Madrid: Akal.

Brandtzaeg, Petter-Bae., Følstad, Asbjørn., y Chaparro-Domínguez, María-Ángeles (2018). How journalists and social media users perceive online fact-checking and verification services. Journalism practice, 12 (9), 1109-1129. https://doi.org/10.1080/17512786.2017.1363657

Carlson, M. (2015). The robotic reporter: automated journalism and the redefinition of labor, compositional forms, and journalistic authority. Digital journalism 3 (3), 416-431. https://www.tandfonline.com/doi/abs/10.1080/21670811.2014.976412

Diakopoulos, N. (2015). Algorithmic accountability. Algorithmic accountability. Journalistic investigation of computational power structures. Digital Journalism 3 (3), 398-415.

Dörr, K. (2016). Mapping the field of algorithmic journalism. Digital Journalism 4 (6), 700-722.

European Broadcasting Union (2017). Licence fee: The Changing Picture Across Europe. Ginebra: EBU. https://www.ebu.ch/news/2017/10/licence-fee-the-changing-picture-across-europe

European Broadcasting Union (2019). Licence fee: EBU News Report 2019. The Next Newsroom. Ginebra: EBU. https://www.ebu.ch/publications/strategic/login_only/report/news-report-2019

Fernández-García, N. (2017). Fake news: una oportunidad para la alfabetización mediática. Nueva sociedad, (269).

Graefe, A. (2016). Guide to Automated Journalism. Broadway, EEUU: Columbia Two Center for Digital Journalism.

Graves, Lucas (2016). Deciding what’s true: The rise of political fact-checking in American journalism. New York: Columbia University Press.

Gueham, Farid (2017). Le fact-checking: une réponse à la crise de l’information et de la démocratie. Paris: Fondation pour l’innovation politique. https://www.fondapol.org/etude/farid-gueham-le-fact-checking-une-reponse-a-la-crise-de-linformation-et-de-la-democratie

Journell, Wayne (2017). Fake news, alternative facts, and Trump: Teaching social studies in a post-truth era. Social studies journal, 37 (1), 8-21. https://www.uncg.edu/~awjourne/Journell2017ssj.pdf

Lopez-Borrull, Alexandre., Vives-Gràcia, Josep., y Badell, Joan-Isidre (2018). Fake news, ¿amenaza u oportunidad para los profesionales de la información y la documentación? El profesional de la información, 27 (6), 1346-1356. https://doi.org/10.3145/epi.2018.nov.17

Mantzarlis, Alexios (2018). Fact-checking 101. En Ireton, Cherilyn; Posetti, Julie. Journalism, fake news & disinformation: Handbook for journalism education and training. Francia: Unesco (pp. 85-100). https://unesdoc.unesco.org/ark:/48223/pf0000265552

McNair, Brian (2018). Fake news: Falsehood, fabrication and fantasy in journalism. London: Routledge.

Newman, N. (2020). Journalism, Media, and Technology Trends and Predictions 2020. London: Reuters Institute & University of Oxford.

Oremus, W. (2015). No more pencils, no more books. Slate. Nuevo México: Public Service Aliance.

Pariser, E. (2017). El filtro burbuja: Cómo la web decide lo que leemos y lo que pensamos. Taurus.

Rojas-Torrijos, J.L. (2019). El creciente uso de bots y la expansión de las coberturas deportivas. Elche: Master en Innovación en Periodismo.

Silverman, C. (2013). 5 ways robots can improve accuracy, journalism quality. San Petersburg: Poynter Institute.

Sørensen, J. K., y Van den Bulck, H. (2020). Public service media online, advertising and the third-party user data business: A trade versus trust dilemma? Convergence, 26 (2), 421-447.

Tortoise Media (2021). The Global AI Index. Londres: Tortoise Media.

Túñez-Lopez, J. M., Toural-Bran, C., y Valdiviezo-Abad, C. (2019). Automation, bots and algorithms in newsmaking. Impact and quality of artificial journalism. Revista Latina de Comunicación Social, 74, 1411-1433.

Túñez-López, J.M., Toural-Bran, C., y Frazão-Nogueira, A.G. (2020) From Data Journalism to Robotic Journalism: The Automation of News Processing. En Vázquez-Herrero J., Direito-Rebollal S., Silva-Rodríguez A., López-García X. (eds) Journalistic Metamorphosis.Studies in Big Data, vol 70. Springer, Cham.

Universidad Fasta (2020, agosto). Heliograf, el robot de The Washington Post que no reemplaza a los periodistas. https://www.ufasta.edu.ar/comunicacion/heliograf-el-robot-de-the-washington-post-que-no-reemplaza-a-los-periodistas/

Vázquez-Herrero, J., Vizoso, Á., y López-García, X. (2019). Innovación tecnológica y comunicativa para combatir la desinformación: 135 experiencias para un cambio de rumbo. El profesional de la información (EPI), 28 (3), 1-12.

HTML generado a partir de XML-JATS por