Articles

Inteligencia artificial en la prensa: estudio comparativo y exploración de noticias con ChatGPT en un medio tradicional y otro nativo digital

Artificial intelligence in the press: comparative study and exploration of news with ChatGPT in a traditional and a digital native media

Alberto Quian
Universidade de Santiago de Compostela, Spain
Jose Sixto-García
Universidade de Santiago de Compostela, Spain

Inteligencia artificial en la prensa: estudio comparativo y exploración de noticias con ChatGPT en un medio tradicional y otro nativo digital

Revista de Comunicación, vol. 23, núm. 1, pp. 457-484, 2024

Universidad de Piura. Facultad de Comunicación

Recepción: 15 Septiembre 2023

Aprobación: 20 Enero 2024

Resumen: En la Cuarta Revolución Industrial el periodismo no puede permanecer ajeno a las innovaciones que configuran una nueva realidad sociotecnológica. La inteligencia artificial (IA) es una de las tecnologías en auge, aunque los medios españoles la han incorporado poco, de forma experimental y en secciones concretas. Esta investigación tiene dos objetivos: 1) conocer el estado de desarrollo de la IA en la prensa digital española y la percepción de la industria sobre el impacto de esta tecnología en la profesión; 2) explorar un método de detección de generación de textos humanos vs sintéticos para evaluar si se utiliza IA generativa en los medios. Se realizó un estudio comparativo entre dos medios de referencia en España, uno matricial y de ideología conservadora (El Mundo), y otro nativo digital y de tendencia progresista (eldiario.es). La metodología se basó en la triangulación metodológica y contempló una encuesta y un experimento con ChatGPT para detectar si textos publicados en estos dos medios fueron creados por humanos o máquinas. Los resultados diagnostican que ninguno de estos periódicos aplica IA, si bien están diseñando planes para hacerlo, y parece haber una carencia de expertos en IA en las redacciones, aunque tampoco se confirma una predisposición significativamente mayor hacia la IA en el medio nativo frente al matricial. Los análisis realizados confirman que no se utiliza IA generativa para crear textos. El método utilizado puede ser empleado en otros estudios porque se confirma su validez para aportar indicios sobre el origen humano o artificial de textos periodísticos.

Palabras clave: ChatGPT, Cuarta Revolución Industrial, inteligencia artificial, periodismo, prensa, textos sintéticos.

Abstract: In the Fourth Industrial Revolution, journalism cannot remain oblivious to the innovations brought about by the socio-technological reality. Artificial intelligence (AI) is one of the technologies on the rise, although the Spanish media have incorporated it little, experimentally and in specific sections. This research has two objectives: 1) to know the state of development of AI in the Spanish digital media and the industry’s perception of the impact of this technology on the profession; 2) to explore a human vs synthetic text generation detection method to assess whether generative AI is being used in media. A comparative study was carried out between two media of reference in Spain, one matrix and conservative ideology (El Mundo), and another digital native and progressive trend (eldiario.es). The methodology was based on methodological triangulation and included a survey and an experiment with ChatGPT to detect whether a sample of texts published in these two media was created by humans or machines. The results diagnose that none of these newspapers apply AI, although they are designing plans to do so, and that there seems to be a lack of AI experts in the newsrooms, although a significantly higher predisposition towards AI in the native media is not confirmed as opposed to the matrix. The analyses carried out confirm that generative AI is not used to create texts. The method applied can be used in other studies because its validity is confirmed to provide clues about the human or artificial origin of journalistic texts.

Keywords: Artificial intelligence, ChatGPT, Fourth Industrial Revolution, journalism, press, synthetic texts.

1. Introducción

Las ciencias de la computación entienden la inteligencia artificial (IA) como el conjunto de sistemas o algoritmos que imitan la inteligencia humana para realizar determinadas tareas. Su evolución ya permite referirnos a máquinas inteligentes que operan y piensan como humanos, lo que incluye procesamiento del lenguaje natural (PLN) y reconocimiento de imágenes y voz (Gültekin, 2022), puesto que estos sistemas inteligentes aprenden automáticamente de datos en lugar de instrucciones codificadas (Duangekanong, 2022).

La Cuarta Revolución Industrial o Industria 4.0 (da Silva, Kovaleski y Negri, 2019) es la etapa más importante desde el inicio de la revolución industrial en el siglo XVIII. Se caracteriza por combinar técnicas de producción con sistemas inteligentes que se integran con organizaciones y personas (Kong et al., 2021), de modo que la IA se está convirtiendo en uno de los elementos más relevantes de esta nueva era (Aloqaily y Rawash, 2022) por la repercusión que tiene en distintas parcelas de la sociedad (Bolander, 2019) y por los beneficios de su implementación (Butler, 2020). El ámbito sanitario, la logística, las industrias creativas, la defensa o los distintos sistemas de fabricación, entre otros, están aplicando soluciones innovadoras basadas en IA (Alhwaiti, 2023).

El papel fundamental de la IA en las organizaciones radica en mejorar la eficiencia y la eficacia de diferentes áreas, servicios y sistemas para hacerlos más ágiles y precisos (Nankervis et al., 2021), lo que repercute en la reducción de costes. Ya se considera que la inmersión de empresas y organizaciones en la industria 4.0 implica necesariamente la implementación de IA para continuar siendo exitosas (Holmström, 2022), pero ¿también sucede esto en la industria periodística?

La comunicación y el periodismo no pueden permanecer ajenos a la Cuarta Revolución Industrial. Aunque en sus orígenes, a mediados del siglo XX, se esperaba que la IA se convirtiese en máquinas y robots con capacidades cognitivas semejantes a las de los humanos, esto no sucedió hasta la actualidad (Pillai y Shivathanu, 2020). Y es ahora cuando los medios se enfrentan al desafío de ir integrando en las redacciones y en los productos comunicativos tecnologías todavía incipientes o en fase de prueba o desarrollo, pero que están desintegrando los límites entre lo físico, lo digital y lo biológico.

Estudios han comprobado la repercusión de aplicar IA en tareas de gestión de la comunicación e información. Se ha descubierto que la automatización de tareas repetitivas que consumen mucho tiempo permite destinar esfuerzos a otras actividades que agregan valor y que requieren habilidades y destrezas específicas (Pillai y Shivathanu, 2020) y que la minimización de errores gracias al aprendizaje automático mejora la toma de decisiones (Michailidis, 2018). Otras investigaciones ponen de manifiesto la deshumanización de los procesos de comunicación, como sucede, por ejemplo, en el caso de los chatbots (Fritts y Cabrera, 2021) o la necesidad continua de mantenerse al día de los constantes cambios tecnológicos (Abdeldayem y Aldulaimi, 2020), lo que puede derivar en el tecnoestrés que sufren periodistas por el uso intensivo de tecnología (Malik et al., 2021).

Investigadores también han alertado sobre la posibilidad de que la IA reproduzca desigualdades existentes o que incluso las amplíe (Zou y Schiebinger, 2018) y han reportado casos de discriminación por parte de estos sistemas (Cachat-Rosset y Klarsfeld, 2023). Otros trabajos centrados en la ética y deontología concluyen que cuestiones como la moralidad, la no maleficencia, la autonomía, la privacidad, la responsabilidad, la transparencia y la equidad difícilmente pueden concebirse sin intervención humana (Hagendorff, 2022; Jobin, Ienca y Vayena, 2019).

1.1 IA en los medios digitales de la Cuarta Revolución Industrial

Si bien la IA se asocia a la creación de iniciativas colectivas para la digitalización (Hervás-Oliver, 2021), esta fase está ampliamente superada en el ámbito de los medios, como demuestran tres décadas de periodismo digital en España y su desarrollo como disciplina científica consolidada (Salaverría, 2019). Ahora es momento de comprobar si también en los medios digitales existen fábricas inteligentes de noticias en las que sistemas ciberfísicos monitorean procesos físicos y se comunican entre sí y con los humanos en tiempo real (Ciffolilli y Muscio, 2018), teniendo en cuenta, además, que el desarrollo de las tecnologías permite la generación de cantidades masivas de datos (Chandol y Rao, 2023) que el ser humano difícilmente podría interpretar sin ayuda tecnológica.

Estudios recientes han catalogado la oferta tecnológica de IA en España en tres fases del proceso periodístico (recogida de información, producción de contenido y distribución) y han detectado una apuesta decidida de las tecnológicas españolas para ofrecer servicios de IA para la práctica periodística (Sánchez-García et al., 2023). Detalladamente, la aplicación de IA al periodismo se ha fundamentado en la generación de contenidos, en su recomendación y clasificación, y en la generación de flujos, constatándose la existencia de algoritmos que sugieren contenidos, detectan noticias o automatizan determinadas fases de la producción informativa (Cifuentes y Sixto-García, 2022; Saurwein, 2019; Soffer, 2019; Tejedor et al., 2021) y otros que crean contenido, por ejemplo, en periodismo deportivo (Rojas-Torrijos y Toural-Bran, 2019).

La IA se considera vital para los servicios públicos audiovisuales del futuro, aunque su aplicación todavía no ocupa una posición estratégica en los departamentos de innovación, sino que las corporaciones se encuentran en una primera fase experimental sustentada en experiencias piloto (Fieiras-Ceide, Vaz-Álvarez y Túñez-López, 2022). Así, en otra investigación se confirma la voluntad de RTVE de ser referente como servicio público en la aplicación y desarrollo de IA de una forma sostenible (Sanahuja-Sanahuja y López-Rabadán, 2022). Otro estudio ya avisó de que la IA obligará a reformular la forma de organizar el trabajo en las redacciones (Parratt-Fernández, Mayoral-Sánchez y Mera-Fernández, 2021). Y una de las investigaciones más recientes en España observó la necesidad de un “cambio de mentalidad en las redacciones, superar el miedo a la sustitución, poner en valor la capacidad creativa y las decisiones editoriales humanas” (Mondría-Terol, 2023).

Otros trabajos alertan sobre amenazas para la buena praxis periodística que implican un ejercicio profesional basado en métricas y no en la calidad del producto (Ufarte-Ruiz y ManfrediSánchez, 2019). Si la autorregulación siempre ha sido el principal instrumento de control ético y deontológico de la profesión en España para garantizar el precepto constitucional del derecho a la información, al margen de algunas regulaciones concretas sobre la cláusula de conciencia (Ley Orgánica 2/1997) o la rectificación (Ley Orgánica 2/1984), otra investigación concluye que es necesario adaptar el Código Deontológico de la FAPE (Federación de Asociaciones de Periodistas de España) para que siga siendo operativo en el periodismo con IA y que los públicos tienen el derecho de conocer cuándo los informa una persona o una máquina (Ufarte-Ruiz, Calvo-Rubio y Murcia-Verdú, 2021).

En el caso de los verificadores, la IA se orienta a la verificación de fuentes, gestión de datos masivos y creación de chatbots (Sánchez-González, Sánchez-Gonzales y Martínez-Gonzalo, 2022). La utilidad de la IA para combatir la desinformación desde un planteamiento ético del desarrollo tecnológico también se ha destacado en otro estudio (Manfredi-Sánchez y Ufarte-Ruiz, 2020), pero, además, la IA debería ayudar a facilitar y mejorar la dieta informativa del usuario, alertándole, por ejemplo, sobre la presencia de noticias falsas. Flores (2019) exploró los principales desarrollos de bots utilizados para minimizar la toxicidad de la información y concluyó que estos aceleraban prácticamente por igual la difusión de noticias que la de informaciones falsas.

Aunque la IA aplicada al periodismo supone más competitividad, más flexibilidad, más fluidez y más rapidez (Aramburú, López-Redondo y López-Hidalgo, 2021), también presenta los mismos problemas que cualquier otro tipo de IA. Una debilidad de estos sistemas en relación con los humanos es su incapacidad de aplicar el conocimiento existente a un problema nuevo o a una situación que varía de para lo que fueron programados o entrenados (Guerin, 2022). Este es uno de los desafíos a los que debe enfrentarse el binomio periodismo-IA. Si un vehículo autónomo impulsado por IA tiene que elegir entre matar peatones o ponerse en riesgo a sí mismo y a su conductor, ¿qué hará o debería hacer la IA? (Nyholm y Smids, 2016). Si para una noticia hay que elegir entre contar la verdad o tergiversarla para ganar visitas, ¿qué hará la IA? Peña-Fernández et al. (2023) reclaman especial atención a cómo la IA puede afectar al público y a los periodistas, y cómo puede ser usada para fines propios de la profesión y el bien social.

Para que la IA funcione en una redacción, los periodistas también deben aprender a pensar como una máquina (Gonçalves y Melo, 2022; Lewis, Guzmán y Schmidt, 2019) y no solo a escribir para ellas, como llevan haciendo desde que el SEO cambió rutinas de producción informativa (Perreault y Ferrucci, 2020). Para ello resulta fundamental la formación en IA y, en consecuencia, su inclusión en los planes de estudios de grados y másteres en periodismo y comunicación (Gómez-Diago, 2022, Lopezosa et al., 2023), así como la incorporación de ingenieros y perfiles puramente tecnológicos a las plantillas de los medios, ya que las tecnologías de IA necesitan expertos en su desarrollo y gestión (Palos-Sánchez et al., 2022; Mondría-Terol, 2023).

En definitiva, parece que la supervivencia de las empresas periodísticas dependerá en gran medida de su capacidad de adaptación para incorporar IA a sus productos y a su modus operandi (Túñez, Ufarte y Mazza, 2022) y garantizar, al tiempo, que el periodismo siga cumpliendo su función social y de servicio público.

1.2 Objetivos

La Cuarta Revolución Industrial sigue cobrando impulso (Ojubanire, Sebti y Berbain, 2022), aunque todavía existen temores y sentimientos negativos sobre la aplicación de IA tanto entre empleados como entre gerentes (Palos-Sánchez et al., 2022). Es momento, pues, de analizar cómo se están adaptando los medios digitales españoles a este contexto 4.0, que no es exclusivo de la comunicación, pero al que, como tantos otros sectores, tendrá que adaptarse.

Esta investigación tiene dos objetivos generales:

En función de estos objetivos, los resultados se dividen en los obtenidos a partir de una encuesta (OB1) y los generados a partir de un experimento con ChatGPT 3.5 (OB2).

2. Metodología

Esta investigación combina una encuesta a responsables de medios digitales españoles y un experimento para la identificación de contenidos generados por IA. Se recurrió a la triangulación de métodos y técnicas cualitativas y cuantitativas, recomendable para fortalecer la investigación social sobre un fenómeno con múltiples perspectivas (Blaikie, 1991; Jick, 1979; Oppermann, 2000).

La encuesta se diseñó como paso previo para aplicar el experimento, con la idea de preguntar si estos periódicos utilizan o no IA y la opinión de sus responsables sobre esta tecnología.

2.1 Muestra

En una primera fase se seleccionó una muestra intencional homogénea en la que los medios elegidos comparten rasgos similares o características específicas (Andrade, 2021; Battaglia, 2008; Etikan et al., 2016). Para la selección (Figura 1) se recurrió a la clasificación de medios digitales en España Reuters Institute Digital News Report 2022 (Newman et al., 2022: 103).

Clasificación de medios en línea en España más consumidos
Figura 1
Clasificación de medios en línea en España más consumidos
Fuente: Reuters Institute Digital News Report 2022.

De esa clasificación se seleccionaron 9 medios (Tabla 1) siguiendo estos criterios de homogeneidad:

Debía haber medios matriciales con ediciones online y nativos digitales, para establecer comparaciones.

Tabla 1
Muestra de estudio
Muestra de estudio
Fuente: elaboración propia.

2.2 Técnicas de investigación

2.2.1 Encuesta

La primera parte del estudio se fundamenta en una encuesta a responsables de medios de comunicación tradicionales y medios nativos digitales de España para conocer si utilizan herramientas de IA, por qué las usan o no y cuál es la percepción sobre su impacto en el sector. La encuesta, estructurada y bifurcada, se dividió en cuatro secciones, en las que se incluyeron preguntas dicotómicas, de opción única o múltiple, abiertas y de escala de Likert.

En la sección 1 se recogió información de los medios y representantes entrevistados, y la pregunta clave condicional sobre el uso de IA en el medio: “¿Se aplica algún tipo de inteligencia artificial en su medio?”. En la sección 2 (“En caso de que no utilicen IA”) se preguntó por las razones por las que no se han aplicado sistemas de IA, con posibilidad de respuesta de opción múltiple: desconocimiento sobre sus aplicaciones, falta de recursos económicos, falta de expertos en su desarrollo, falta de expertos en su uso, no la vemos útil, no se ha planteado su utilización, estamos diseñando un plan para su aplicación, otra (respuesta abierta). En la sección 3 (“En caso de que sí utilicen IA”) se preguntó desde cuándo, de qué tipo de producción es la IA utilizada (propia o de terceros), tipos de licencias (privativas o libres), fases de producción informativa y tareas específicas en las que se utiliza, beneficios que reporta la IA para el medio, su eficacia y su nivel de desarrollo y valoración del medio como fábrica inteligente de noticias. En la sección 4 (para todos los entrevistados) se pidió: 1) “Valore su grado de acuerdo con la siguiente afirmación: La IA es una amenaza para el empleo en el periodismo”, en una escala de 1 a 5, siendo 1=Nada de acuerdo, 2=Poco de acuerdo, 3=Medianamente de acuerdo, 4=Bastante de acuerdo, 5=Totalmente de acuerdo; 2) “Valore su grado de acuerdo con la siguiente afirmación: La IA es una amenaza para la ética periodística”, siendo 1=Nada de acuerdo y 5=Totalmente de acuerdo; 3) “¿Cree que la IA ya puede o podrá en un futuro realizar actividades relacionadas con el periodismo sin supervisión humana?”, pudiendo ser la respuesta “sí”, “no”, “no sé”; 4) “¿Cree importante incorporar ingenieros y perfiles tecnológicos en las redacciones para la gestión y uso de IA?”, pudiendo ser la respuesta 1=Nada importante, 2=Ligeramente importante, 3=Bastante importante, 4=Extremadamente importante; 5) “¿Qué nivel de formación y destreza tienen, en general, los periodistas en España para trabajar con IA?”, pudiendo responder 1=Muy bajo, 2=Bajo, 3=Medio, 4=Alto, 5=Muy alto.

La encuesta, diseñada en Google Forms, se distribuyó en línea durante marzo y abril de 2023 siguiendo el método CAWI (Computer Assisted Web Interviewing). De los 9 medios, dos respondieron el cuestionario: El Mundo y eldiario.es. La naturaleza de ambos medios justificaba el estudio. Las respuestas se consideraron lo suficientemente relevantes y sustanciales para continuar con la investigación, que se reorientó como estudio comparativo de dos casos mediante muestreo por conveniencia (Andrade, 2021; Batagglia, 2008) entre dos periódicos de referencia en España, uno matricial y otro nativo digital. Los medios nativos digitales o cibermedios nativos son “aquellos pensados y nacidos para internet”, mientras que los medios matriciales, tradicionales o migrantes digitales “derivan de las marcas previas a internet y que migraron a ese espacio” (Vázquez-Herrero, Negreira-Rey y López-García, 2023: 3).

Ambos periódicos tienen, además, líneas editoriales opuestas: El Mundo es un medio tradicional y conservador, mientras que la línea ideológica de eldiario. es es progresista (GIPEyOP/Mediaflows, 2017) y se enmarca en los llamados medios alternativos (Al Najjar-Trujillo, Arévalo-Salinas y Vilar-Sastre, 2020).

Con base en todo lo expuesto anteriormente, consideramos conveniente y oportuno el estudio y comparación de ambos medios por tratarse del periódico tradicional conservador y el nativo digital progresista más leídos de España. Además, la selección se adecúa a las singularidades del proyecto de I+D+i “Medios nativos digitales en España: estrategias, competencias, implicación social y (re)definición de prácticas de producción y difusión periodísticas” (PID2021122534OB-C21), financiado por el Ministerio de Ciencia e Innovación del Gobierno de España y el Fondo Europeo de Desarrollo Regional (FEDER) “Una manera de hacer Europa”.

2.2.2 Experimento

Para el segundo objetivo de la investigación se diseñó un experimento para comprobar si estos medios están publicando textos creados total o parcialmente con IA.

Existen tecnologías para detectar textos sintéticos, como GLTR (Gehrmann et al., 2019), GPTZero (Tian, 2023), DetectGPT (Mitchell et al., 2023) o AI Text Classifier (OpenAI, 2023; Kirchner et al., 2023), entre otras. Pero estas aplicaciones no serían 100 % fiables y pueden ser frágiles para detectar y diferenciar textos generados con IA y otros creados por humanos (Jawahar et al., 2020; Dalalah y Dalalah, 2023; He et al., 2023; Wang et al., 2023). De hecho, OpenAI decidió cerrar el proyecto AI Text Classifier medio año después de su lanzamiento debido a que no era muy preciso y podía generar falsos positivos (David, 2023); esto significa que en ocasiones etiquetaba texto escrito por humanos como generado por IA.

Además, los detectores de IA se han desarrollado fundamentalmente para identificar contenidos sintéticos en inglés y no parece existir una solución tecnológica robusta y fiable para textos en español (Gonzalo, 2023; Rogers, 2023). Por otro lado, la capacidad humana para detectar contenido generado por IA es limitada (Clark et al., 2021; Soni y Wade, 2023). Es por ello que aplicamos un experimento con la versión libre de ChatGPT 3.5 para comprobar si este chatbot puede identificar textos generados con IA, es decir, verificar si esta tecnología de IA tiene capacidad para detectarse a sí misma u otras similares. Este modelo de lenguaje de gran tamaño, desarrollado por OpenAI, fue entrenado con 45 TB de dados de texto y dispone de 175 mil millones de parámetros (Wu et al., 2023).

El experimento se desarrolló en dos fases. Las pruebas visuales de las preguntas de los investigadores y las respuestas de ChatGPT se comparten en el repositorio en línea Zenodo (Quian y Sixto, 2024).

2.2.2.1 Fase de control

Esta fase se desarrolló en dos pasos. En el primero preguntamos al chatbot sobre sus capacidades

para detectar textos sintéticos (Tabla 2).

Tabla 2
Primera prueba de la fase de control
Primera prueba de la fase de control
Fuente: elaboración propia.

En el segundo paso se pidió a ChatGPT que determinase si 15 textos en español generados por dos IA son, precisamente, contenidos sintéticos. Los textos fueron creados por Ana Futbot (n=10), el bot de Rl Jonfidencial para la escritura automática de crónicas deportivas, y Gabriele (n=5), una IA más nueva que crea para el medio ecuatoriano GK textos sobre criptomonedas y materias primas, además de clasificaciones de Netflix o Spotify. A diferencia de ChatGPT, que es un modelo de lenguaje grande diseñado para la interacción conversacional con el usuario humano, Ana Futbot y Gabriele son bots de inteligencia artificial generativa cuya función no es la interacción, sino la generación y publicación de textos periodísticos a partir de datos estructurados, utilizando algoritmos de machine learning y deep learning. La redacción automatizada basada en datos estructurados se usa en los medios de comunicación desde hace más de una década (Diakopoulos, 2023).

El criterio de selección de la muestra fue temporal, esto es, los diez últimos textos publicados por Ana Futbot, entre el 24 y el 16 de marzo de 2019 (Tabla 4), y los últimos cinco textos de información económica publicados por Gabriele en abril de 2022 (Tabla 6). Se excluyeron titulares y subtítulos, de modo que ChatGPT analizó los cuerpos de las noticias. Los 15 artículos de control se codificaron para su análisis en los resultados (C1-C15).

Se hizo una pregunta a ChatGPT antes de introducir los textos (Tablas 3 y 5).

Tabla 3
Pregunta a ChatGPT antes de introducir los textos de Ana Futbot
Pregunta a ChatGPT antes de introducir los textos de Ana Futbot
Fuente: elaboración propia.

Tabla 4
Textos generados por Ana Futbot
Textos generados por Ana Futbot
Fuente: elaboración propia.

Tabla 5
Pregunta a ChatGPT antes de introducir los textos de Gabriele
Pregunta a ChatGPT antes de introducir los textos de Gabriele
Fuente: elaboración propia.

Tabla 6
Textos generados por Gabriele
Textos generados por Gabriele
Fuente: elaboración propia.

2.2.2.2 Fase de análisis de textos de El Mundo y eldiario.es

Se solicitó a ChatGPT el mismo análisis para 15 artículos de El Mundo y 15 de eldiario.es. Solo se introdujo el cuerpo de los artículos (se excluyeron titulares y subtítulos).

La petición a ChatGPT fue: “¿Puedes decirme si el siguiente texto que te mostraré fue escrito total o parcialmente por una inteligencia artificial?”.

Los artículos se seleccionaron siguiendo estos criterios:

6. 20 textos no firmados por periodistas, donde la firma es “El Mundo” (n=10) y “eldiario.es” (n=10). Se utilizaron los buscadores de ambos medios y se excluyeron textos de agencias. No se realizó un cribado por secciones, de manera que podía entrar en la muestra cualquier tipo de información (Tabla 7).

7. 10 textos no firmados por periodistas de secciones y firmas seleccionados intencionalmente por entender que su naturaleza informativa es más susceptible de uso de IA generativa (Tabla 8):

Todos los textos fueron publicados en el período de realización de la encuesta. La selección se hizo por orden cronológico inverso, desde el 30 abril de 2023. A cada texto se le asignó un código (A1, A2, A3...).

Tabla 7
20 textos de la muestra donde la firma es eldiario. es y El Mundo
20 textos de la muestra donde la firma es eldiario. es y El Mundo
Fuente: elaboración propia.

Tabla 8
10 textos firmados por TresB y ConsumoClaro para El Mundo y eldiario.es
10 textos firmados por TresB y ConsumoClaro para El Mundo y eldiario.es
Fuente: elaboración propia.

Los resultados de las valoraciones de ChatGPT se clasificaron en tres categorías:

Por último, se calculó la precisión, la exhaustividad y la puntuación F1 como métricas de evaluación para IA (Dalalah y Dalalah, 2023; He et al., 2023), para medir la capacidad de ChatGPT

3.5 en la detección de textos sintéticos o humanos. Primero, se sometieron a una prueba de control los textos de Ana FutBot y Gabriele, y luego se analizaron los de El Mundo y eldiario.es, supuestamente creados por humanos. La comprobación de aciertos o errores de verdaderos/ falsos positivos y verdaderos/falsos negativos es crucial para evaluar la precisión en el análisis (Dalalah y Dalalah, 2023: 8).

3. Resultados

3.1 Encuesta

La encuesta fue respondida por Vicente Ruiz (El Mundo) y Ander Iñaki Oliden (eldiario.es), directores adjuntos de sus respectivos medios y responsables del desarrollo y estrategia digital de estos periódicos.

En ambos casos se afirmó no usar IA, aunque los dos medios reconocieron que estaban diseñando un plan para su aplicación. Por lo tanto, la sección 3 del cuestionario, para medios que sí utilizan IA, quedó sin respuestas.

En la sección 2, dirigida a medios que no utilizan IA, solo en el caso de El Mundo se señalaron la “falta de expertos en su desarrollo” y la “falta de expertos en su uso” como razones para no aplicar estas tecnologías, mientras que desde el eldiario.es no se concretó ninguna causa para su no aplicación.

Se encontraron discrepancias en el nivel de formación y destreza que tienen los periodistas en España para trabajar con IA. Mientras El Mundo considera que es “muy bajo”, el eldiario.es cree que es “alto”.

Sobre el grado de acuerdo/desacuerdo con que la IA es una amenaza para el empleo en el periodismo, ambos se expresaron “poco de acuerdo”, mientras que sobre la afirmación de que la IA es una amenaza para la ética periodística, El Mundo respondió “poco de acuerdo” y el eldiario.es, “medianamente de acuerdo”.

En la pregunta sobre si la IA ya puede o podrá en un futuro realizar actividades relacionadas con el periodismo sin supervisión humana hubo coincidencia en la respuesta: “no”. Igualmente, sobre la importancia de incorporar ingenieros y perfiles tecnológicos en las redacciones para la gestión y uso de IA, ambos contestaron que es “bastante importante”.

3.2 Resultados del experimento

3.2.1 Prueba de control

ChatGPT identificó los 10 textos creados por Ana Futbot como contenido generado por IA (Tabla 9).

Tabla 9
Textos de Ana Futbot analizados por ChatGPT
Textos de Ana Futbot analizados por ChatGPT
Fuente: ChatGPT. Elaboración propia.

ChatGPT también identificó los 5 textos creados por Gabriele como contenido sintético (Tabla 10).

Tabla 10
Textos de Gabriele analizados por ChatGPT
Textos de Gabriele analizados por ChatGPT
Fuente: ChatGPt. Elaboración propia.

Los resultados de las métricas de evaluación para C1-C15 (Tablas 11 y 12) sugieren que ChatGPT 3.5 puede identificar textos generados por IA sin error.

Tabla 11
Recuento de verdaderos positivos, falsos positivos y falsos negativos de C1-C15
Recuento de verdaderos positivos, falsos positivos y falsos negativos de C1-C15
Fuente: elaboración propia.

Tabla 12
Métricas de evaluación sobre el uso de ChatGPT como detector del uso de IA para la muestra C1-C15
Métricas de evaluación sobre el uso de ChatGPT como detector del uso de IA para la muestra C1-C15
Fuente: elaboración propia.

3.2.2 Análisis de textos de El Mundo y eldiario.es

Una vez comprobado que ChatGPT 3.5 ofrece indicios fiables de uso de IA en textos sintéticos, se solicitó al chatbot que valorase los 30 artículos supuestamente escritos por periodistas para de El Mundo y eldiario.es (Tablas 7 y 8). Las respuestas y resultados se recogen en la Tabla 13.

Tabla 13
Resultados de ChatGPT para 30 textos no firmados por periodistas (A1-A30)
Resultados de ChatGPT para 30 textos no firmados por periodistas (A1-A30)
Fuente: ChatGPT. Elaboración propia.

En 24 textos el resultado fue “humano” (80 %), en 6 fue “incierto” (20 %) y en ninguno se detectó claramente IA generativa (0 %) (Figura 2).

Resultados del análisis de ChatGPT para los textos A1-A30
Figura 2
Resultados del análisis de ChatGPT para los textos A1-A30
Fuente: elaboración propia.

Aceptando que los 30 textos fueron escritos por humanos, basándonos en las afirmaciones de los encuestados, calculamos la precisión, la exhaustividad y la puntuación F1 como métricas de evaluación de la capacidad de ChatGPT 3.5 en la detección de textos generados por máquinas o humanos. Los resultados se recogen en las Tablas 14 y 15.

Tabla 14
Recuento de verdaderos positivos, falsos positivos, falsos negativos de A1-A30
Recuento de verdaderos positivos, falsos positivos, falsos negativos de A1-A30
Fuente: elaboración propia.

Tabla 15
Métricas de evaluación sobre el uso de ChatGPT como detector del uso de IA para la muestra A1-A30
Métricas de evaluación sobre el uso de ChatGPT como detector del uso de IA para la muestra A1-A30
Fuente: elaboración propia.

4. Discusión y conclusiones

Este estudio explora mediante triangulación de métodos el uso de IA en dos periódicos digitales españoles, uno matricial y de tendencia conservadora y otro nativo y progresista. El hecho de que la encuesta fuese respondida por dos de los nueve periódicos inicialmente seleccionados nos hace plantear la hipótesis de que, al menos algunos de los medios contactados, querrían proteger sus posibles estrategias y usos actuales o futuros de IA en distintos procesos y fases de desarrollo y aplicación.

Con las respuestas obtenidas de El Mundo y eldiario.es reorientamos el estudio hacia un muestreo por conveniencia sobre el que realizar un análisis comparativo. La encuesta fue el paso previo necesario para la realización del experimento con el que comprobar las afirmaciones de los responsables de estos medios respecto al uso de IA, particularmente, en la generación de contenidos en sus sitios web.

Los resultados muestran que en estos medios referentes en España la IA es aún una posibilidad, un futurible sobre el que se están diseñando estrategias para su implementación (OB1). Esta no aplicación en las rutinas productivas sugiere que no existen todavía el conocimiento y la formación necesarios para su integración en las redacciones, lo que se confirmó en el caso de El Mundo. Si bien desde eldiario.es no se precisaron los motivos (desde este medio afirmaron que el nivel de formación y destreza de los periodistas en España para trabajar con IA es “alto”), esta discrepancia es sustancial y podría ser fruto de la realidad de cada medio, con equipos con formación y destrezas distintas debido a su carácter nativo o matricial, o podría ser fruto de una visión subjetiva y generalizada sobre el sector (OB1).

En ningún caso se especificó “desconocimiento sobre sus aplicaciones” para no utilizar IA, “falta de recursos económicos”, “no la vemos útil” o “no se ha planteado su utilización”. De hecho, ambos periódicos confesaron estar diseñando planes para su aplicación, por lo que parece existir interés concreto y conocimiento sobre el potencial y posibilidades de la IA. De esto se podría deducir un reconocimiento implícito de su utilidad, además de resultar viable económicamente, en consonancia con lo descubierto en estudios previos como el de Sánchez-García et al. (2023), que diagnosticaban la rentabilidad de la implantación de IA en los procesos periodísticos y detectaban un interés creciente de los medios en esta tecnología, si bien advertían de “un avance dispar que refleja «lentitud», «desconfianza» y «desconocimiento» ante la aplicación de IA” (p. 2).

En ambos casos sorprende la no aplicación de IA en el momento del estudio, pues hay constancia de que otros medios en España sí la están aplicado ya, por ejemplo, en sistemas de alertas y generación automática de textos. RTVE, Agencia EFE, el diario deportivo Sport o El Jonfidencial ya han experimentado con IA (Tejedor et al., 2021; Fieiras-Ceide, Vaz-Álvarez y Túñez-López, 2022). Particularmente interesante es el caso de Rl Jonfidencial, ya que se trata de un periódico nativo digital generalista y de ámbito estatal que formaba parte de nuestra primera muestra intencional y del que aprovechamos sus textos sintéticos para nuestra prueba de control. Rl Jonfidencial es competidor directo de eldiario.es y de El Mundo como periódico nativo digital y de tendencia conservadora. Sus experimentaciones con Ana Futbot comenzaron a publicarse el 22 de diciembre de 2018 y finalizaron el 24 de marzo de 2019, según consta en su hemeroteca. La experiencia fue efímera, pero con esta IA generativa Rl Jonfidencial marcó un hito al convertirse en el primer periódico generalista en España en aplicar esta tecnología para la escritura automática de crónicas deportivas, aparentemente con “más beneficios que perjuicios” (Rojas Torrijos y Toural Bran, 2019: 251).

La ausencia de respuestas por parte de los medios, la breve vida de Ana Futbot como periodista robot y la no utilización de IA en El Mundo y eldiario.es sugieren que el desarrollo y aplicación de IA en la prensa española está aún en una fase inicial, cuatro años después de aquella primera iniciativa. Esto se confirma en las respuestas de El Mundo y eldiario.es, que reconocen que no utilizan esta tecnología, aunque contemplan su empleo en el futuro, lo que también coincide con las observaciones de Sánchez-García et al. (2023) al advertir la “reticencia actual de los medios a afrontar y asumir la inexorable expansión de la IA, dejando a las empresas de ingeniería el papel de adalides del proceso de disrupción tecnológica” (Sánchez-García et al., 2023: 13), y de Mondría-Terol (2023), quien a partir de tres casos de estudio españoles (RTVE, El País y Newtral), identifica dos desafíos principales en las redacciones: “la resistencia de los trabajadores” a la implementación de IA y “la falta de habilidades técnicas necesarias” para su utilización (Mondría-Terol, 2023: 56).

La “falta de expertos” en su desarrollo y uso, y un nivel de formación y de destreza de los periodistas para trabajar con IA “muy bajo”, según El Mundo, refuerza la idea de un importante atraso en la prensa generalista española respecto a otros medios internacionales que vienen aplicando IA desde la década de 2010 (Tejedor et al., 2021: 974). Esto podría estar relacionado con carencias formativas sobre IA en el ámbito universitario español (Gómez-Diago, 2022), donde se observa “un grado de consenso alto en la necesidad de incorporar la IA en las facultades de Comunicación” (Lopezosa et al., 2023: 7). Esta interpretación choca con la del responsable de eldiario.es, quien cree que el nivel de los periodistas españoles para trabajar con IA es “alto”. Quizás ambas teorías tengan parte de razón, ya que podríamos estar en un escenario en el que los periodistas que trabajan en las redacciones tengan menos destrezas y conocimientos que otros profesionales del sector tecnológico.

Sánchez-García et al. (2021: 9) identificaron perfiles periodísticos integrados en empresas tecnológicas y centros de investigación con base en España que ofrecen soluciones de IA para medios, aunque predominan perfiles técnicos, centrados en ingenierías de telecomunicaciones o informática. En relación con esto, El Mundo y eldiario.es coinciden en que es “bastante importante” incorporar ingenieros y perfiles tecnológicos en las redacciones para la gestión y uso de IA.

La realidad es que el conocimiento sobre IA se halla fuera de los medios, donde existe un “«músculo» tecnológico español que desarrolla servicios o programas informáticos aplicables al periodismo automatizado” (Sánchez-García et al., 2023: 7). Las investigadoras de la Universidad de Valladolid publicaron en 2023 el primer catálogo de empresas tecnológicas y centros de investigación en España que ofrecen herramientas y servicios de IA para su integración y aplicación en medios de comunicación. En total, son 25 desarrolladores de IA con servicios y herramientas disponibles para todo el proceso periodístico, aunque predominan para la recogida de información y distribución de contenido relacionado con la monetización, mientras que la producción automatizada de noticias queda relegada a un segundo plano (SánchezGarcía et al., 2023: 1-2).

Tal y como apuntaron Ufarte-Ruiz y Manfredi-Sánchez (2019) hace unos años, tampoco ahora parece que los periodistas españoles de prensa puedan verse amenazados, de momento, por la IA generativa (ambos medios responden “poco de acuerdo” a si “la IA es una amenaza para el empleo en el periodismo”). Sin embargo, y, aunque en la pregunta “¿cree que la IA ya puede o podrá en un futuro realizar actividades relacionadas con el periodismo sin supervisión humana?” hubo coincidencia en la respuesta (“no”), lo cierto es que ya existen medios que elaboran y distribuyen contenidos informativos a partir de procedimientos ejecutados únicamente por máquinas, en los que no hay intervención de ningún periodista (Ufarte-Ruiz et al., 2023). Donde sí hay discrepancia es sobre si “la IA es una amenaza para la ética periodística” (“poco de acuerdo” / “medianamente de acuerdo”), en línea con el diagnóstico previo de que el uso de IA es beneficioso siempre y cuando se mantengan los criterios éticos y la línea editorial (Beckett, 2019).

Con respecto a lo anterior surge un dilema ético, que es si los medios, como servicio público, deberían ser transparentes en el uso de IA y, por lo tanto, si los usuarios deberían tener derecho a conocer que determinados contenidos, interacciones o resultados del uso de estos medios son fruto de algún tipo de IA. El conocimiento del público debería extenderse a “los diseños éticos explícitos, que describen cómo se integran los principios éticos en la práctica del diseño de software” y que “representan información valiosa que las organizaciones podrían divulgar para respaldar su posición ética” (Turilli y Floridi, 2009: 105).

En la prueba de control previa realizada en el experimento, ChatGPT mostró total fiabilidad (100 % de acierto) en la detección de textos generados por IA, lo que supone la utilidad de este tipo de chatbots como herramientas de autoverificación de sí mismos (OB2). Es cierto que la versión de ChatGPT utilizada tiene limitaciones, la fundamental, su dependencia de datos previos, ya que su conocimiento se basa en los datos con los que fue entrenado hasta septiembre de 2021 (Vaishya et al., 2023), lo que significa que no tiene acceso a información que haya ocurrido después de esa fecha (como los textos analizados A1-A30), a menos que se le proporcionen explícitamente. Pero en nuestro estudio mostró una precisión del 100 % en la identificación, mediante patrones, de textos sintéticos generados antes y después de su entrenamiento, en el caso de Ana Futbot, en 2019, y en el de Gabriele, en 2022. Ufarte-Ruiz y Manfredi-Sánchez (2019) pusieron a prueba a Gabriele mediante valoraciones personales de 145 periodistas. Sus resultados afirman que, aunque esta IA contribuye a incrementar la productividad de contenidos, “no permite todavía generar textos de naturaleza compleja o no predecible, una cualidad humana de entre las muchas de las que adolecen aún los robots” (Ruiz y Manfredi-Sánchez, 2019: 227). Tal vez sea esa carencia la que posibilita que Gabriele sea fácilmente detectable para ChatGPT.

Los resultados son más dudosos o inciertos cuando los textos son, supuestamente, creados por humanos. De los 30 artículos de El Mundo y eldiario.es, ChatGPT devolvió en un 80 % de los casos una respuesta casi segura de que no hubo intervención total o parcial de alguna IA (en el 20 % restante el resultado fue “incierto”), aunque también es destacable que no detectó claramente ningún caso de uso de IA. La puntuación F1 (medida combinada de precisión y exhaustividad) para ChatGPT fue del 88,8 %, un porcentaje considerable y comparable al de detectores de IA sometidos a análisis (He et al., 2023).

Si bien reconocemos las limitaciones de usar muestreos intencionales y por conveniencia, no probabilísticos y limitados en el número de actores mediáticos, así como la imposibilidad de descartar el uso de IA en otros contenidos de los medios analizados, los resultados son útiles para obtener indicios de generación de textos con IA porque las pruebas de control refuerzan este enfoque y sus resultados. La parte experimental resulta útil para considerar y seguir desarrollando este enfoque metodológico en nuevas investigaciones, sobre todo con herramientas más avanzadas y diseñadas exprofeso para la detección de IA, y utilizando un mayor corpus documental de textos encuadrados en cada una de las categorías (humanos y generados con IA).

Esta investigación complementa trabajos previos y simultáneos como los de Sánchez-García et al. (2023), Mondría-Terol (2023), Tejedor et al. (2021), Rojas-Torrijos y Toural-Bran (2019) y Ufarte-Ruiz y Manfredi-Sánchez (2019), y todos apuntan a que la aplicación de IA en los medios digitales generalistas en España está aún en un estadio de desarrollo embrionario y de exploración, particularmente en la generación de contenidos.

Referencias

Abdeldayem, M.M., Aldulaimi, S.H. (2020).Trends and opportunities of artificial intelligence in human resource management: Aspirations for public sector in Bahrain. International Journal of Scientific and Technology Research, 9(1), 3867-3655

Al Najjar-Trujillo, T., Arévalo-Salinas, A.I., Vilar-Sastre, G. (2020).Aproximación a los medios periodísticos alternativos en España. En Actas del III Congreso Internacional Mov.e.net sobre Movimientos Sociales y TIJ (145-153), Grupo Interdisciplinario de Estudios en Comunicación, Política y Cambio Social de la Universidad de Sevilla (COMPOLÍTICAS). https://hdl.handle.net/11441/98149

Alhwaiti, M. (2023).Acceptance of Artificial Intelligence Application in the Post-Covid Era and Its Impact on Faculty Members’ Occupational Well-being and Teaching Self Efficacy: A Path Analysis Using the UTAUT 2 Model. Applied Artificial Intelligence, 37(1), 2175110. https://doi.org/10.1080/08839514.2023.2175110

Aloqaily, A.N., Rawash, H.N. (2022).The application reality of Artificial Intelligence and its impact on the administrative human resources processes. Journal of Positive School Psychology, G(5), 3520-29

Andrade, C. (2021).The Inconvenient Truth About Convenience and Purposive Samples. Indian Journal of Psychological Medicine, 43(1), 86-88. https://www.doi.org/10.1177/0253717620977000

Aramburú-Moncada, L.G., López-Redondo, I., López-Hidalgo, A. (2021).Artificial intelligence in RTVE at the service of empty Spain. News coverage project with automated writing for the 2023 municipal elections. Revista Latina de Comunicación Social, 81, 1-16. https://www.doi.org/10.4185/RLCS-2023-1550

Battaglia, M.P. (2008).Nonprobability SamplingEn: Lavrakas, P. (ed.). Encyclopaedia of survey research methods. Sage Publications, 523-526. https://doi.org/10.4135/9781412963947

Beckett, C. 2019). New powers, new responsibilities. A global survey of journalism and artificial intelligence . The London School of Economics and Political Science. https://blogs.lse.ac.uk/polis/2019/11/18/new-powers-new-responsibilities/

Blaikie, N.W.H. (1991).A critique of the use of triangulation in social research. Quality and Quantity, 25, 115-136. https://doi.org/10.1007/BF00145701

Bolander, T. (2019).What do we lose when machines take the decisions?. Journal of Management and Governance, 23(4), 849-67. https://www.doi.org/10.1007/s10997-019-09493-x

Butler, T. (2020).What’s next in the digital transformation of financial industry. IT Professional, 22(1), 29-33. https://www.doi.org/10.1109/MITP.2019.2963490

Cachat-Rosset, G., Klarsfeld, A. (2023).Diversity, Equity, and Inclusion in Artificial Intelligence: An Evaluation of Guidelines. Applied Artificial Intelligence, 37(1), 2176618. https://doi.org/10.1080/08839514.2023.2176618

Chandol, M.K., Kameswara Rao, M. (2023).Blockchain-based cryptographic approach for privacy enabled data integrity model for IoT healthcare. Journal of Experimental & Theoretical Artificial Intelligence, 1-22. https://doi.org/10.1080/0952813X.2023.2183268

Ciffolilli, A., Muscio, A. (2018).Industry 4.0: national and regional comparative advantages in key enabling technologies. European Planning Studies, 26(12), 2323-2343. https://www.doi.org/10.1080/09654313.2018.1529145

Cifuentes Arias, C., Sixto-García, J. (2022).Competencias y perfil profesional de los gestores de medios sociales en los medios de comunicación: apuesta por la automatización robótica de procesos (RPA). Revista Latina de Comunicación Social, 80, 1-23. https://www.doi.org/10.4185/RLCS-2022-1544

Clark, E., August, T., Serrano, S., Haduong, N., Gururangan, S., Smith, N.A. (2021). All That’s ‘Human’ Is Not Gold: Evaluating Human Evaluation of Generated Text. En Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), 7282-7296, Online. Association for Computational Linguistics. https://www.doi.org/10.18653/v1/2021.acl-long.565

da Silva, V.L., Kovaleski, J.L., Negri Pagani, R. (2019).Technology transfer in the supply chain oriented to industry 4.0: a literature review. Technology Analysis & Strategic Management, 31(5), 546-562. https://www.doi.org/10.1080/09537325.2018.1524135

Dalalah, D., Dalalah, O.M.A. (2023).The false positives and false negatives of generative AI detection tools in education and academic research: The case of ChatGPT. The International Journal of Management Education, 21(2), 100822. https://doi.org/10.1016/j.ijme.2023.100822

David, E. (2023, 25 de julio). OpenAI can’t tell if something was written by AI after all. The Verge. https://www.theverge.com/2023/7/25/23807487/openai-ai-generated-low-accuracy

Diakopoulos, D. (2023, 15 de febrero). What Could ChatGPT Do for News Production? Generative AI in the Newsroom. https://generative-ai-newsroom.com/what-could-chatgpt-do-for-news-production-2b2a3b7047d9

Duangekanong, S. (2022).Applications of artificial intelligence for strategic management of organization. ABAC ODI JOURNAL Vision Action Outcome, 9(2), 202-17. https://doi.org/10.14456/abacodijournal.2022.13

Etikan, I., Musa, S.A., Alkassim, R.S. (2016).Comparison of Convenience Sampling and Purposive Sampling. American Journal of Theoretical and Applied Statistics, 5(1), 1-4. https://doi.org/10.11648/j.ajtas.20160501.11

Fieiras-Ceide, C., Vaz-Álvarez, M., Túñez-López, M. (2022).Artificial intelligence strategies in European public broadcasters: Uses, forecasts and future challenges. Profesional de la información, 31(5), e310518. https://doi.org/10.3145/epi.2022.sep.18

Flores-Vivar, J.M. (2019).Inteligencia artificial y periodismo: diluyendo el impacto de la desinformación y las noticias falsas a través de los bots. Doxa Comunicación, 29, 197-212. https://doi.org/10.31921/doxacom.n29a10

Fritts, M., Cabrera, F. (2021).AI recruitment algorithms and the dehumanization problem. Ethics and Information Technology, 23(4), 791-801. https://doi.org/10.1007/s10676-021-09615-w

Gehrmann, S., Strobelt, H., Rush, A. (2019). GLTR: Statistical Detection and Visualization of Generated Text. En Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics: System Demonstrations , 111-116, Florence, Italy. Association for Computational Linguistics. https://doi.org/10.18653/v1/P19-3019

Guerin, Frank (2022).Projection: a mechanism for human-like reasoning in Artificial Intelligence. Journal of Experimental & Theoretical Artificial Intelligence, 1-25. https://doi.org/10.1080/0952813X.2022.2078889

GIPEyOP/Mediaflows (2017). Encuesta GIPEyOP/Mediaflows sobre Medios y Comunicadores . Grupo de Investigación en Procesos Electorales y Opinión Pública. Universitat de València. https://www.uv.es/pavia/Informe_Encuesta_Medios.pdf

Gómez-Diago, G. (2022).Perspectivas para abordar la inteligencia artificial en la enseñanza de periodismo. Una revisión de experiencias investigadoras y docentes. Revista Latina de Comunicación Social, 80, 29-46. https://www.doi.org/10.4185/RLCS-2022-1542

Gonçalves, A., Melo, P.V. (2022).Inteligencia artificial y periodismo: una aproximación al contexto portugués. Fonseca, Journal of Communication, 25, 23-34. https://doi.org/10.14201/fjc.29682

Gonzalo, M. (2023, 23 de febrero).Cómo detectar textos generados por inteligencia artificial. Newtral. https://www.newtral.es/como-detectar-textos-generados-ia/20230223/

Gültekin, M. (2022).Human-social robot interaction, anthropomorphism and ontological boundary problem in education. Psycho-Educational Research Reviews, 11(3), 751-773. https://doi.org/10.52963/PERR_Biruni_V11.N3.11

Hagendorff, T. (2022).Blind spots in AI ethics. AI Ethics, 2, 851-867. https://doi.org/10.1007/s43681-021-00122-8

He, X., Shen, X., Chen, Z., Backes, M., Zhang, Y. (2023).MGTBench: Benchmarking Machine-Generated Text Detection. arXiv. https://doi.org/10.48550/arXiv.2303.14822

Jick, T.D. (1979).Mixing Qualitative and Quantitative Methods: Triangulation in action. Administrative Science Quarterly, 24(4), 602-611. https://doi.org/10.2307/2392366

Kirchner, J.H., Ahmad, L., Scott, A., Leike, J. (2023, 31 de enero).New AI classifier for indicating AI-written text. OpenAI Blog. https://openai.com/blog/new-ai-classifier-for-indicating-ai-written-text

Hervás-Oliver, J. (2021).Industry 4.0 in industrial districts: regional innovation policy for the Toy Valley district in Spain. Regional Studies, 55(10-11), 1775-1786. https://doi.org/10.1080/00343404.2021.1939861

Holmstrom, J. (2022).From AI to digital transformation: the AI readiness framework. Business Horizons, 65(3), 329-39. https://doi.org/10.1016/j.bushor.2021.03.006

Jawahar, G., Abdul-Mageed, M., Lakshmanan, L.V.S. (2020).Automatic Detection of Machine Generated Text: A Critical Survey.En Proceedings of the 28th International Conference on Computational Linguistics , 2296-2309. https://doi.org/10.18653/v1/2020.coling-main.208

Jobin, A., Ienca, M., Vayena, E. (2019).The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389-99. https://doi.org/10.1038/s42256-019-0088-2

Kong, H., Yuan, Y., Baruch, Y., Bu, N., Jiang, X., Wang, K. (2021).Influences of artificial intelligence (AI) awareness on career competency and job burnout. International Journal of Contemporary Hospitality Management, 33(2), 717-734. https://doi.org/10.1108/IJCHM-07-2020-0789

Ley Orgánica 2/1984 (1984, 26 de marzo).reguladora del derecho de rectificación.Boletín Oficial del Estado, 74, de 27 marzo de 1984. https://www.boe.es/eli/es/lo/1984/03/26/2/con

Ley Orgánica 2/1997 (1997, 19 de junio).reguladora de la cláusula de conciencia de los profesionales de la información.Boletín Oficial del Estado, 147, de 20 de junio de 1997. https://www.boe.es/eli/es/lo/1997/06/19/2/con

Lopezosa, C., Codina, L., Pont-Sorribes, C., Vállez, M. (2023).Use of generative artificial intelligence in the training of journalists: challenges, uses and training proposal. Profesional de la información, 32(4). https://doi.org/10.3145/epi.2023.jul.08

Malik, N., Tripathi, S.N., Kar, A.K., Gupta, S. (2021).Impact of Artificial Intelligence on employees working in industry 4.0 led organizations. International Journal of Manpower, 43(2), 334-354. https://doi.org/10.1108/IJM-03-2021-0173

Manfredi-Sánchez, J.L., Ufarte-Ruiz, M.J. (2020).Inteligencia artificial y periodismo: una herramienta contra la desinformación. Revista CIDOB d’Afers Internacionals, 124, 49-72. https://doi.org/10.24241/rcai.2020.124.1.49

Michailidis, M.P. (2018).The challenges of AI and blockchain on HR recruiting practices. Cyprus Review, 30(2), 169-180. https://cyprusreview.org/index.php/cr/article/view/763

Mitchell, E., Lee, Y., Khazatsky, A., Manning, C.D., Finn, C. (2023). Detectgpt: Zero-shot machine-generated text detection using probability curvature. arXiv. https://doi.org/10.48550/arXiv.2301.11305

Mondría-Terol, T. (2023).Innovación MedIÁtica: aplicaciones de la inteligencia artificial en el periodismo en España. Textual & Visual Media, 17(1), 41-60. https://doi.org/10.56418/txt.17.1.2023.3

Nankervis, A., Connell, J., Cameron, R., Montague, A., Prikshat, V. (2021).‘Are we there yet?’ Australian HR professionals and the fourth industrial revolution. Asia Pacific Journal of Human Resources, 59(1), 3-19. https://doi.org/10.1111/1744-7941.12245

Newman, N., Fletcher, R., Robertson, C.T., Eddy, K., Nielsen, R.K. (2022). Reuters Institute Digital News Report 2022. Reuters Institute. https://reutersinstitute.politics.ox.ac.uk/digital-news-report/2022

Nyholm, S., Smids, J. (2016).The ethics of accident-algorithms for self-driving cars: An applied trolley problem?. Ethical Theory and Moral Practice, 19(5), 1275-1289. https://doi.org/10.1007/s10677-016-9745-2

Ojubanire, O.A., Sebti, H., Berbain, S. (2022).Towards developing a national framework for industry 4.0 in African emerging economies. African Journal of Science, Technology, Innovation and Development, 1-18. https://doi.org/10.1080/20421338.2022.2129347

OpenAI (2023).AI Text Classifier. https://beta.openai.com/ai-text-classifier

Oppermann, M. (2000).Triangulation - A Methodological discussion. International Journal of Tourism Research, 2(2), 141-146. https://doi.org/10.1002/(SICI)1522-1970(200003/04)2:2%3C141::AID-JTR217%3E3.0.CO;2-U

Palos-Sánchez, P.R., Baena-Luna, P., Badicu, A., Infante-Moro, J.C. (2022).Artificial Intelligence and Human Resources Management: A Bibliometric Analysis. Applied Artificial Intelligence, 36(1), 2145631. https://doi.org/10.1080/08839514.2022.2145631

Parratt-Fernández, S., Mayoral-Sánchez, J., Mera-Fernández, M. (2021).The application of artificial intelligence to journalism: an analysis of academic production. Profesional de la información, 30(3), e300317. https://doi.org/10.3145/epi.2021.may.17

Peña-Fernández, S., Meso-Ayerdi, K., Larrondo-Ureta, A., Díaz-Noci, J. (2023).Without journalists, there is no journalism: the social dimension of generative artificial intelligence in the media. Profesional de la información, 32(2), e320227. https://doi.org/10.3145/epi.2023.mar.27

Perreault, G.P., Ferrucci, P. (2020).What Is Digital Journalism? Defining the Practice and Role of the Digital Journalist. Digital Journalism, 8(10), 1298-1316. https://doi.org/10.1080/21670811.2020.1848442

Pillai, R., Sivathanu, B. (2020).Adoption of Artificial Intelligence (AI) for talent acquisition in IT/ITeS organizations. Benchmarking: An International Journal, 27(9), 2599-629. https://doi.org/10.1108/BIJ-04-2020-0186

Quian, A., Sixto-García, J. (2024). Exploración de noticias con ChatGPT. Zenodo. https://doi.org/10.5281/zenodo.10530376

Rojas-Torrijos, J.L., Toural-Bran, C. (2019).Periodismo deportivo automatizado. Estudio de caso de AnaFut, el bot desarrollado por El Confidencial para la escritura de crónicas de fútbol. Doxa Comunicación, 29, 235-254. https://doi.org/10.31921/doxacom.n29a12

Rogers, R. (2023, 8 de febrero).How to Detect AI-Generated Text, According to Researchers. Wired. https://www.wired.com/story/how-to-spot-generative-ai-text-chatgpt/

Salaverría, R. (2019).Digital journalism: 25 years of research. Review article. Profesional de la información, 28(1). https://doi.org/10.3145/epi.2019.ene.01

Sanahuja-Sanahuja, R., López-Rabadán, P. (2022).Ética y uso periodístico de la inteligencia artificial. Los medios públicos y las plataformas de verificación como precursores de la rendición de cuentas en España. Estudios sobre el Mensaje Periodístico, 28(4), 959-970. https://doi.org/10.5209/esmp.82385

Sánchez-García, P., Merayo-Álvarez, N., Calvo-Barbero, C., Diez-Gracia, A. (2023).Spanish technological development of artificial intelligence applied to journalism: companies and tools for documentation, production and distribution of information. Profesional de la información, 32(2), e320208. https://doi.org/10.3145/epi.2023.mar.08

Sánchez-González, M., Sánchez-Gonzalez, H.M., Martínez-Gonzalo, S. (2022).Inteligencia artificial en verificadores hispanos de la red IFCN: proyectos innovadores y percepción de expertos y profesionales. Estudios sobre el Mensaje Periodístico, 28(4), 867-879. https://doi.org/10.5209/esmp.82735

Saurwein, F. (2019).Emerging structures of control for algorithms on the Internet En: Eberwein, T., Fengler, S., Karmasin, M. (eds). Media accountability in the era of post-truth politics. European challenges and perspectives. Routledge. https://doi.org/10.4324/9781351115780-13

Soffer, O. (2019).Algorithmic personalization and the two-step flow of communication. Communication Theory, 31(3), 297-315. https://doi.org/10.1093/ct/qtz008

Soni, M., Wade, V. (2023).Evaluating and Detecting ChatGPT’s Responses on Abstractive Summarization. arXiv [C] [L]. https://doi.org/10.48550/arXiv.2303.17650

Tejedor-Calvo, S., Cervi, L., Pulido, C.M., Pérez-Tornero, J.M. (2021).Análisis de la integración de sistemas inteligentes de alertas y automatización de contenidos en cuatro cibermedios. Estudios sobre el Mensaje Periodístico, 27(3), 973-983. https://doi.org/10.5209/esmp.77003

Tian, E. (2023). GPTZero. https://gptzero.me/

Túñez-López, J.M., Ufarte-Ruiz, M.J., Mazza, B. (2022).Aplicación de la inteligencia artificial en comunicación. Revista Latina de Comunicación Social, 80. https://nuevaepoca.revistalatinacs.org/index.php/revista/article/view/1734

Turilli, M., Floridi, L. (2009).The ethics of information transparency. Ethics and Information Technology, 11, 105-112. https://doi.org/10.1007/s10676-009-9187-9

Ufarte-Ruiz, M.J., Calvo-Rubio, L.M., Murcia-Verdú, F.J. (2021).Los desafíos éticos del periodismo en la era de la inteligencia artificial. Estudios sobre el Mensaje Periodístico, 27(2), 673-684. https://doi.org/10.5209/esmp.69708

Ufarte-Ruiz, M.J., Manfredi-Sánchez, J.L. (2019).Algoritmos y bots aplicados al periodismo. El caso de Narrativa Inteligencia Artificial: estructura, producción y calidad informativa. Doxa Comunicación, 29, 213-233. https://doi.org/10.31921/doxacom.n29a11

Ufarte-Ruiz, M.J., Murcia-Verdú, F.J., Túñez-López, J.M. (2023).Use of artificial intelligence in synthetic media: first newsrooms without journalists. Profesional de la información, 32(2), e320203. https://doi.org/10.3145/epi.2023.mar.03

Vaishya, R., Misra, A., Vaish, A. (2023).ChatGPT: Is this version good for healthcare and research?. Diabetes & Metabolic Syndrome: Clinical Research & Reviews, 17(4), 102744. https://doi.org/10.1016/j.dsx.2023.102744

Vázquez-Herrero, J., Negreira-Rey, M.C., López-García, X. (2023).Research on digital native media: an emerging topic in the field of digital communication. Profesional de la Información, 32(2). https://doi.org/10.3145/epi.2023.mar.02

Wang, Y., Mansurov, J., Ivanov, P., Su, J., Shelmanov, A., Tsvigun, A., Whitehouse, C., Afzal, O.M., Mahmoud, T., Aji, A.F., Nakov, P. (2023).M4: Multi-generator, Multi-domain, and Multi-lingual Black-Box Machine-Generated Text Detection. arXiv . https://doi.org/10.48550/arXiv.2305.14902

Wu, T., He, S., Liu, J., Sun, S., Liu, K., Han, Q.L., Tang, Y. (2023).A brief overview of ChatGPT: The history, status quo and potential future development. IEEE/CAA Journal of Automatica Sinica, 10(5), 1122-1136. https://doi.org/10.1109/JAS.2023.123618

Zou, J., Schiebinger, L. (2018).AI can be sexist and racist - it’s time to make it fair. Nature, 559(7714), 324-326. https://doi.org/10.1038/d41586-018-05707-8

Financiación

Esta publicación es parte del proyecto de I+D+i Medios nativos digitales en España: estrategias, competencias, implicación social y (re)definición de prácticas de producción y difusión periodísticas (PID2021-122534OB-C21), financiado por MCIN/ AEI/10.13039/501100011033/ y “FEDER Una manera de hacer Europa”.
HTML generado a partir de XML-JATS4R por