Servicios
Descargas
Buscar
Idiomas
P. Completa
Del optimismo a la confianza: el impacto de ChatGPT en la confianza de los estudiantes en el aprendizaje asistido por IA
Frederic Marimon; María Belén Arias Valle; César Javier Coria Augusto;
Frederic Marimon; María Belén Arias Valle; César Javier Coria Augusto; Claudio Marcelo Larrea Arnau
Del optimismo a la confianza: el impacto de ChatGPT en la confianza de los estudiantes en el aprendizaje asistido por IA
From optimism to trust: how ChatGPT is reshaping student confidence in AI-driven learning
RIED-Revista Iberoamericana de Educación a Distancia, vol. 28, núm. 2, pp. 131-153, 2025
Asociación Iberoamericana de Educación Superior a Distancia
resúmenes
secciones
referencias
imágenes

Resumen: La inteligencia artificial generativa, como ChatGPT, está transformando el ámbito de la educación superior, especialmente en el apoyo a tareas académicas. Sin embargo, su adopción efectiva depende de factores como la confianza de los estudiantes y su percepción sobre la utilidad de la herramienta. Este estudio analiza cómo el optimismo tecnológico, la utilidad percibida y la facilidad de uso influyen en la confianza de los estudiantes universitarios en ChatGPT. Se empleó una metodología cuantitativa, utilizando un modelo de ecuaciones estructurales (SEM) basado en datos recopilados de 316 estudiantes universitarios en Argentina. La encuesta incluyó preguntas sobre optimismo, utilidad percibida, facilidad de uso y confianza en ChatGPT, y se realizaron análisis factoriales para validar los constructos y examinar las relaciones propuestas en el modelo. Los resultados muestran que el optimismo de los estudiantes impacta significativamente en su percepción de utilidad y confianza en ChatGPT, mientras que la facilidad de uso no tiene un efecto directo significativo sobre la confianza. Esto sugiere que los estudiantes valoran los beneficios prácticos que la herramienta aporta a su proceso de aprendizaje más que su facilidad de uso. Estos hallazgos sugieren que las universidades deberían centrarse en resaltar el valor práctico de ChatGPT mediante programas de capacitación específicos y en fomentar un uso crítico de la herramienta. También se recomienda implementar estrategias que mejoren la interacción entre estudiantes y docentes y evaluar el potencial de ChatGPT para mejorar el rendimiento académico de los estudiantes.

Palabras clave: inteligencia artificial, tecnología educativa, aprendizaje automático, innovación educativa, teorías de aprendizaje, confianza.

Abstract: Generative artificial intelligence, such as ChatGPT, is transforming the field of higher education, especially in supporting academic tasks. However, its effective adoption depends on factors such as students' trust and their perception of the tool's usefulness. This study analyzes how technological optimism, perceived usefulness, and ease of use influence university students' trust in ChatGPT. A quantitative methodology was employed, using structural equation modeling (SEM) based on data collected from 316 university students in Argentina. The survey included questions about optimism, perceived usefulness, ease of use, and trust in ChatGPT, with factorial analyses conducted to validate the constructs and examine the proposed relationships in the model. The results show that students' optimism significantly impacts their perception of usefulness and trust in ChatGPT, while ease of use does not have a direct significant effect on trust. This suggests that students value the practical benefits the tool brings to their learning process more than its ease of use. These findings suggest that universities should focus on highlighting the practical value of ChatGPT through specific training programs and fostering a critical use of the tool. It is also recommended to implement strategies that enhance the interaction between students and teachers and assess the potential of ChatGPT to improve students' academic performance.

Keywords: artificial intelligence, educational technology, machine learning, educational innovation, learning theories, trust.

Carátula del artículo

Estudios e Investigaciones

Del optimismo a la confianza: el impacto de ChatGPT en la confianza de los estudiantes en el aprendizaje asistido por IA

From optimism to trust: how ChatGPT is reshaping student confidence in AI-driven learning

Frederic Marimon
Universidad Internacional de Cataluña, UIC, España
María Belén Arias Valle
Universidad Católica de Cuyo, UCCuyo, Argentina
César Javier Coria Augusto
Universidad Católica de Cuyo, UCCuyo, Argentina
Claudio Marcelo Larrea Arnau
Universidad Católica de Cuyo, UCCuyo, Argentina
RIED-Revista Iberoamericana de Educación a Distancia, vol. 28, núm. 2, pp. 131-153, 2025
Asociación Iberoamericana de Educación Superior a Distancia

Recepción: 01 Diciembre 2024

Aprobación: 07 Marzo 2025

Publicación: 01 Julio 2025

INTRODUCCIÓN

La introducción de la inteligencia artificial generativa, en particular ChatGPT, ha transformado significativamente la educación superior. Esta herramienta, reconocida por su facilidad de uso y accesibilidad, ha sido adoptada rápidamente por los estudiantes universitarios (García Peñalvo et al., 2024). Al igual que otras tecnologías emergentes, su adopción sigue un patrón de difusión en el que los primeros usuarios incorporan la innovación con mayor rapidez (Rogers, 1995).

Las investigaciones sugieren que quienes adoptan tempranamente herramientas de inteligencia artificial, incluido ChatGPT, tienden a presentar un mayor optimismo tecnológico y una disposición innovadora (Parasuraman y Colby, 2014; Parasuraman, 2000). Este optimismo influye en su percepción de utilidad, ya que identifican con rapidez los beneficios prácticos que la herramienta aporta a sus tareas académicas (Davis, 1989).

Sin embargo, la naturaleza generativa de ChatGPT introduce un grado de imprevisibilidad en sus respuestas, lo que puede ocasionar inexactitudes o "alucinaciones". Esto resalta la necesidad de que los usuarios desarrollen criterios de discernimiento para evaluar su fiabilidad. La confianza en las herramientas de inteligencia artificial, entendida como la disposición a depender de sus resultados a pesar de la incertidumbre (Mayer et al., 1995), es un factor clave en su adopción. En el caso de los estudiantes, la interacción reiterada con ChatGPT les permite comprender sus fortalezas y limitaciones, lo que moldea su confianza en su aplicación académica.

El modelo teórico de este estudio se basa en el enfoque propuesto por Marimon et al. (2024), que analiza la relación entre la utilidad percibida, la facilidad de uso y la confianza en herramientas de inteligencia artificial generativa en el ámbito laboral. Este estudio adapta dicho modelo al contexto universitario, considerando que la utilidad percibida y la confianza en herramientas como ChatGPT son factores determinantes para su adopción por parte de los estudiantes. Al igual que en el entorno laboral, la confianza se identifica como un mediador esencial que puede influir en la disposición de los estudiantes a integrar estas herramientas en su proceso de aprendizaje.

El presente estudio tiene como objetivo explorar cómo el optimismo de los estudiantes hacia las nuevas tecnologías, en particular ChatGPT, influye en su percepción de utilidad y facilidad de uso. Asimismo, se investiga cómo estos factores impactan, a su vez, en la confianza depositada en ChatGPT. Adicionalmente, se examina la relación directa entre el optimismo y la confianza. A través del análisis de estas relaciones, este estudio busca aportar evidencia sobre el papel del optimismo en la construcción de la confianza en herramientas de inteligencia artificial, lo que resulta fundamental para su uso efectivo en entornos académicos.

Revisión de la literatura y modelo de investigación

ChatGPT se ha consolidado como una herramienta valiosa para los estudiantes universitarios, ya que facilita la generación de contenido, el desarrollo de ideas y la resolución de problemas (Tang et al., 2023; Zawacki-Richter et al., 2019). No obstante, su adopción depende de la confianza que los estudiantes depositen en la herramienta, la cual está determinada por la utilidad percibida y la facilidad de uso (Venkatesh et al., 2003).

La incorporación de ChatGPT en la educación superior ha transformado la manera en que los estudiantes interactúan con el conocimiento y gestionan sus tareas académicas (Forero-Corba y Negre Bennasar, 2024). Desde la redacción de ensayos hasta la realización de investigaciones, esta herramienta ofrece un apoyo flexible y accesible que complementa las metodologías de enseñanza tradicionales. Sin embargo, para que los estudiantes adopten de manera efectiva estas tecnologías, es fundamental comprender los factores que influyen en la confianza que desarrollan hacia ellas, así como su percepción sobre la utilidad y la facilidad de uso de ChatGPT (García Peñalvo et al., 2024).

Si bien investigaciones previas han explorado la confianza en la inteligencia artificial en entornos laborales (Marimon et al., 2024), aún existe un conocimiento limitado sobre su papel en el ámbito académico. Con el propósito de abordar esta brecha, el presente estudio examina cómo los estudiantes desarrollan confianza en ChatGPT, un factor clave para maximizar sus beneficios educativos.

Acemoglu et al. (2023) advierten sobre los riesgos del optimismo ciego hacia la inteligencia artificial, argumentando que, sin una perspectiva crítica y una implementación adecuada, la inteligencia artificial podría exacerbar las desigualdades sociales, al igual que lo han hecho revoluciones tecnológicas previas. Estos autores sostienen que, si bien el optimismo tecnológico puede acelerar la adopción de innovaciones, también puede generar una sobrevaloración de sus beneficios y una subestimación de sus limitaciones, especialmente en contextos donde la calidad de los resultados es un aspecto crítico, como en la educación. Esto sugiere la necesidad de mantener un equilibrio entre el optimismo y el pensamiento crítico respecto a la inteligencia artificial, evitando así una dependencia excesiva de estas tecnologías.

Acemoglu et al. (2023) enfatizan que, aunque las innovaciones tecnológicas tienen el potencial de aumentar la productividad y mejorar la calidad de vida, su impacto puede ser perjudicial si no se gestionan de manera equitativa. En esta misma línea, el ganador del Premio Nobel de Economía 2024 destacó la importancia de evaluar cuidadosamente las implicaciones socioeconómicas de la automatización y la inteligencia artificial. A pesar de que algunos estudios han demostrado que el optimismo hacia la inteligencia artificial influye en la confianza en su uso (Marimon et al., 2024), la perspectiva de Acemoglu subraya la importancia de que dicho optimismo vaya acompañado de una reflexión crítica, con el fin de evitar la perpetuación o el agravamiento de desigualdades estructurales.

El Modelo de Aceptación Tecnológica (TAM, por sus siglas en inglés) sostiene que la utilidad percibida y la facilidad de uso influyen en la adopción de tecnologías (Davis, 1989). En el contexto de la inteligencia artificial aplicada a la educación, diversos estudios han confirmado que la utilidad percibida es un predictor más sólido de la confianza y de la intención de uso que la facilidad de uso (Al-Abdullatif y Alsubaie, 2024; Huang et al., 2022).

Asimismo, la confianza en las herramientas de inteligencia artificial ha sido identificada como un factor clave para su adopción (Marimon et al., 2024; Mayer et al., 1995). La confianza se define como la disposición del usuario a ser vulnerable ante las acciones de la herramienta, esperando obtener resultados confiables y consistentes. Esto cobra especial relevancia en el caso de la inteligencia artificial generativa, cuyos resultados no siempre son deterministas y pueden presentar variaciones o "alucinaciones" (Bender et al., 2021). Al-kfairy et al. (2024) destacan que la confianza en la precisión y fiabilidad de los resultados generados por inteligencia artificial es un factor determinante para su uso continuado, especialmente en tareas que requieren altos niveles de rigor académico.

El presente estudio hace referencia al modelo propuesto por Marimon et al. (2024), adaptándolo al contexto de los estudiantes universitarios que utilizan herramientas de inteligencia artificial generativa como ChatGPT. Marimon et al. (2024) desarrollaron un modelo que analiza el impacto de la disposición hacia la adopción de tecnologías de inteligencia artificial generativa y cómo la confianza en estas herramientas influye en el compromiso y el desempeño en el entorno laboral. Su investigación enfatiza el papel fundamental de la confianza como mediador clave entre la experiencia del usuario y la implicación en el trabajo, demostrando que, si bien la facilidad de uso es importante, la utilidad percibida y la confianza en la tecnología son los factores esenciales para generar un impacto positivo.

Este estudio adapta el modelo de Marimon et al. (2024) al contexto de los estudiantes universitarios y su interacción con herramientas de inteligencia artificial generativa como ChatGPT. Aunque el modelo original de Marimon fue diseñado para analizar la influencia de la utilidad percibida, la facilidad de uso y la confianza en el ámbito laboral, su marco teórico ofrece una base sólida para explorar la adopción de tecnologías emergentes en el ámbito educativo. No obstante, las diferencias fundamentales entre los entornos profesionales y académicos justifican la necesidad de realizar ajustes específicos en el modelo.

En el contexto educativo, la disposición de los estudiantes para adoptar nuevas tecnologías puede estar influenciada por factores como el apoyo institucional, la formación digital previa y las experiencias personales con herramientas similares. A diferencia del entorno laboral, donde la facilidad de uso puede ser un factor crítico para la integración rápida en el flujo de trabajo (Marimon et al., 2024), en el ámbito académico los estudiantes tienden a valorar más la utilidad práctica de una herramienta. Esto se debe a que enfrentan tareas académicas específicas que requieren resultados relevantes y precisos, más que una interfaz intuitiva (Venkatesh et al., 2003).

Además, el optimismo tecnológico de los estudiantes juega un papel determinante en la adopción de herramientas de inteligencia artificial, como lo sugiere la literatura sobre la adopción de innovaciones (Parasuraman y Colby, 2014). La utilidad percibida de ChatGPT, es decir, su capacidad para facilitar la generación de contenido académico y la resolución de problemas complejos influye directamente en la confianza que los estudiantes depositan en esta herramienta. Esta relación entre optimismo, utilidad y confianza ha sido adaptada para explorar cómo los estudiantes, en lugar de los empleados, integran ChatGPT en su proceso de aprendizaje.

Al adaptar el modelo de Marimon et al. (2024), este estudio plantea que la confianza en ChatGPT depende no solo de la facilidad de uso percibida, sino principalmente de su utilidad en contextos de aprendizaje específicos, como la redacción de ensayos y la investigación académica. Esto resalta la importancia de que los estudiantes perciban un valor tangible en el uso de la herramienta para que puedan confiar en sus capacidades y adoptarla de manera continua. La adaptación de este modelo busca capturar las particularidades del entorno educativo y los factores que facilitan la adopción de herramientas de inteligencia artificial generativa en la educación superior.

Este modelo de estudio se adapta para explorar cómo los estudiantes universitarios desarrollan confianza en ChatGPT, considerando los constructos de optimismo, utilidad percibida y facilidad de uso, similares a los propuestos por Marimon et al. (2024). Al igual que en el ámbito profesional, se espera que la disposición de los estudiantes hacia la tecnología y su percepción sobre la utilidad de ChatGPT influyan en el nivel de confianza depositado en la herramienta. Este enfoque ofrece una comprensión más integral de cómo la confianza en ChatGPT puede facilitar su integración en el entorno académico y cómo dicha confianza podría, eventualmente, mejorar la utilidad percibida de la herramienta en el proceso de aprendizaje.

Sin embargo, existen diferencias clave entre los contextos laboral y educativo que justifican la adaptación del modelo de Marimon et al. (2024). En el ámbito educativo, la disposición de los estudiantes para aceptar y utilizar nuevas tecnologías puede estar influida por factores adicionales, como el apoyo institucional, la formación digital previa y las experiencias anteriores de aprendizaje con tecnologías similares. Además, estudios como el de Ly et al. (2024) sobre la adopción de plataformas digitales de aprendizaje en universidades sugieren que la motivación intrínseca desempeña un papel particularmente relevante en el contexto académico, ya que los estudiantes que perciben que una tecnología contribuye a su desarrollo académico personal están más dispuestos a integrarla en su rutina de estudio.

Por tanto, este estudio se diferencia de investigaciones previas al adaptar el enfoque de Marimon et al. (2024) a las particularidades del contexto universitario, incorporando el papel del optimismo de los estudiantes hacia la tecnología y explorando su efecto sobre la utilidad percibida y la confianza en ChatGPT. A través de esta adaptación, el estudio busca arrojar luz sobre los mecanismos que facilitan la integración de herramientas de inteligencia artificial generativa en contextos educativos, contribuyendo a una comprensión más completa de los factores que influyen en la adopción de estas tecnologías por parte de los estudiantes.

En conclusión, el modelo de investigación propuesto se basa en la adaptación del enfoque de Marimon et al. (2024) al contexto de los estudiantes universitarios y su interacción con herramientas de inteligencia artificial generativa como ChatGPT. Este modelo integra los constructos de optimismo, utilidad percibida, facilidad de uso y confianza, con el objetivo de comprender cómo estas variables influyen en la adopción y aceptación de ChatGPT por parte de los estudiantes. La hipótesis central plantea que el optimismo de los estudiantes hacia la tecnología y su percepción sobre la utilidad de ChatGPT desempeñan un papel mediador clave en el desarrollo de confianza en la herramienta, lo que a su vez afecta su disposición a utilizarla de manera efectiva en entornos académicos. De esta manera, el modelo permite evaluar no solo la adopción de la herramienta, sino también cómo la confianza generada influye en su uso continuo y en la integración de la inteligencia artificial en los procesos de aprendizaje.


Figura 1
Modelo de investigación
Fuente: elaboración propia.

METODOLOGÍA

Esta sección describe en detalle los pasos seguidos en nuestra investigación, mientras que en la siguiente sección se presentarán, resumirán y comentarán los resultados.

Diseño del cuestionario

El cuestionario fue diseñado meticulosamente para abarcar diversos aspectos relevantes del estudio. Se inició con ítems que evalúan la disposición de los encuestados para adoptar nuevas tecnologías y continuó con preguntas dirigidas a medir el nivel de aceptación, la frecuencia de uso y la confianza en estas herramientas.

Para garantizar tanto la validez como la pertinencia del instrumento, los ítems de cada constructo fueron cuidadosamente seleccionados o adaptados de Marimon et al. (2024) y otras fuentes reconocidas y validadas dentro del campo de estudio. La Tabla 1 presenta un desglose detallado de los constructos y los ítems específicos incluidos en la investigación. Desde la introducción de la inteligencia artificial generativa, en particular ChatGPT en 2023, el panorama de la educación superior ha experimentado una transformación profunda.

El cuestionario fue diseñado para evaluar los constructos clave de este estudio, alineándose con el Modelo de Aceptación Tecnológica (TAM) (Davis, 1989). En primer lugar, se midió el optimismo tecnológico de los participantes y su percepción sobre la utilidad de ChatGPT, dado que investigaciones previas han demostrado que la utilidad percibida influye significativamente en la confianza y en la intención de uso de herramientas de inteligencia artificial (Al-Abdullatif y Alsubaie, 2024; Huang et al., 2022).

Asimismo, el cuestionario incluyó ítems para evaluar la facilidad de uso percibida y la confianza en herramientas de inteligencia artificial, utilizando escalas previamente validadas en estudios anteriores (Marimon et al., 2024). Se realizó un análisis factorial para confirmar la validez de los constructos, garantizando que cada ítem capturara con precisión la dimensión correspondiente dentro del marco teórico.

ChatGPT, una herramienta de propósito general reconocida por su facilidad de aprendizaje y accesibilidad, ha ganado rápidamente aceptación en la educación superior, proporcionando apoyo a los estudiantes en tareas de redacción académica, investigación y resolución de problemas. En este contexto, el diseño del cuestionario se orientó a comprender cómo los estudiantes perciben la utilidad y confiabilidad de esta tecnología, así como los factores que influyen en su adopción.

Tabla 1
Ítems propuestos para el cuestionario

Fuente: elaboración propia.

Administración de la encuesta y perfil demográfico de los participantes

La encuesta fue distribuida y completada en octubre de 2024, obteniéndose un total de 316 respuestas completas. Los encuestados fueron estudiantes argentinos con experiencia en el uso de herramientas de inteligencia artificial generativa (IA-Gen) en sus actividades académicas. La mayoría de los participantes fueron mujeres (60,8%) y, en su mayoría, adultos jóvenes, con un 67,4% en el rango etario de entre 18 y 25 años. En cuanto al nivel educativo, el 52,8% había completado la educación secundaria, mientras que el 25,6% poseía un título universitario. La muestra incluyó estudiantes de universidades tanto públicas (26,6%) como privadas (73,4%), siendo la mayoría asistentes a clases con una matrícula de entre 10 y 50 estudiantes.

Respecto al uso de herramientas de IA generativa, el 35,4% indicó utilizarlas de forma esporádica, mientras que un 10,4% reportó un uso diario. Este estudio ofrece información relevante sobre la confianza de los estudiantes en la inteligencia artificial en el contexto del sistema de educación superior argentino, aunque los resultados podrían variar en otros entornos culturales e institucionales.

Tabla 2
Características demográficas de la muestra

Fuente: elaboración propia.

Evaluación del modelo de investigación

Se llevaron a cabo tres Análisis Factoriales Exploratorios (EFA) independientes utilizando el método de análisis de componentes principales con rotación varimax. Este procedimiento permitió identificar y refinar los ítems que representaban con mayor precisión cada constructo del modelo de investigación. Con este enfoque, se garantizó que los constructos fueran estadísticamente sólidos y estuvieran alineados con los objetivos del estudio.

El primer EFA incluyó ítems correspondientes a las dimensiones de "Optimismo" e "Innovación", adaptadas de la escala TRI. El segundo EFA se aplicó a los ítems adaptados del Modelo de Aceptación Tecnológica (TAM), centrándose en las dimensiones de "Utilidad Percibida" y "Facilidad de Uso". El tercer y último EFA se enfocó en los ítems seleccionados para la dimensión "Confianza".

Una vez completados los análisis exploratorios, el modelo de investigación, representado en la Figura 1, fue probado mediante Modelado de Ecuaciones Estructurales (SEM). Para ello, se empleó el método de máxima verosimilitud robusta basado en la matriz de varianza-covarianza asintótica, con la asistencia del software EQS. Se evaluaron rigurosamente las propiedades psicométricas de cada constructo, incluyendo la fiabilidad (medida mediante el alfa de Cronbach y la fiabilidad compuesta (CR)) y la validez convergente (evaluada a través de la varianza extraída media (AVE)). Además, se realizó un análisis discriminante para garantizar la independencia de los constructos, comparando la raíz cuadrada del AVE de cada dimensión con sus correlaciones con otros constructos.

El ajuste general del modelo fue evaluado utilizando distintos índices de bondad de ajuste, incluyendo el chi-cuadrado de Bentler-Satorra, su coeficiente y grados de libertad, así como otros índices como el Índice de Ajuste Comparativo (CFI) y el Error Cuadrático Medio de Aproximación (RMSEA). Una vez confirmado el ajuste del modelo, se analizaron e interpretaron los coeficientes estandarizados para obtener información detallada sobre las relaciones entre los constructos.

La validación del cuestionario se llevó a cabo antes de la recolección de datos, siguiendo las pautas metodológicas establecidas por Marimon et al. (2024). El instrumento fue desarrollado mediante la adaptación de ítems validados en estudios previos, asegurando su alineación conceptual con los constructos en análisis. La selección y refinamiento de los ítems se realizó con el juicio de expertos, a través de un panel de especialistas en tecnología educativa y psicometría, quienes revisaron el cuestionario para evaluar su claridad, pertinencia y validez de constructo. Además, se llevó a cabo una prueba piloto preliminar con un grupo reducido de estudiantes universitarios para evaluar la comprensión de los ítems y la coherencia en las respuestas.

El cuestionario fue administrado en español, ya que la población objetivo estaba compuesta por estudiantes universitarios de Argentina. Para asegurar la equivalencia semántica y conceptual de los ítems, se realizó un proceso de validación lingüística, adaptando los términos al contexto local. Se empleó una escala Likert de 5 puntos, que oscilaba entre 1 ("Totalmente en desacuerdo") y 5 ("Totalmente de acuerdo"), permitiendo una medición precisa de las percepciones de los participantes sobre las variables del estudio. La administración del cuestionario se realizó en línea a través de una plataforma de encuestas, asegurando accesibilidad y eficiencia en la recolección de datos.

La muestra del estudio estuvo compuesta por 316 estudiantes universitarios argentinos, representando una diversidad de trayectorias académicas y experiencias previas con herramientas de IA. En términos de nivel educativo, el 52.8 % de los participantes había completado la educación secundaria, el 25.6 % poseía un título universitario, y el 15.5 % contaba con formación técnica o profesional. En relación con la familiaridad con la IA, el 34.2 % reportó experiencia mínima previa, el 42.7 % indicó exposición moderada, y el 23.1 % mencionó un uso frecuente en contextos académicos. La muestra incluyó estudiantes de universidades públicas (26.6 %) y privadas (73.4 %), lo que aseguró una representación heterogénea del panorama de la educación superior en Argentina. Estos datos demográficos proporcionan un marco de referencia integral para comprender la composición de la muestra y contextualizar los hallazgos del estudio dentro de la adopción de la inteligencia artificial en la educación superior.

Para garantizar la transparencia metodológica y el rigor analítico, se emplearon técnicas estadísticas tanto descriptivas como inferenciales. Se realizó un análisis de varianza (ANOVA) para identificar diferencias significativas entre los grupos en relación con sus percepciones sobre la utilidad percibida, la facilidad de uso y la confianza en ChatGPT. La elección del ANOVA se justificó por su capacidad para comparar diferencias de medias entre múltiples grupos independientes, controlando la varianza dentro de la muestra. Además, se generaron box plots para visualizar la distribución de las respuestas de las variables clave, permitiendo identificar posibles valores atípicos y patrones de variabilidad en los datos. Estas técnicas permitieron realizar un análisis sólido de las relaciones entre los constructos del estudio.

Se realizó un análisis adicional para examinar el papel de variables no determinantes, como el número de estudiantes en clase o el uso del correo electrónico. Si bien estas variables no mostraron efectos directos significativos, se llevaron a cabo análisis exploratorios adicionales para evaluar posibles influencias indirectas. Los resultados sugieren que su falta de impacto podría atribuirse a factores contextuales, como diferencias institucionales o niveles variables de adopción tecnológica entre los encuestados. Además, limitaciones en la medición podrían haber reducido su significancia estadística. No obstante, la exclusión de estas variables no comprometió la robustez del modelo, lo cual fue confirmado mediante validaciones estadísticas complementarias. Esta discusión se integró en la sección de resultados para proporcionar una interpretación más matizada de los hallazgos.

Todos los análisis estadísticos fueron realizados utilizando SPSS versión 27 y el software R (versión 4.2.1). El procesamiento de datos incluyó estadística descriptiva, análisis de fiabilidad (alfa de Cronbach) y pruebas inferenciales para evaluar las relaciones entre las variables. Se utilizó ANOVA para comparar diferencias de medias entre grupos, mientras que el Análisis Factorial Confirmatorio (CFA) fue realizado con el paquete lavaan en R para validar la estructura del modelo de medición. Además, se generaron box plots para visualizar la distribución de los datos y detectar posibles valores atípicos. El enfoque metodológico siguió las mejores prácticas en análisis estadístico, asegurando la replicabilidad de los procedimientos utilizados. Se detallaron todos los pasos de preprocesamiento de datos, codificación y transformaciones para facilitar su reproducibilidad en futuras investigaciones.

Estos resultados respaldan la validez y fiabilidad del modelo de investigación, confirmando que la confianza en ChatGPT es un factor clave en su adopción por parte de los estudiantes universitarios. La aplicación rigurosa de estos métodos analíticos garantiza la solidez de los hallazgos y su contribución a la comprensión de la integración de herramientas de inteligencia artificial en la educación superior.

Doble mediación del rol de la “Utilidad percibida” y la “Facilidad de uso”

Un aspecto crítico de este estudio, como se ilustra en la Figura 1, es el papel mediador de la "Utilidad percibida" y la "Facilidad de uso" en la relación entre el "Optimismo tecnológico" y la "Confianza en ChatGPT". Esta sección se dedica a un análisis detallado de este efecto de mediación, el cual representa el objetivo secundario del estudio.

La metodología utilizada para evaluar el papel mediador de ambos constructos se basó en los trabajos seminales de Baron y Kenny (1986), Hayes (2009) y Zhao et al. (2010). Estos estudios proporcionan un marco teórico sólido para comprender los mecanismos a través de los cuales la "Utilidad percibida" y la "Facilidad de uso" facilitan la transición del optimismo tecnológico hacia la confianza en la herramienta.

RESULTADOS

La estructura delineada en la sección anterior se siguió para presentar los principales resultados empíricos basados en los datos recopilados. Antes de proceder con el análisis, se realizó la prueba de un solo factor de Harman para verificar la posible presencia de sesgo por método común (CMB, por sus siglas en inglés). Se llevó a cabo un Análisis Factorial Exploratorio (EFA) con los 46 ítems del cuestionario, identificándose ocho factores con valores propios mayores a uno, siendo el primer factor responsable de solo 17.92 % de la varianza total. Este resultado sugiere que el sesgo por método común no representó un problema significativo en este estudio.

Como se mencionó anteriormente, el análisis comenzó con tres EFAs. Los criterios utilizados para la retención de ítems siguieron las directrices de Ladhari (2012) y Wolfinbarger y Gilly (2003), que establecen que: (i) los ítems deben presentar cargas factoriales de 0.7 o superiores en un solo factor, (ii) los ítems no deben cargar más de 0.50 en dos factores diferentes, y (iii) los ítems deben tener una correlación ítem-total superior a 0.50.

El primer EFA, centrado en las dimensiones "Optimismo" e "Innovación" de la escala TRI, confirmó la distinción entre ambas dimensiones originales. Se calculó el alfa de Cronbach para ambos constructos, obteniéndose un valor superior a 0.7 para "Optimismo", lo que confirmó su fiabilidad. Sin embargo, "Innovación" no alcanzó este umbral, por lo que fue excluido del análisis posterior.

El segundo EFA, que examinó conjuntamente las dimensiones "Utilidad percibida" y "Facilidad de uso", reveló que dos ítems en cada dimensión presentaban cargas factoriales superiores a 0.7. Ambas dimensiones obtuvieron valores favorables en el alfa de Cronbach, lo que respaldó su fiabilidad y permitió su inclusión en el modelo final.

El tercer y último EFA, aplicado a los siete ítems originales de "Confianza", retuvo seis ítems, con un alfa de Cronbach superior a 0.7, asegurando su validez y fiabilidad dentro del modelo.

La Tabla 3 presenta el análisis de fiabilidad de los cuatro constructos incluidos en el modelo final. La consistencia interna fue confirmada mediante el alfa de Cronbach y la fiabilidad compuesta (CR), cuyos valores superaron el umbral recomendado de 0.7 (Hair Jr et al., 2010). Adicionalmente, la varianza extraída promedio (AVE) superó el punto de corte de 0.5 (Nunnally y Bernstein, 1994), validando la validez convergente de los constructos.

Tabla 3
Cargas factoriales de los cuatro constructos y análisis de fiabilidad

Fuente: elaboración propia.

La Tabla 4 presenta los resultados del análisis de validez discriminante, el cual se llevó a cabo utilizando correlaciones lineales o covarianzas estandarizadas entre los factores latentes. Para evaluar la validez discriminante, se verificó que las correlaciones entre los constructos fueran menores que la raíz cuadrada de la AVE de cada uno de ellos (Fornell y Larcker, 1981).

La Tabla 4 muestra que la raíz cuadrada de la AVE de cada constructo es mayor que los elementos fuera de la diagonal, lo que respalda la validez discriminante. Esto confirma que cada constructo mide un concepto distinto y no existe colinealidad excesiva entre los factores.

Tabla 4
Matriz de correlaciones entre factores latentes

Fuente: elaboración propia.

Una vez seleccionados los ítems que se utilizarían en el modelo completo, se estimó el modelo mediante Modelado de Ecuaciones Estructurales (SEM) basado en covarianzas. Los índices de ajuste obtenidos en la estimación del modelo indicaron que las variables convergieron adecuadamente hacia los factores establecidos en el modelo de investigación.

El chi-cuadrado de Satorra–Bentler (χ²) fue de 182.5, con 49 grados de libertad y un p-valor de 0.000; el χ²/df resultó ser 3.72, valor dentro del límite aceptable de 5. Además, el error cuadrático medio de aproximación (RMSEA) fue de 0.093, mientras que el índice de ajuste comparativo (CFI) alcanzó un valor de 0.924. Considerando la sensibilidad de la estadística robusta χ² y observando los indicadores globales, el ajuste general del modelo fue aceptable (Hair Jr et al., 2010).

La Figura 2 presenta el modelo de investigación con los coeficientes estandarizados y sus valores t asociados entre paréntesis. Todos los coeficientes fueron significativos al nivel de 0.05, excepto la relación entre "Facilidad de uso" y "Confianza". Por lo tanto, tres hipótesis fueron aceptadas, mientras que la cuarta fue rechazada.

Este hallazgo es particularmente relevante y requiere un análisis detallado. Los resultados no demostraron que la "Facilidad de uso" tenga un impacto directo sobre la "Confianza", lo que sugiere que los estudiantes universitarios confían en ChatGPT principalmente en función de su utilidad percibida, más que por la facilidad con la que pueden utilizar la herramienta.


Figura 2
Modelo de investigación con coeficientes estandarizados y valores t asociados
Fuente: elaboración propia.

Los resultados de este estudio ofrecen hallazgos significativos sobre cómo los estudiantes universitarios desarrollan confianza en herramientas de inteligencia artificial generativa como ChatGPT. En primer lugar, el análisis revela que el "Optimismo tecnológico" tiene un impacto directo y significativo en la "Confianza", así como en la "Utilidad percibida" y la "Facilidad de uso". Estos efectos son igualmente fuertes, lo que sugiere que los estudiantes con una actitud más optimista hacia las nuevas tecnologías no solo encuentran que ChatGPT es más fácil de usar, sino que también lo perciben como una herramienta más útil en sus tareas académicas. Sin embargo, surge una distinción clave al examinar las rutas que conducen a la confianza: mientras que la "Utilidad percibida" tiene un impacto significativo en la "Confianza", la "Facilidad de uso" no lo tiene.

La Tabla 5 presenta la descomposición de los efectos de mediación de "Utilidad percibida" y "Facilidad de uso" en la relación entre "Optimismo" y "Confianza", lo que constituye un elemento central del modelo de investigación. De manera notable, el efecto directo del optimismo sobre la confianza es tan fuerte como el efecto indirecto total (a través de "Utilidad percibida" y "Facilidad de uso"), con ambos mostrando un coeficiente estandarizado idéntico de 0.365. Esta coincidencia resalta la importancia tanto de las rutas directas como de las mediadas en la construcción de la confianza. No obstante, un análisis más profundo de los efectos indirectos revela que la "Utilidad percibida" juega un papel crucial en esta mediación, mientras que la "Facilidad de uso" contribuye poco al desarrollo de la confianza.

Las implicaciones son claras: para fomentar la confianza en ChatGPT, la percepción de utilidad de la herramienta es esencial. Si los estudiantes consideran que la herramienta es fácil de usar o no, resulta menos relevante en este sentido. Esto sugiere que la curva de aprendizaje para el uso de ChatGPT no representa una barrera significativa para el desarrollo de la confianza; una vez que los estudiantes dominan su funcionalidad básica, su confianza depende principalmente de la capacidad de la herramienta para ofrecer resultados valiosos y confiables.

Según Zhao et al. (2010), este hallazgo indica que la mediación a través de la "Utilidad percibida" es complementaria, mientras que la "Facilidad de uso" no actúa como mediador. En otras palabras, la percepción de utilidad de los resultados generados por ChatGPT permite el fortalecimiento de la confianza, independientemente de lo fácil que sea su uso. Esto subraya el papel crucial que desempeñan los beneficios prácticos de la inteligencia artificial generativa en la formación de la confianza de los estudiantes, sugiriendo que los desarrolladores y educadores deberían centrarse en demostrar el valor tangible de estas herramientas en lugar de enfatizar únicamente su facilidad de uso.

Tabla 5
Matriz de correlaciones entre factores latentes

Fuente: elaboración propia.

Cada celda muestra el valor estandarizado y, entre paréntesis, el p-valor. Las letras a, b, c y d corresponden a la notación en la Figura 1.

DISCUSIÓN

Los hallazgos de este estudio brindan una comprensión más profunda sobre cómo los estudiantes universitarios desarrollan confianza en las herramientas de inteligencia artificial generativa, específicamente en ChatGPT. En consonancia con el modelo adaptado de Marimon et al. (2024), se encontró que el optimismo tecnológico de los estudiantes tiene un impacto significativo tanto en la utilidad percibida como en la confianza en ChatGPT. Sin embargo, el análisis también reveló una diferencia clave en el contexto académico: la "Facilidad de uso" de ChatGPT no tiene un impacto directo significativo en la "Confianza", a diferencia de lo observado en estudios centrados en el ámbito laboral.

Este hallazgo sugiere que, en el entorno académico, los estudiantes tienden a priorizar la utilidad práctica percibida de la herramienta sobre su facilidad de uso. Una posible explicación es que los estudiantes universitarios, al enfrentar demandas académicas específicas, valoran más los beneficios tangibles de ChatGPT, como su capacidad para generar contenido relevante y preciso, en lugar de la simplicidad de su interfaz. Esto contrasta con el contexto laboral analizado por Marimon et al. (2024), donde la facilidad de uso desempeñó un papel más destacado en la confianza de los empleados, posiblemente debido a la necesidad de una integración rápida y sin fricciones en los flujos de trabajo.

La relación entre "Optimismo" y "Confianza" fue particularmente sólida, lo que indica que aquellos estudiantes con una actitud positiva hacia la adopción de nuevas tecnologías están más inclinados a confiar en ChatGPT. Este resultado se alinea con la literatura sobre adopción tecnológica, que sugiere que el optimismo hacia las innovaciones tecnológicas puede ser un fuerte predictor de la disposición a aceptar nuevas herramientas (Parasuraman y Colby, 2014). Sin embargo, este estudio amplía dicha comprensión al demostrar que, en el contexto de la educación superior, la utilidad percibida actúa como un mediador crucial entre el optimismo y la confianza.

Los hallazgos de este estudio tienen implicaciones prácticas significativas para el diseño de programas de formación tecnológica en universidades. Dado que la utilidad percibida de ChatGPT influye directamente en la confianza de los estudiantes, las universidades deberían centrarse en desarrollar programas que no solo enseñen el uso básico de la herramienta, sino que también resalten sus beneficios prácticos en el ámbito académico.

Por ejemplo, podrían implementarse talleres específicos para demostrar cómo utilizar ChatGPT en la redacción de ensayos, la elaboración de revisiones de literatura y la generación de ideas innovadoras para proyectos de investigación. Estas actividades permitirían a los estudiantes experimentar de forma directa el valor de la herramienta en diferentes áreas de su formación académica.

Además, la integración de módulos de formación dentro de cursos existentes podría ser una estrategia efectiva para fomentar el uso continuo de ChatGPT. En cursos de metodología de la investigación, por ejemplo, ChatGPT podría emplearse para guiar a los estudiantes en la estructuración y organización de sus trabajos. En cursos de ciencias sociales, la herramienta podría utilizarse para simular debates sobre temas complejos.

Este enfoque práctico permitiría a los estudiantes comprender cómo ChatGPT puede ser una herramienta útil y relevante en su proceso de aprendizaje, aumentando así su predisposición a adoptarlo como parte de su educación universitaria.

Promoviendo un uso crítico de la Inteligencia Artificial

La adopción de ChatGPT debe ir acompañada de esfuerzos por parte de las universidades para promover un uso crítico de la inteligencia artificial generativa. Los resultados muestran que los estudiantes con una actitud optimista hacia la tecnología tienden a confiar más en ChatGPT, lo cual es positivo para su adopción. Sin embargo, es fundamental que esta confianza no se traduzca en un uso acrítico de la herramienta. Los educadores deben enfatizar que, si bien ChatGPT puede ser un aliado en el proceso de aprendizaje, no es infalible y puede generar información inexacta o sesgada.

Para fomentar un uso crítico, los programas de formación podrían incluir actividades que incentiven a los estudiantes a comparar la información generada por ChatGPT con fuentes académicas tradicionales. Esto les permitiría evaluar la calidad de las respuestas de ChatGPT y discernir cuándo es más apropiado utilizar la herramienta. Además, los docentes podrían diseñar tareas que requieran a los estudiantes justificar y analizar los resultados obtenidos con ChatGPT, promoviendo así un enfoque reflexivo y crítico en su uso.

Desarrollando competencias digitales y éticas

La integración de la inteligencia artificial en la educación superior debe ir acompañada de un fortalecimiento de las competencias digitales y éticas de los estudiantes. ChatGPT, al igual que otras herramientas de inteligencia artificial, opera a través de algoritmos complejos cuyos procesos no siempre son transparentes para el usuario. Por ello, es fundamental que los estudiantes comprendan el funcionamiento básico de estas tecnologías y los posibles sesgos que pueden influir en sus resultados. Las universidades deberían desarrollar módulos de formación que aborden cuestiones éticas como la privacidad de los datos, la propiedad intelectual y el impacto social de la inteligencia artificial.

Los resultados de este estudio subrayan la importancia de que los estudiantes perciban la utilidad de ChatGPT, ya que aquellos que lo hacen tienen una mayor predisposición a integrarlo en su proceso de aprendizaje. Sin embargo, esta integración debe ir de la mano de una comprensión crítica de las limitaciones de la tecnología, permitiendo que los estudiantes aprovechen sus beneficios de manera consciente y responsable.

Este estudio sugiere que las universidades deberían considerar la utilidad percibida de las herramientas de inteligencia artificial generativa como un factor clave en el diseño de sus planes de estudio. La integración de tecnologías como ChatGPT no debe verse como un fin en sí mismo, sino como un medio para enriquecer la experiencia de aprendizaje y desarrollar habilidades críticas en los estudiantes. Las universidades que lideren la adopción de estas herramientas tienen la oportunidad de crear programas interdisciplinarios que conecten la inteligencia artificial con diversas áreas del conocimiento.

Por ejemplo, los departamentos de ciencias de la computación podrían colaborar con las facultades de ciencias sociales y humanidades para diseñar cursos en los que se enseñe a los estudiantes a aplicar herramientas de IA generativa en el análisis de datos, la interpretación de textos y la creación de proyectos innovadores. Esta colaboración interdisciplinaria no solo fortalecería el uso de la inteligencia artificial en la educación superior, sino que también prepararía a los estudiantes para un entorno profesional cada vez más digitalizado y competitivo.

En términos generales, estos hallazgos destacan la importancia de desarrollar un enfoque centrado en los beneficios tangibles que ChatGPT y otras herramientas de IA pueden ofrecer a los estudiantes universitarios. Al demostrar cómo estas tecnologías pueden apoyar y mejorar el aprendizaje, las universidades pueden promover una adopción más amplia y efectiva de la inteligencia artificial generativa en sus programas. Esto no solo facilitará la integración de la IA en el entorno académico, sino que también empoderará a los estudiantes para que se conviertan en usuarios críticos e informados, preparados para enfrentar los desafíos tecnológicos del futuro.

Principales hallazgos e implicaciones prácticas

La confianza en ChatGPT emerge como un factor determinante para su adopción entre los estudiantes universitarios. El estudio confirma que la disposición de los estudiantes a integrar herramientas de inteligencia artificial en sus actividades académicas está influida significativamente por su percepción sobre la utilidad de dichas herramientas. Este hallazgo refuerza la vigencia de los modelos de aceptación tecnológica, al subrayar la importancia de generar confianza en la inteligencia artificial para fomentar su uso efectivo en el ámbito educativo.

La investigación también pone de manifiesto que la utilidad percibida desempeña un papel más relevante en la adopción de la IA que la facilidad de uso. Si bien una interfaz intuitiva puede facilitar el acercamiento inicial, los estudiantes priorizan los beneficios prácticos que ChatGPT ofrece para sus procesos de aprendizaje. En consecuencia, las instituciones de educación superior deberían enfocarse en fortalecer las competencias digitales del estudiantado mediante programas de formación estructurados que promuevan una integración significativa y efectiva de la inteligencia artificial en los entornos académicos.

Para garantizar una adopción responsable de la IA, las universidades deben desarrollar políticas claras que respeten los principios éticos y resguarden la integridad académica. Estas políticas deben incluir orientaciones sobre el uso responsable de la IA, al mismo tiempo que fomenten que los docentes incorporen tecnologías basadas en inteligencia artificial en sus prácticas de enseñanza. Al promover un enfoque crítico e informado, los educadores pueden ayudar a los estudiantes a comprender tanto los beneficios como las limitaciones de las herramientas de IA generativa, asegurando así su uso responsable y eficaz en la educación superior.

CONCLUSIONES

Los hallazgos de este estudio tienen el potencial de redefinir cómo las universidades diseñan e implementan políticas de integración de inteligencia artificial generativa, como ChatGPT, en sus programas académicos. Al demostrar que la utilidad percibida de ChatGPT tiene un impacto más significativo en la confianza de los estudiantes que la facilidad de uso, este estudio sugiere que las instituciones de educación superior deberían centrarse en resaltar el valor práctico de estas herramientas para el aprendizaje, en lugar de limitarse a facilitar su uso. Esto implica que las políticas de integración de IA deben priorizar la creación de espacios de formación donde los beneficios concretos de estas tecnologías para el desarrollo de habilidades académicas —como la redacción de ensayos, la investigación y la resolución de problemas complejos— sean evidentes.

Las universidades podrían beneficiarse de la implementación de políticas que promuevan la incorporación de ChatGPT en actividades curriculares específicas, como talleres, módulos de cursos y proyectos interdisciplinarios, con el objetivo de reforzar la percepción de utilidad de la herramienta entre los estudiantes. Además, estas políticas deberían fomentar el desarrollo de competencias críticas y éticas, asegurando que los estudiantes no solo adopten la tecnología, sino que también se conviertan en usuarios reflexivos y responsables.

Los resultados de este estudio proporcionan información valiosa sobre cómo los estudiantes universitarios desarrollan confianza en herramientas de IA generativa como ChatGPT. En primer lugar, el análisis revela que el "Optimismo tecnológico" tiene un impacto directo y significativo en la "Confianza", así como en la "Utilidad percibida" y la "Facilidad de uso". Estos efectos son igualmente fuertes, lo que sugiere que los estudiantes que son más optimistas respecto a las nuevas tecnologías no solo encuentran ChatGPT más fácil de usar, sino que también lo perciben como una herramienta más útil para sus tareas académicas.

Sin embargo, surge una distinción clave al examinar los factores que conducen a la confianza: mientras que la "Utilidad percibida" tiene un impacto significativo en la confianza, la "Facilidad de uso" no. Esto sugiere que la curva de aprendizaje de ChatGPT no representa una barrera importante para el desarrollo de la confianza; una vez que los estudiantes dominan su funcionalidad básica, su confianza depende principalmente de la capacidad de la herramienta para proporcionar resultados valiosos y confiables.

Los resultados de este estudio abren nuevas líneas de investigación que podrían ampliar la comprensión del impacto de la IA generativa en el ámbito académico. En primer lugar, sería valioso explorar cómo el uso de ChatGPT afecta la interacción entre estudiantes y docentes, analizando si esta herramienta facilita una comunicación más efectiva y cómo influye en la dinámica del aula. Por ejemplo, podrían diseñarse estudios para evaluar si el uso de ChatGPT mejora la participación de los estudiantes en debates académicos o si ayuda a los docentes a ofrecer una retroalimentación más personalizada.

Otro aspecto relevante para futuras investigaciones es el impacto de ChatGPT en la evaluación del desempeño académico de los estudiantes. Dado que esta herramienta puede apoyar la preparación de trabajos académicos y la comprensión de conceptos complejos, sería relevante investigar si su uso se traduce en mejoras medibles en las calificaciones de los estudiantes o en la calidad de sus trabajos. Esto permitiría a las universidades evaluar con mayor precisión el valor agregado de integrar ChatGPT en los procesos de enseñanza y aprendizaje, así como ajustar sus políticas de adopción tecnológica para maximizar los beneficios académicos.

Dado que este estudio se centra en la percepción de los estudiantes, una limitación inherente es la subjetividad de las respuestas, lo que puede introducir sesgos en la interpretación de los hallazgos. Diferencias individuales, experiencias previas y contextos institucionales podrían haber influido en la evaluación que los participantes hicieron de la utilidad y confiabilidad de ChatGPT. Aunque los datos autoreportados proporcionan información valiosa sobre las actitudes de los usuarios, pueden no reflejar completamente los patrones de comportamiento o las tendencias de adopción a largo plazo. Para abordar estas limitaciones, futuras investigaciones podrían incorporar enfoques cualitativos, como entrevistas en profundidad o grupos focales, para explorar las motivaciones subyacentes detrás de las percepciones de los estudiantes.

Además, estudios longitudinales permitirían analizar cómo evoluciona la confianza en herramientas de IA a lo largo del tiempo, lo que contribuiría a una comprensión más profunda del fenómeno. Esto ayudaría a las universidades a desarrollar estrategias de implementación a largo plazo, adaptándose a las necesidades cambiantes de los estudiantes y a la evolución continua de la IA generativa.

Este estudio proporciona una base sólida para el diseño de políticas educativas más efectivas en la integración de IA, al tiempo que plantea preguntas clave que merecen una mayor exploración en futuras investigaciones. La integración estratégica de herramientas como ChatGPT no solo puede enriquecer las experiencias de aprendizaje de los estudiantes, sino que también puede preparar a las universidades para un futuro en el que la inteligencia artificial sea un componente central de la experiencia educativa.

Material suplementario
Información adicional

Cómo citar: Marimon, F., Arias-Valle, M. B., Coria-Augusto, C. J., & Larrea Arnau, C. M. (2025). From optimism to trust: how ChatGPT is reshaping student confidence in AI-driven learning. [Del optimismo a la confianza: el impacto de ChatGPT en la confianza de los estudiantes en el aprendizaje asistido por IA]. RIED-Revista Iberoamericana de Educación a Distancia, 28(2), 131-153. https://doi.org/10.5944/ried.28.2.43238

Información adicional

redalyc-journal-id: 3314

REFERENCIAS
Acemoglu, D., Johnson, S. y Viswanath, K. (2023). Why the Power of Technology Rarely Goes to the People. MIT Sloan Management Review, 65(1), 12-14.
Al-Abdullatif, A. M. y Alsubaie, M. A. (2024). ChatGPT in Learning: Assessing Students’ Use Intentions through the Lens of Perceived Value and the Influence of AI Literacy. Behavioral Sciences, 14(9). https://doi.org/10.3390/bs14090845
Al-kfairy, M., Mustafa, D., Kshetri, N., Insiew, M. y Alfandi, O. (2024). Ethical Challenges and Solutions of Generative AI: An Interdisciplinary Perspective. Informatics, 11(3). https://doi.org/10.3390/informatics11030058
Baron, R. M. y Kenny, D. A. (1986). The moderator–mediator variable distinction in social psychological research: Conceptual, strategic, and statistical considerations. Journal of Personality and Social Psychology, 51(6), 1173-1182. https://doi.org/10.1037/0022-3514.51.6.1173
Bender, E. M., Gebru, T., McMillan-Major, A. y Shmitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? FAccT '21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency. 610-623. https://doi.org/10.1145/3442188.3445922
Davis, F. D. (1989). Perceived Usefulness, Perceived Ease of Use, and User Acceptance of Information Technology. MIS Quarterly, 13(3), 319-340. JSTOR. https://doi.org/10.2307/249008
Forero-Corba, W. y Negre Bennasar, F. (2024). Técnicas y aplicaciones del Machine Learning e inteligencia artificial en educación: Una revisión sistemática. RIED-Revista Iberoamericana de Educación a Distancia, 27(1), 209-253. https://doi.org/10.5944/ried.27.1.37491
Fornell, C. y Larcker, D. F. (1981). Evaluating structural equation models with unobservable variables and measurement error. Journal of Marketing Research, 18(1), 39-50. https://doi.org/10.2307/3151312
García Peñalvo, F. J., Llorens-Largo, F. y Vidal, J. (2024). La nueva realidad de la educación ante los avances de la inteligencia artificial generativa. RIED-Revista Iberoamericana de Educación a Distancia, 27(1), 9-39. https://doi.org/10.5944/ried.27.1.37716
Hair Jr, J. F., Black, W. C., Babin, B. J. y Anderson, R. E. (2010). Multivariate data analysis. 7th edition. Prentice Hall.
Hayes, A. F. (2009). Beyond Baron and Kenny: Statistical Mediation Analysis in the New Millennium. Communication Monographs, 76(4), 408-420. https://doi.org/10.1080/03637750903310360
Huang, W., Zhang, H., Zhang, Z., Zhang, B., Sun, X., Huo, Y., Feng, Y., Tian, P., Mo, H. y Wang, C. (2022). A prognostic nomogram based on a new classification of combined micropapillary and solid components for stage IA invasive lung adenocarcinoma. Journal of Surgical Oncology, 125(4), 796-808. https://doi.org/10.1002/jso.26760
Ladhari, R. (2012). The lodging quality index: An independent assessment of validity and dimensions. International Journal of Contemporary Hospitality Management, 24(4), 628-652. https://doi.org/10.1108/09596111211217914
Ly, B., Doeur, B. y nat, S. (2024). Key factors influencing digital learning adoption among Cambodian university students: An integrated theoretical approach. Computers in Human Behavior Reports, 15, 100460-100460. https://doi.org/10.1016/j.chbr.2024.100460
Marimon, F., Mas-Machuca, M. y Akhmedova, A. (2024). Trusting in Generative AI: Catalyst for Employee Performance and Engagement in the Workplace. International Journal of Human-Computer Interaction, 1-16. https://doi.org/10.1080/10447318.2024.2388482
Mayer, R. C., Davis, J. H. y Schoorman, F. D. (1995). An Integrative Model Of Organizational Trust. Academy of Management Review, 20(3), 709-734. https://doi.org/10.5465/amr.1995.9508080335
Nunnally, J. C. y Bernstein, I. H. (1994). Psychometric theory McGraw-Hill series. Psychology, 3.
Parasuraman, A. (2000). Technology Readiness Index (Tri): A Multiple-Item Scale to Measure Readiness to Embrace New Technologies. Journal of Service Research, 2(4), 307-320. https://doi.org/10.1177/1094670514539730
Parasuraman, A. y Colby, C. L. (2014). An Updated and Streamlined Technology Readiness Index: TRI 2.0. Journal of Service Research, 18(1), 59-74. https://doi.org/10.1177/1094670514539730
Rogers, E. M. (1995). Diffusion of innovations. Free Press.
Tang, K.-Y., Chang, C.-Y. y Hwang, G.-J. (2023). Trends in artificial intelligence-supported e-learning: A systematic review and co-citation network analysis (1998–2019). Interactive Learning Environments, 31(4), 2134-2152. https://doi.org/10.1080/10494820.2021.1875001
Venkatesh, V., Morris, M. G., Davis, G. B. y Davis, F. D. (2003). User Acceptance of Information Technology: Toward a Unified View. MIS Quarterly, 27(3), 425-478. https://doi.org/10.2307/30036540
Wolfinbarger, M. y Gilly, M. C. (2003). eTailQ: dimensionalizing, measuring and predicting etail quality. Journal of Retailing, 79(3), 183-198. https://doi.org/10.1016/S0022-4359(03)00034-4
Zawacki-Richter, O., Marín, V. I., Bond, M. y Gouverneur, F. (2019). Systematic review of research on artificial intelligence applications in higher education – where are the educators? International Journal of Educational Technology in Higher Education, 16(1), 39-39. https://doi.org/10.1186/s41239-019-0171-0
Zhao, X., Lynch, J. G., Jr. y Chen, Q. (2010). Reconsidering Baron and Kenny: Myths and Truths about Mediation Analysis. Journal of Consumer Research, 37(2), 197-206. https://doi.org/10.1086/651257
Notas

Figura 1
Modelo de investigación
Fuente: elaboración propia.
Tabla 1
Ítems propuestos para el cuestionario

Fuente: elaboración propia.
Tabla 2
Características demográficas de la muestra

Fuente: elaboración propia.
Tabla 3
Cargas factoriales de los cuatro constructos y análisis de fiabilidad

Fuente: elaboración propia.
Tabla 4
Matriz de correlaciones entre factores latentes

Fuente: elaboración propia.

Figura 2
Modelo de investigación con coeficientes estandarizados y valores t asociados
Fuente: elaboración propia.
Tabla 5
Matriz de correlaciones entre factores latentes

Fuente: elaboración propia.
Buscar:
Contexto
Descargar
Todas
Imágenes
Visor de artículos científicos generados a partir de XML-JATS por Redalyc