Servicios
Descargas
Buscar
Idiomas
P. Completa
Percepciones de futuros docentes y pedagogos sobre uso responsable de la IA. Un instrumento de medida
Melchor Gómez-García; Julio Ruiz-Palmero; Moussa Boumadan-Hamed;
Melchor Gómez-García; Julio Ruiz-Palmero; Moussa Boumadan-Hamed; Roberto Soto-Varela
Percepciones de futuros docentes y pedagogos sobre uso responsable de la IA. Un instrumento de medida
Perceptions of future teachers and pedagogues on responsible AI. A measurement instrument
RIED-Revista Iberoamericana de Educación a Distancia, vol. 28, núm. 2, pp. 105-130, 2025
Asociación Iberoamericana de Educación Superior a Distancia
resúmenes
secciones
referencias
imágenes

Resumen: Este estudio presenta la validez y fiabilidad en la creación de un instrumento diseñado para evaluar las percepciones de docentes y pedagogos en formación hacia la integración de la Inteligencia Artificial en tareas relacionadas con su profesión docente, teniendo en cuenta factores intrínsecos como la actitud hacia su uso responsable, el nivel de creatividad en la creación de material didáctico con estas herramientas, el disfrute asociado en el uso de estas herramientas, y el nivel de ansiedad al enfrentarse al aprendizaje de esta tecnología emergente en su formación académica y su relevancia en su futuro mercado laboral. Fue utilizado un diseño no experimental ex post facto a través de encuestas con un muestreo no probabilístico por conveniencia, con un total de 548 docentes y pedagogos en formación de facultades de Ciencias de la Educación del territorio español. Para la elaboración del instrumento, se utilizaron medidas de fiabilidad y validez. Respecto a la fiabilidad, fueron utilizados los índices Alfa de Cronbach, Coeficiente Spearman-Brown, Dos Mitades de Guttman y fiabilidad compuesta. Respecto a la validez, se utilizaron la validez de comprensión, constructo, convergente y discriminante. Los resultados demostraron una fiabilidad altamente satisfactoria, y en términos de validez se observó un buen ajuste del modelo. La versión final del instrumento consta de 25 ítems clasificados en cinco factores latentes.

Palabras clave: inteligencia artificial, docentes en formación, pedagogos en formación, instrumento psicométrico.

Abstract: This study presents the validity and reliability in the creation of an instrument designed to evaluate the perceptions of teachers and pedagogues in training towards the integration of Artificial Intelligence in tasks related to their teaching profession, taking into account intrinsic factors such as the attitude towards its responsible use, the level of creativity in the creation of didactic material with these tools, the associated enjoyment in the use of these tools, and the level of anxiety when facing the learning of this emerging technology in their academic training and its relevance in their future labor market. A non-experimental ex post facto design was used through surveys with a non-probabilistic sampling by convenience, with a total of 548 teachers and pedagogues in training from faculties of Education Sciences in Spain. Reliability and validity measures were used for the elaboration of the instrument. Regarding reliability, Cronbach's Alpha, Spearman-Brown Coefficient, Guttman's Two Halves and composite reliability were used. Regarding validity, comprehension, construct, convergent and discriminant validity were used. The results showed a highly satisfactory reliability, and in terms of validity, a good model fit was observed. The final version of the instrument consists of 25 items classified in five latent factors.

Keywords: artificial intelligence, teachers in training, pedagogues in training, psychometric instrument.

Carátula del artículo

Estudios e Investigaciones

Percepciones de futuros docentes y pedagogos sobre uso responsable de la IA. Un instrumento de medida

Perceptions of future teachers and pedagogues on responsible AI. A measurement instrument

Melchor Gómez-García
Universidad Autónoma de Madrid, UAM, España
Julio Ruiz-Palmero
Universidad de Málaga, UMA, España
Moussa Boumadan-Hamed
Universidad Autónoma de Madrid, UAM, España
Roberto Soto-Varela
Universidad de Valladolid, UVA, España
RIED-Revista Iberoamericana de Educación a Distancia, vol. 28, núm. 2, pp. 105-130, 2025
Asociación Iberoamericana de Educación Superior a Distancia

Recepción: 01 Diciembre 2024

Aprobación: 18 Febrero 2025

Publicación: 01 Julio 2025

INTRODUCCIÓN

Desde hace varias décadas, existe un creciente interés entre la población acerca de las posibilidades que las tecnologías digitales pueden ofrecer en el ámbito educativo, destacándose en particular la Inteligencia Artificial (IA) como una de las innovaciones más prometedoras (Şahín, 2024). Autores como Lambert y Stevens (2023) subrayan que la IA se refiere a un grupo de sistemas computacionales diseñados para aprender y realizar predicciones. No obstante, la IA que realmente ha captado la atención en los últimos años es la denominada “inteligencia artificial generativa” (IAG) la cual puede crear contenido nuevo y original como textos, imágenes, presentaciones, audios y videos a partir de prompts (instrucción) (Alenezi et al., 2023; González-Mayorga et al., 2024).

La IAG está demostrando ser una herramienta con un potencial transformador en múltiples ámbitos, incluido el educativo. De hecho, los investigadores Ng et al. (2021) subrayan que la IA “se convierte potencialmente en una de las habilidades tecnológicas más importantes del siglo XXI” (p. 2), principalmente “desde el lanzamiento de ChatGPT en noviembre de 2022, que trajo el concepto de IA generativa a la atención del público y despertó un creciente interés en su impacto potencial en la educación” (Yu y Guo, 2023, p. 1). En este contexto, gracias a la IA, los “educadores pueden aprovechar las experiencias de aprendizaje personalizadas, la generación de contenido adaptativo y el apoyo en tiempo real para los estudiantes” (Ruiz-Rojas et al., 2023, p. 1).

No obstante, la integración de la IA exige una planificación rigurosa y una formación adecuada para garantizar un uso efectivo y responsable (Gocen y Aydemir, 2020; Hwang y Chen, 2023). Sin embargo, si el objetivo de los docentes es preparar a los estudiantes para los retos del mercado laboral del siglo XXI, es imprescindible fomentar el desarrollo de habilidades, conocimientos y actitudes en IA y en concreto en IAG que les permitan adaptarse y prosperar en un mercado altamente dinámico (Farrelly y Baker, 2023). Por lo que las instituciones educativas deben ajustar y adaptar de manera ágil sus programas para incorporar el uso de la inteligencia artificial (IA) en todas las áreas del conocimiento (Bellas et al., 2023). No obstante, surge una serie de interrogantes: ¿Están los docentes y pedagogos en formación adecuadamente formados en IA e IAG para enfrentar los desafíos de su ámbito profesional? Para responder a estas cuestiones es necesario hacerse una pregunta previa, ¿Existen instrumentos de medición que evalúen el uso responsable y posibles factores intrínsecos de los docentes y pedagogos en formación con relación al uso de la IA e IAG y su repercusión en su futuro laboral?

Aunque se han realizado avances en los últimos años sobre la medición educativa en IA, existe una notable escasez de instrumentos psicométricos en la literatura científica enfocados en docentes y pedagogos en formación. Para respaldar esta afirmación, se llevó a cabo una búsqueda bibliográfica de instrumentos de evaluación de IA bajo los siguientes criterios: 1) que los instrumentos hubieran sido publicados en los últimos 2-3 años ya que es cuando más ha emergido el uso de la IA e IAG; 2) que los instrumentos estén enfocados en docentes y pedagogos en formación o docentes en activo ya que ambos pertenecen al mismo colectivo; y 3) que los instrumentos sean fiables y válidos, ya sea mediante validación de expertos o validación de constructo (análisis factorial exploratorio o confirmatorio, AFE y AFC). La Tabla 1 refleja la existencia de varios instrumentos, cada uno con una estructura y taxonomía concreta. A partir de la revisión de los estudios presentados, se observa que ninguno de estos estudios está enfocado en docentes y pedagogos en formación, excepto uno de ellos (Espinoza-San Juan et al., 2024), el cual carece de propiedades psicométricas.

Tabla 1
Análisis bibliográfico sobre instrumentos basados en IA en educación

Como se observa en la tabla previa, faltan herramientas que evalúen el uso responsable que hacen los docentes y pedagogos en formación, así como factores intrínsecos, como la creatividad para la creación de material didáctico y su planificación en tareas didácticas, el disfrute asociado a la hora de usar aplicaciones tecnológicas emergentes, o en cambio, el propio miedo-stress que pueden sentir en el propio aprendizaje y uso de las aplicaciones de AIG. Este artículo tiene como propósito la creación de un nuevo instrumento psicométrico, con un enfoque único al centrarse en estos aspectos específicos y en un colectivo que ha sido poco investigado hasta el momento.

MARCO TEÓRICO SOBRE LA TAXONOMÍA DE LOS FACTORES DEL INSTRUMENTO

El uso de la IA e IAG por parte de docentes en activo y formación está condicionado por una amplia variedad de factores que desempeñan un papel crucial (Tiwari et al., 2024). En primer lugar, uno de los principales factores es el uso responsable de esta tecnología (Aler et al., 2024), ya que “si bien ofrecen grandes oportunidades, los sistemas de IA también generan ciertos riesgos que deben gestionarse de manera adecuada y proporcionada” (Comisión Europea, 2019, p. 4), por lo que es necesario que “los estudiantes reciban capacitación sobre el uso responsable y las pautas éticas” (Hasanein y Sobaih, 2023, p. 2609). Estamos de acuerdo con las reflexiones de Brandão et al. (2024) al afirmar que existe un número de estudiantes los cuales probablemente utilizan herramientas con IAG debido a su accesibilidad y uso gratuito en contextos extracurriculares. Por ello, consideramos que el empleo de estas tecnologías exige no solo una comprensión técnica, sino también una reflexión ética por parte de los docentes y pedagogos en formación sobre el uso responsable de la IA e IAG, teniendo en cuenta las exigencias y transformaciones de sus futuros mercados laborales.

En segundo lugar, según Uzumcu y Acilmis (2024), la afirmación “los innovadores son personas creativas y emprendedoras dispuestas a asumir riesgos y abiertas a nuevas ideas” (p. 1112) encaja perfectamente con el rol de los docentes en la integración de la inteligencia artificial en sus prácticas pedagógicas. Los educadores que se destacan por su creatividad y mentalidad emprendedora son fundamentales para aprovechar el potencial de las TIC (Alemany et al., 2021), en nuestro caso, del uso de la IA e IAG ya que estas tecnologías “podría ayudarles a ser creativos en su práctica” (Chounta et al., 2022, p. 735). En lugar de limitarse a usar la IA e IAG como un simple facilitador de tareas, esta tipología de docentes tendrá una oportunidad para diseñar metodologías activas y personalizadas que mejoren la experiencia de aprendizaje (Kaouni et al., 2023), y consecuentemente, la IA podría ayudar a contribuir “al logro del cuarto ODS (objetivos desarrollo sostenible) propuesto por la ONU (Organización de las Naciones Unidas) al promover una educación inclusiva, equitativa y de calidad. Esta apertura hacia nuevas posibilidades y disposición a experimentar creativamente va a permitir que la IA e IAG se conviertan en herramientas dinámicas, capaces de enriquecer el aula y fomentar la autonomía no solo del docente sino también de los estudiantes (Mohamed et al., 2024).

Un tercer concepto es el concepto de flow digital traducido al castellano como el disfrute asociado al uso de la tecnología. La teoría del flow digital se refiere a un estado de inmersión profunda y concentración total en una actividad digital, donde el usuario experimenta una combinación de disfrute e interés intrínseco (Guillén-Gámez et al., 2023). Este concepto fue adaptado de la teoría del flujo de Mihaly Csikszentmihalyi, que originalmente describía el "flow" como un estado mental en el que una persona se encuentra completamente absorbida por una tarea (Csikszentmihalyi et al., 2014). En otras palabras, ello es “un estado psicológico en el que la persona se siente simultáneamente cognitivamente eficiente, motivada y feliz” (Moneta y Csikszentmihalyi, 1996, p. 277). En el contexto digital, el flow se refiere a actividades realizadas con tecnologías o plataformas digitales, en las que las personas sienten una alta satisfacción mientras interactúan con estas herramientas (Zhan et al., 2024). En el contexto de esta investigación, los docentes y pedagogos en formación que disfruten del uso de la IA generativa lograrán dos beneficios clave: primero, fortalecerán sus habilidades digitales, lo que les permitirá sobresalir en un mercado laboral altamente competitivo y demandante en habilidades digitales. Segundo, desarrollarán un estado de disfrute, facilitando su adaptación a entornos educativos dinámicos e innovadores, alineándose con las expectativas de empleadores que buscan profesionales con capacidades tecnológicas avanzadas y flexibilidad cognitiva.

Por último, estos colectivos docentes podrían experimentar estrés o ansiedad al aprender a utilizar la IA e IAG en contextos educativos, principalmente debido al impacto de estas tecnologías emergentes en las tasas de empleo y la vida social (Hopcan et al., 2024). La ansiedad relacionada con la IAG se puede describir como la inquietud o el miedo que algunas personas experimentan ante los posibles efectos negativos y riesgos que pueden surgir con el uso de estas tecnologías en diferentes sectores sociales (Wang y Wang, 2022). En el contexto educativo, existen varias razones por las que los educadores pueden sentir ansiedad sobre la IA. Por un lado, la idea de que ello pueda reemplazar a los docentes, lo cual provocaría una pérdida de empleos y una disminución en la calidad educativa (Wang et al., 2022). Y, por otro lado, algunos docentes temen que los sistemas de IA no puedan captar aspectos clave de la enseñanza, como la construcción de relaciones con los estudiantes y la personalización del aprendizaje (Ouyang et al., 2022). Sin embargo, hay una tercera razón que ha sido poco explorada hasta el momento en la literatura científica: la posibilidad de que los docentes y pedagogos en formación no posean y adquieran durante el grado educativo las habilidades necesarias para utilizar la IA e IAG, lo que podría limitar su capacidad para competir eficazmente en el mercado laboral y educativo.

Teniendo en consideración este marco teórico previo, el objetivo a alcanzar es validar un instrumento psicométrico para evaluar tanto el uso responsable de la IA e IAG por parte de docentes y pedagogos en formación, como de factores intrínsecos como la actitud, creatividad, disfrute (flow digital) y ansiedad hacia la integración de estas tecnologías en tareas relacionadas con su profesión docente.

MÉTODO
Diseño y tipo de muestreo

Para alcanzar los objetivos de este estudio, fue empleado un diseño no experimental (ex post facto) para evaluar las propiedades psicométricas (fiabilidad y validez) del instrumento diseñado. Los datos fueron recolectados a través del contacto directo de los autores con sus propios estudiantes, así como con otros estudiantes de sus universidades y de otras instituciones que ofrecían los grados de Magisterio y/o Pedagogía. La selección de la muestra se realizó de manera no probabilística durante los meses de septiembre y octubre de 2024, siguiendo un criterio de conveniencia, dado el acceso directo a estos grupos. La participación fue voluntaria y anónima, garantizando el consentimiento informado antes de la recolección de los datos. El proceso de recolección se llevó a cabo en horario de clase, previa autorización de los docentes responsables de las asignaturas en las que se encontraban los estudiantes. Se explicó a los participantes el propósito del estudio y se les proporcionaron instrucciones claras sobre cómo completar el instrumento. La administración del cuestionario se realizó en formato digital mediante una plataforma en línea (Google Forms), lo que permitió recopilar respuestas de manera eficiente y sistematizada. La muestra final estuvo formada por un total de 548 docentes y pedagogos en formación. La Tabla 2 muestra la distribución de los participantes según diversas variables demográficas.

Tabla 2
Distribución de la muestra de los docentes en formación

Procedimiento en la elaboración del instrumento

El instrumento se creó tras revisar la literatura sobre el uso responsable de la IA por parte de docentes y pedagogos en formación, como de factores intrínsecos como el nivel de creatividad, disfrute tecnológico (flow digital) y estrés hacia la integración de la IA en tareas relacionadas con su profesión docente. Al encontrar pocos instrumentos sobre la temática, se decidió llevar a cabo el diseño y creación de un instrumento psicométrico. Se utilizó una escala Likert de siete puntos, donde el valor uno fue asociado a la etiqueta “totalmente en desacuerdo” mientras que el valor siete se asoció a “totalmente de acuerdo”.

Tras revisar la literatura y desarrollar una batería de 41 ítems, se tomó en cuenta las recomendaciones de Hair et al. (2010), que sugieren recoger una muestra entre cinco y diez veces el número de ítems del cuestionario para analizar sus propiedades psicométricas. En este estudio, los ítems iniciales fueron 41, resultando en una proporción de 13.37, bastante superior a esta recomendación. Para los posteriores procedimientos, se siguieron las pautas recomendadas por Pérez y Carretero-Dios (2005): validez de comprensión, validez de constructo, validez convergente y discriminante y fiabilidad. Para el desarrollo de los análisis estadísticos se utilizó el software SPSS V24 y AMOS V24 perteneciente a la compañía IBM.

RESULTADOS
Validez de comprensión: análisis estadístico de los ítems

Dado que el estudio de la normalidad de los datos a través de Kolmogorov-Smirnov es muy sensible a pequeñas desviaciones en escalas tipo Likert, no se consideró como único criterio de normalidad al no soportar su contraste (p. < .05). En cambio, se siguió el criterio de Pérez y Medrano (2010) para evaluar la validez de comprensión, quienes sugieren que los ítems con asimetría y curtosis entre ±1.5 son adecuados, junto con aquellos que tienen una desviación estándar superior a 1 (Meroño et al., 2018).

La Tabla 3 muestra los ítems del instrumento organizados según sus respectivos factores. Los resultados descriptivos indicaron que todos los ítems tienen una adecuada validez de comprensión, ya que sus valores se ubicaron dentro de los límites establecidos, excepto el ítem DIM2.1 el cual sobrepasó los umbrales recomendados según Pérez y Medrano (2010), por lo tanto, fue eliminado.

Tabla 3
Coeficientes de asimetría, curtosis y desviación típica

Fuente: elaboración propia.Nota: elaboración propia. DT= desviación típica; A= asimetría; K= curtosis. * Ítems en orden inverso

Tras verificar los valores de dispersión, de asimetría y curtosis, se comprobó si la fiabilidad de cada ítem aumentaba o disminuía en comparación con el Alfa de Cronbach global al eliminarlo. También se revisó el índice de homogeneidad (correlación elemento-total corregida) para descartar ítems con coeficientes inferiores a 0.4 (Shaffer y Kipp, 2010). Por ello, se eliminaron para los posteriores procedimientos los ítems DIM4.1, DIM4.3, DIM4.5, DIM4.6. En la Tabla 4 se observa los estadísticos de cada ítem una vez eliminados los ítems con poca carga de fiabilidad.

Tabla 4
Análisis del índice de discriminación de escala

Fuente: elaboración propia.

Por último, en el contexto de este tipo de validez, Asencio et al. (2017) recomiendan verificar la unidimensionalidad del instrumento, es decir, el nivel de varianza común entre los ítems de la prueba, mediante el análisis de la correlación entre sus distintas dimensiones. La Tabla 5 muestra la matriz de correlación entre los factores latentes del instrumento tras aplicar la rotación Oblimin, lo que indica que los factores están correlacionados. Este resultado sugiere que el instrumento presenta una estructura unidimensional, basada en cinco factores latentes.

Tabla 5
Matriz de correlación factorial

Fuente: elaboración propia.

Validez de constructo: análisis factorial exploratorio

Después de comprobar la validez de comprensión, se evaluó la unidimensionalidad del instrumento mediante el AFE. Este tipo de validez fue realizada bajo la rotación Oblimin y el método de Factorización de Ejes Principales para explicar la mayor parte de la varianza común. Este enfoque es adecuado incluso cuando el supuesto de normalidad no se cumple plenamente (Fabrigar et al., 1999).

En primer lugar, se comprobó la adecuación de los ítems respecto a la pertenencia a sus factores latentes, con la prueba de esfericidad de Bartlett (Chi-cuadrado= 22279.671; gl=666; p. < 0.05) y el índice de esfericidad de Kaiser-Meyer-Olkin (KMO= 0.960). Ambos coeficientes fueron satisfactorios. Según el criterio de Kaiser de Cattell (1966), solo los factores con autovalores superiores a 1 deben extraerse; en este caso, los cinco primeros factores latentes cumplieron con este criterio, como se muestra en la Tabla 6. Así, la escala creada consta de cinco factores, explicando una varianza total del 76.89 %: DIM2 (47.13 %), DIM5 (11.07 %), DIM3 (7,32 %), DIM4 (6.05 %), Y DIM1 (5.32 %).

Tabla 6
Autovalores y varianza explicada

Fuente: elaboración propia.

En la Tabla 7 se observa que el mayor porcentaje de varianza verdadera en la unidimensionalidad del instrumento fue la dimensión 2 (disfrute tecnológico en el uso responsable y seguro de la IA), incluyendo los ítems DIM2.4, DIM2.3, DIM2.10, DIM2.8, DIM2.5, DIM2.2, DIM2.7, DIM2.6, y DIM2.9. El segundo factor con mayor carga fue la dimensión 5 (Uso responsable de la IA para la empleabilidad como futuro docente o pedagogo), incluyendo los ítems DIM5_2, DIM5_8, DIM5_4, DIM5_7, DIM5_1, DIM5_6, DIM5_5, DIM5_9, DIM5_3. El tercer factor con mayor saturación fue la dimensión 3 (Creatividad para usar la IA de manera responsable como futuro docente o pedagogo), incluyendo los ítems DIM3.4, DIM3.5, DIM3.7, DIM3.6, DIM3.3, DIM3.2 y DIM3.1. El cuarto factor en orden de saturación fue la dimensión 4 (Ansiedad para usar la IA en mi futuro contexto laboral), con los ítems DIM4.7, DIM4.2 y DIM4.4. El factor con menor porcentaje fue la dimensión 1 (Actitud hacia el uso de la IA para la empleabilidad como futuro docente o pedagogo), con los ítems DIM1.6, DIM1.5, DIM1.4, DIM1.7, DIM1.3, DIM1.8, DIM1.2 y DIM1.1.

Tabla 7
Cargas factoriales rotadas

Fuente: elaboración propia.

Validez de constructo: análisis factorial confirmatorio

Después del AFE, se realizó el AFC para verificar el ajuste de los datos mediante un modelo de ecuaciones estructurales, con el propósito de evaluar el ajuste del modelo teórico identificado en el AFE, según las recomendaciones de Thompson (2004) y otros autores con la creación de sus instrumentos psicométricos (Guillén Gámez et al., 2024; Soriano-Alcantara et al., 2024). Para interpretar los índices del AFC, se siguieron las recomendaciones de Bentler (1989) y Hu y Bentler (1999): discrepancia mínima/grados de libertad (CMIN/DF), donde valores menores a 5 indican un ajuste razonable; error cuadrático medio de aproximación (RMSEA), con valores inferiores a 0.07 considerados óptimos; y los índices de bondad de ajuste (GFI), ajuste comparativo (CFI) y ajuste normalizado (NFI), considerados adecuados cuando son iguales o superiores a 0.9.

Se llevaron a cabo diferentes modelos psicométricos donde fueron eliminados los siguientes ítems hasta encontrar el modelo que mejores propiedades psicométricas tenía: DIM1.1, DIM1.2, DIM1.8, DIM2.2, DIM2.3, DIM2.9, DIM3.1, DIM3.2, DIM5.1, DIM5.3, DIM5.4. Los coeficientes obtenidos fueron los siguientes: CMIN/DF (2.487) con un mayor inferior a 5; RMSEA (.052), siendo inferior a .07; GFI (.910), CFI (.973) y NFI (.955) con valores superiores a .90. La Figura 1 presenta el modelo factorial final obtenido del AFC. En esta figura también se muestran los valores de correlación estandarizados derivados del AFC.


Figura 1
Modelo de ecuaciones estructurales. Instrumento definitivo
Fuente: elaboración propia.

Validez convergente y discriminante

Una vez llevada a cabo la validez de constructo bajo el AFE y AFC, se verificaron dos tipos más de validez más. Por un lado, la validez convergente, que se refiere a la confianza en que los ítems evaluados miden el mismo factor latente (Cheung y Wang, 2017), utilizando los valores de varianza promedio extraída (AVE) los cuales han de ser superiores a .50, tal y como recomiendan Hair et al. (2010). Además, el valor de la raíz cuadrada del AVE en la diagonal debe ser mayor que las correlaciones entre factores (Hair et al., 2010). En la Tabla 8 se observa que los valores AVE superan .50 y que las raíces cuadradas de los AVE (en la diagonal y en negrita) son mayores que las correlaciones entre los factores latentes. Y, por otro lado, la validez discriminante, la cual evalúa hasta qué punto un constructo es verdaderamente distinto de otros constructos dentro de un modelo de investigación, y para ello es utilizado el índice MSV (máxima varianza compartida al cuadrado), cuyo requisito es que su valor sea inferior al AVE de cada factor latente (Fornell y Larcker, 1981). Según los resultados en la Tabla 8 se conserva la validez discriminante entre los factores latentes del instrumento.

Tabla 8
Coeficientes validez convergente y discriminante

Fuente: elaboración propia.

Análisis de fiabilidad

Finalmente, se calculó la fiabilidad de cada factor latente del instrumento, así como la consistencia interna global. Para ello, se emplearon los coeficientes alfa de Cronbach, Spearman-Brown, Guttman y confiabilidad compuesta (CR), teniendo en consideración que los valores recomendados han de ser superiores a 0.7 (Nunally, 1978; Heinzl et al., 2011). Los resultados obtenidos en los cuatro índices fueron muy satisfactorios (Tabla 9), indicando que la consistencia interna del instrumento es adecuada.

Tabla 9
Coeficientes de fiabilidad

Fuente: elaboración propia.

CONCLUSIONES Y DISCUSIONES

En el contexto educativo actual, marcado por la rápida integración de la IA e IAG (Şahín, 2024), este estudio se propuso desarrollar y validar un instrumento que permita medir las autopercepciones de docentes y pedagogos en formación sobre el uso de la IA y su relevancia en el mercado laboral. Dada la creciente importancia de esta tecnología emergente en el ámbito formativo y profesional, contar con una herramienta que evalúe múltiples dimensiones del uso de la IA e IAG resulta fundamental (Ng et al., 2021), ya que los educadores van a poder aprovechar estas herramientas para personalizar el aprendizaje en el estudiantado, generar contenidos multimedia como imágenes, videos o texto, así como analizar el aprendizaje en tiempo real (Ruiz-Rojas et al., 2023).

La mayoría de los instrumentos de medición creados hasta ahora han utilizado muestras de estudiantes a nivel general (Hornberger et al., 2023; Marquina et al., 2024; Nazaretsky et al., 2022; Saz-Pérez et al., 2024; Ng et al., 2023; Grájeda et al., 2024; Chai et al., 2024; Üzüm et al., 2024; Morales-García et al., 2024; Yilmaz et al., 2023), pero muy pocos han sido enfocados en docentes y pedagogos en formación (Espinoza-San Juan et al., 2024), dándole un valor añadido a este estudio. Este instrumento permite medir no solo el compromiso ético y responsable hacia la tecnología en términos de empleabilidad, sino también la actitud de los docentes y pedagogos en formación respecto a cómo el uso de la IA e IAG podría influir en sus oportunidades laborales. Además, incluye la evaluación de factores como el disfrute tecnológico (flow digital), la creatividad en el uso de la IA y el grado de ansiedad asociado a su aprendizaje y aplicación, aspectos que son claves para su desarrollo profesional.

Para la creación del instrumento psicométrico se siguieron los pasos recomendados por diferentes estudios realizados por Pérez y Carretero-Dios (2005), Guillén Gámez et al. (2024) o Soriano-Alcántara et al. (2024). Para tal fin se elaboró una versión inicial del instrumento con un total de 41 ítems repartidos en cinco factores latentes. Los ítems fueron creados para una escala Likert de siete puntos. En el proceso de validación psicométrico, se comprobó que la muestra era adecuada, superando ampliamente la recomendación de Hair et al. (2010), al tener un número de participantes que multiplicaba por 10 la cantidad de ítems (con una proporción inicial de 13.37, y en la versión final del instrumento de 21.92).

Para asegurar la validez de comprensión, se eliminaron los ítems que no cumplían con los rangos establecidos, basándose en los coeficientes de asimetría y curtosis y en el índice de discriminación de la escala, tal y como recomiendan Meroño et al. (2018) y Pérez y Medrano (2010). En relación con la validez del constructo, durante el AFE no se descartató ningún ítem ya que todos alcanzaron la saturación mínima de carga de .40, siguiendo las recomendaciones de Cattell (1966). Este proceso dio lugar a los cinco factores latentes descritos previamente los cuales explicaron el 76.89 % de la varianza verdadera en las puntuaciones de los participantes.

En el AFC se realizó varios ajustes con la eliminación de los ítems con peor saturación en sus correspondientes factores latentes, hasta identificar un buen ajuste, según los criterios de Bentler (1989) y Hu y Bentler (1999). En esta versión final, los coeficientes encontrados de los índices CFI, NFI, RMSEA o CMIN fueron realmente satisfactorios. Además, se comprobó la validez convergente y discriminante de esta versión final del instrumento, basándose en las pautas recomendadas y seguidas por Cheung y Wang (2017), Guillén Gámez et al. (2024) o Soriano-Alcantara et al. (2024). Concretamente, encontramos valores satisfactorios tanto en el índice AVE como en el índice MSV, tal y como recomiendan autores con una gran relevancia en la comunidad científica como Hair et al. (2010) y Fornell y Larcker (1981).

En cuanto a la fiabilidad del instrumento, se obtuvieron excelentes propiedades psicométricas medidos con el índice Alpha de Cronbach, tanto en los cinco factores latentes que conforman el instrumento, así como en la valoración global del mismo (α=.924). Los demás índices de ajuste utilizados para comprobar la consistencia interna del instrumento, como Spearman-Brown, dos mitades de Guttman y la fiabilidad compuesta (CR), también respaldaron la fiabilidad del instrumento. Los coeficientes se ubicaron dentro de los intervalos recomendados por Heinzl et al. (2011) y Nunally (1978).

Tras los diferentes análisis estadísticos llevados a cabo, la versión final del instrumento fue de 25 ítems, clasificados en cinco factores. El primer factor, llamado “Actitud hacia el uso de la IA para la empleabilidad como futuro docente o pedagogo” estuvo compuesto finalmente por cinco ítems; el segundo factor llamado “flow digital en el uso responsable y seguro de la IA” estuvo compuesto por un total de seis ítems; el tercer factor se tituló “Creatividad para usar la IA de manera responsable como futuro docente o pedagogo” con un total de cinco ítems; el cuarto factor fue “Ansiedad para usar la IA en mi futuro contexto laboral” con un total de tres ítems; y por último, la quinta dimensión fue “Uso responsable de la IA para la empleabilidad como futuro docente o pedagogo” con un total de seis ítems.

Aunque los resultados obtenidos muestran una fiabilidad y validez satisfactoria, existen ciertas limitaciones que deben reconocerse. La muestra utilizada en este estudio, compuesta exclusivamente por docentes en formación en España y seleccionada mediante un muestreo no probabilístico, representa una limitación que restringe la generalización de los resultados a otros contextos culturales y educativos. La ausencia de una selección aleatoria y la concentración en un único país pueden influir en la aplicabilidad de los hallazgos a diferentes realidades educativas. Para mitigar esta limitación, futuros estudios podrían ampliar la muestra mediante un muestreo aleatorio y estratificado que incluya docentes y pedagogos en formación de distintos niveles educativos y de diversas regiones geográficas, tanto dentro de España como en otros países. Asimismo, la replicación del estudio en contextos internacionales permitiría evaluar la validez del instrumento en distintos entornos educativos y socioculturales, lo que contribuiría a incrementar su aplicabilidad y robustez. Asimismo, sería valioso realizar estudios longitudinales para analizar cómo evoluciona la percepción y el uso de la IAG a lo largo del tiempo y de acuerdo con el avance en la formación docente.

También sería útil adaptar y validar el instrumento en entornos multiculturales para realizar estudios mixtos que involucren tanto a los docentes y pedagogos en formación como a equipos directivos de instituciones educativas y laborables, con el fin de comprender cómo afecta el uso de la IA e IAG a la práctica docente en el aula y en la gestión laboral. Es decir, como trabajo futuro, se sugiere complementar el enfoque cuantitativo con análisis cualitativos que permitan una comprensión más profunda de las percepciones y experiencias de los participantes. La integración de entrevistas o grupos focales podría aportar una visión más detallada sobre el uso de la IA. Además, la rápida evolución de esta tecnología y la variabilidad en la autopercepción de la IA e IAG por parte del colectivo analizado, podría requerir de futuras adaptaciones del instrumento que se ha creado, con el propósito de mantener su relevancia y la pertinencia de los ítems al propio instrumento.

Respecto a las implicaciones teóricas y prácticas de este estudio científico, la creación de este instrumento contribuye al campo de la educación al proporcionar un marco de referencia para evaluar el uso responsable de la IA e IAG y su relevancia en el mercado laboral. La creación de este instrumento ofrece una guía valiosa para el diseño de programas formativos que integren la IA e IAG de manera ética y efectiva, analizando la autopercepción en creencias, creatividad, disfrute tecnológico (flow digital) o niveles de ansiedad al tener que aprender el uso seguro de estas herramientas emergentes de cara a incluirlas en su futura práctica profesional.

Además, este instrumento permite a las instituciones identificar áreas específicas de formación en IA e IAG, con el fin de fortalecer la empleabilidad de los egresados no solo en el contexto educativo de docentes en formación de las etapas de Educación Primaria y Educación Infantil, donde muchos trabajarán en colegios, sino también en otros entornos laborales y socio comunitarios en los que trabajarán los pedagogos. De esta forma, la formación en IA e IAG no solo mejorará las perspectivas profesionales de este colectivo, sino que también amplía sus oportunidades en sectores que valoran habilidades tecnológicas avanzadas, respondiendo así a las demandas de un mercado laboral en constante evolución.

Financiación

Este estudio ha sido patrocinado por la Cátedra ERIA - UAM-Founderz-Microsoft (Empleabilidad y uso responsable de la IA https://catedraeria.com) y financiado por el proyecto Recursos para el uso responsable de la Inteligencia Artificial (RAI) en el desarrollo profesional y de habilidades docentes (Ref. FPYE_026.24_INN)

Material suplementario
Información adicional

Cómo citar: Gómez-García, M., Ruiz-Palmero, J. Boumadan-Hamed, M., & Soto-Varela, R. (2025). Perceptions of future teachers and pedagogues on responsible AI. A measurement instrument. [Percepciones de futuros docentes y pedagogos sobre uso responsable de la IA. Un instrumento de medida]. RIED-Revista Iberoamericana de Educación a Distancia, 28(2), 105-130. https://doi.org/10.5944/ried.28.2.43288

Información adicional

redalyc-journal-id: 3314

REFERENCIAS
Alemany Díaz, M. D. M., Vallés Lluch, A., Villanueva López, J. F. y García-Serra García, J. (2021). E-learning in "innovation, creativity and entrepreneurship": Exploring the new opportunities and challenges of technologies. Journal of Small Business Strategy (Online), 31(1), 39-50. https://doi.org/10.21125/inted.2020.0686
Alenezi, M. A. K., Mohamed, A. M. y Shaaban, T. S. (2023). Revolutionizing EFL special education: how ChatGPT is transforming the way teachers approach language learning. Innoeduca. International Journal of Technology and Educational Innovation, 9(2), 5-23. https://doi.org/10.24310/innoeduca.2023.v9i2.16774
Aler Tubella, A., Mora-Cantallops, M. y Nieves, J. C. (2024). How to teach responsible AI in Higher Education: challenges and opportunities. Ethics and Information Technology, 26(1), 1-14. https://doi.org/10.1007/s10676-023-09733-7
Asencio, E. N., García, E. J., Redondo, S. R. y Ruano, B. T. (2017). Fundamentos de la investigación y la innovación educativa. UNIR editorial.
Bellas, F., Guerreiro-Santalla, S., Naya, M. y Duro, R. J. (2023). AI curriculum for European high schools: An embedded intelligence approach. International Journal of Artificial Intelligence in Education, 33(2), 399-426. https://doi.org/10.1007/s40593-022-00315-0
Bentler, P. M. (1989). EQS structural equations program manual. BMDP Statistical Software.
Brandão, A., Pedro, L. y Zagalo, N. (2024). Teacher professional development for a future with generative artificial intelligence–an integrative literature review. Digital Education Review, (45), 151-157. https://doi.org/10.1344/der.2024.45.151-157
Cattell, R. B. (1966). The screen test for the number of factors. Multivariate Behavioral Research, 1(2), 245-276. https://doi.org/10.1207/s15327906mbr0102_10
Comisión Europea. (2019). Directorate-General for communications networks content and technology: Ethics guidelines for trustworthy AI. Publications Office. https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai
Csikszentmihalyi, M., Csikszentmihalyi, M., Abuhamdeh, S. y Nakamura, J. (2014). Flow. Flow and the foundations of positive psychology: The Collected Works of Mihaly Csikszentmihalyi, 227-238. https://doi.org/10.1007/978-94-017-9088-8_15
Chai, C. S., Yu, D., King, R. B. y Zhou, Y. (2024). Development and validation of the Artificial Intelligence Learning Intention Scale (AILIS) for University Students. SAGE Open, 14(2), 21582440241242188. https://doi.org/10.1177/21582440241242188
Cheng, L., Umapathy, K., Rehman, M., Ritzhaupt, A., Antonyan, K., Shidfar, P., Nichols, J., Lee, M. y Abramowitz, B. (2023). Designing, developing, and validating a measure of undergraduate students’ conceptions of artificial intelligence in education. Journal of Interactive Learning Research, 34(2), 275-311. https://doi.org/10.1037/t93665-000
Cheung, G. W. y Wang, C. (2017). Current approaches for assessing convergent and discriminant validity with SEM: issues and solutions. Academy of Management Proceedings, 2017(1), 12706. https://doi.org/10.5465/AMBPP.2017.12706abstract
Chounta, I. A., Bardone, E., Raudsep, A. y Pedaste, M. (2022). Exploring teachers’ perceptions of artificial intelligence as a tool to support their practice in Estonian K-12 education. International Journal of Artificial Intelligence in Education, 32(3), 725-755. https://doi.org/10.1007/s40593-021-00243-5
Espinoza-San Juan, J., Raby, M. D. y Sagredo-Lillo, E. (2024). Validación de un cuestionario sobre las percepciones y usos de la IA-Gen entre estudiantes de pedagogía. Revista Ibérica de Sistemas e Tecnologias de Informação, (E70), 574-585.
Fabrigar, L. R., Wegener, D. T., MacCallum, R. C. y Strahan, E. J. (1999). Evaluating the use of exploratory factor analysis in psychological research. Psychological Methods, 4(3), 272-299. https://doi.org/10.1037/1082-989X.4.3.272
Farrelly, T. y Baker, N. (2023). Generative artificial intelligence: Implications and considerations for higher education practice. Education Sciences, 13(11), 1109. https://doi.org/10.3390/educsci13111109
Fornell, C. y Larcker, D. F. (1981). Evaluating structural equation models with unobservable variables and measurement error. Journal of Marketing Research, 18(1), 39-50. https://doi.org/10.1177/002224378101800104
Gocen, A. y Aydemir, F. (2020). Artificial intelligence in education and schools. Research on Education and Media, 12(1), 13-21. https://doi.org/10.2478/rem-2020-0003
González-Mayorga, H., Rodríguez-Esteban, A. y Vidal, J. (2024). El uso del modelo GPT de OpenAIpara el análisis de textos abiertos en investigación educativa [Using OpenAI’s GPT Model to Analyse Open Texts in Educational Research]. Pixel-Bit. Revista de Medios y Educación, 69, 227-253. https://doi.org/10.12795/pixelbit.102032
Grájeda, A., Burgos, J., Córdova, P. y Sanjinés, A. (2024). Assessing student-perceived impact of using artificial intelligence tools: Construction of a synthetic index of application in higher education. Cogent Education, 11(1), 2287917. https://doi.org/10.1080/2331186X.2023.2287917
Guillén-Gámez, F. D., Ruiz-Palmero, J. y García, M. G. (2023). Digital competence of teachers in the use of ICT for research work: development of an instrument from a PLS-SEM approach. Education and Information Technologies, 28(12), 16509-16529. https://doi.org/10.1007/s10639-023-11895-2
Guillén-Gámez, F. D., Tomczyk, Ł., Colomo-Magaña, E. y Mascia, M. L. (2024). Digital competence of Higher Education teachers in research work: validation of an explanatory and confirmatory model. Journal of E-Learning and Knowledge Society, 20(3), 1-12. https://doi.org/10.20368/1971-8829/1135963
Hair Jr, J. F., Black, W. C., Babin, B. J. y Anderson, R. E. (2010). Multivariate data analysis (pp. 785-785). Prentice Hall.
Hasanein, A. M. y Sobaih, A. E. E. (2023). Drivers and consequences of ChatGPT use in higher education: Key stakeholder perspectives. European Journal of Investigation in Health, Psychology and Education, 13(11), 2599-2614. https://doi.org/10.3390/ejihpe13110181
Heinzl, A., Buxmann, P., Wendt, O. y Weitzel, T. (Eds.). (2011). Theory-guided modeling and empiricism in information systems research. Springer Science & Business Media. https://doi.org/10.1007/978-3-7908-2781-1
Hopcan, S., Türkmen, G. y Polat, E. (2024). Exploring the artificial intelligence anxiety and machine learning attitudes of teacher candidates. Education and Information Technologies, 29(6), 7281-7301. https://doi.org/10.1007/s10639-023-12086-9
Hornberger, M., Bewersdorff, A. y Nerdel, C. (2023). What do university students know about Artificial Intelligence? Development and validation of an AI literacy test. Computers and Education: Artificial Intelligence, 5, 1-12. https://doi.org/10.1016/j.caeai.2023.100165
Hu, L. y Bentler, P. M. (1999). Cutoff criteria for fit indexes in covariance structure analysis: Conventional criteria versus new alternatives. Structural Equation Modeling: A Multidisciplinary Journal, 6(1), 1-55. https://doi.org/10.1080/10705519909540118
Hwang, G. J. y Chen, N. S. (2023). Exploring the potential of generative artificial intelligence in education: applications, challenges, and future research directions. Journal of Educational Technology & Society, 26(2), 1-19. https://doi.org/10.30191/ETS.202304_26(2).0014
Jang, Y., Choi, S. y Kim, H. (2022). Development and validation of an instrument to measure undergraduate students’ attitudes toward the ethics of artificial intelligence (AT-EAI) and analysis of its difference by gender and experience of AI education. Education and Information Technologies, 27(8), 11635-11667. https://doi.org/10.1007/s10639-022-11086-5
Kaouni, M., Lakrami, F. y Labouidya, O. (2023). The design of an adaptive E-learning model based on Artificial Intelligence for enhancing online teaching. International Journal of Emerging Technologies in Learning (Online), 18(6), 202-219. https://doi.org/10.3991/ijet.v18i06.35839
Kim, S. W. y Lee, Y. (2022). The artificial intelligence literacy scale for middle school students. Journal of the Korea Society of Computer and Information, 27(3), 225-238. https://doi.org/10.9708/jksci.2022.27.03.225
Lambert, J. y Stevens, M. (2023). ChatGPT and generative AI technology: a mixed bag of concerns and new opportunities. Computers in the Schools, 1-25. https://doi.org/10.1080/07380569.2023.2256710
Marquina, M. C. G., Pinto-Villar, Y. M., Aranzamendi, J. A. M. y Gutiérrez, B. J. A. (2024). Adaptación y validación de un instrumento para medir las actitudes de los universitarios hacia la inteligencia artificial. Revista de Comunicación, 23(2), 125-142. https://doi.org/10.26441/RC23.2-2024-3493
Meroño, L., Calderón Luquin, A., Arias Estero, J. L. y Méndez Giménez, A. (2018). Diseño y validación del cuestionario de percepción del profesorado de Educación Primaria sobre el aprendizaje del alumnado basado en competencias (#ICOMpri2). Revista Complutense de Educación, 29(1), 215-235. https://doi.org/10.5209/RCED.52200
Mohamed, A. M., Shaaban, T. S., Bakry, S. H., Guillén-Gámez, F. D. y Strzelecki, A. (2024). Empowering the Faculty of Education Students: Applying AI’s Potential for Motivating and Enhancing Learning. Innovative Higher Education, 1-23. https://doi.org/10.1007/s10755-024-09747-z
Moneta, G. B. y Csikszentmihalyi, M. (1996). The effect of perceived challenges and skills on the quality of subjective experience. Journal of Personality, 64(2), 275-310. https://doi.org/10.1111/j.1467-6494.1996.tb00512.x
Morales-García, W. C., Sairitupa-Sanchez, L. Z., Morales-García, S. B. y Morales-García, M. (2024). Development and validation of a scale for dependence on artificial intelligence in university students. Frontiers in Education, 9, Article 1323898. https://doi.org/10.3389/feduc.2024.1323898
Nazaretsky, T., Cukurova, M. y Alexandron, G. (2022, March). An instrument for measuring teachers’ trust in AI-based educational technology. En LAK22: 12th International Learning Analytics and Knowledge Conference (pp. 56-66). https://doi.org/10.1145/3506860.3506866
Ng, D. T. K., Leung, J. K. L., Chu, S. K. W. y Qiao, M. S. (2021). Conceptualizing AI literacy: An exploratory review. Computers and Education: Artificial Intelligence, 2, 100041. https://doi.org/10.1016/j.caeai.2021.100041
Ng, D. T. K., Wu, W., Leung, J. K. L. y Chu, S. K. W. (2023). Artificial Intelligence (AI) literacy questionnaire with confirmatory factor analysis. En 2023 IEEE International Conference on Advanced Learning Technologies (ICALT) (pp. 233-235). IEEE. https://doi.org/10.1109/ICALT58122.2023.00074
Nunnally, J. C. (1978). An overview of psychological measurement. Clinical diagnosis of mental disorders: A handbook (pp. 97-146). https://doi.org/10.1007/978-1-4684-2490-4_4
Ouyang, F., Zheng, L. y Jiao, P. (2022). Artificial intelligence in online higher education: A systematic review of empirical research from 2011 to 2020. Education and Information Technologies, 27(6), 7893-7925. https://doi.org/10.1007/s10639-022-10925-9
Pérez, C. y Carretero-Dios, H. (2005). Normas para el desarrollo y revisión de estudios instrumentales. International Journal of Clinical and Health Psychology, 5(3), 521-551.
Pérez, E. R. y Medrano, L. A. (2010). Análisis factorial exploratorio: bases conceptuales y metodológicas. Revista Argentina de Ciencias del Comportamiento (RACC), 2(1), 58-66.
Ruiz-Rojas, L. I., Acosta-Vargas, P., De-Moreta-Llovet, J. y Gonzalez-Rodriguez, M. (2023). Empowering education with generative artificial intelligence tools: Approach with an instructional design matrix. Sustainability, 15(15), 11524. https://doi.org/10.3390/su151511524
Şahín Kölemen, C. (2024). Artificial intelligence technologies and ethics in educational processes: solution suggestions and results. Innoeduca. International Journal of Technology and Educational Innovation, 10(2), 1-18. https://doi.org/10.24310/ijtei.102.2024.19806
Saz-Pérez, F., Mir, B. P. y Carrió, A. L. (2024). Validación y estructura factorial de un cuestionario TPACK en el contexto de Inteligencia Artificial Generativa (IAG). Hachetetepé: Revista Científica de Educación y Comunicación, (28), 1-14. https://doi.org/10.25267/Hachetetepe.2024.i28.1101
Shaffer, D. R. y Kipp, K. (2010). Developmental Psychology: Childhood and Adolescence. Wadsworth.
Soriano-Alcantara, J. M., Guillén-Gámez, F. D. y Ruiz-Palmero, J. (2024). Exploring Digital Competencies: Validation and Reliability of an Instrument for the Educational Community and for all Educational Stages. Technology, Knowledge and Learning, 1-20. https://doi.org/10.1007/s10758-024-09741-6
Thompson, B. (2004). Exploratory and confirmatory factor analysis: Understanding concepts and applications. American Psychological Association. https://doi.org/10.1037/10694-000
Tiwari, C. K., Bhat, M. A., Khan, S. T., Subramaniam, R. y Khan, M. A. I. (2024). What drives students toward ChatGPT? An investigation of the factors influencing adoption and usage of ChatGPT. Interactive Technology and Smart Education, 21(3), 333-355. https://doi.org/10.1108/ITSE-04-2023-0061
Üzüm, B., Elçiçek, M. y Pesen, A. (2024). Development of Teachers’ Perception Scale Regarding Artificial Intelligence Use in Education: Validity and Reliability Study. International Journal of Human–Computer Interaction, 1-12. https://doi.org/10.1080/10447318.2024.2385518
Uzumcu, O. y Acilmis, H. (2024). Do innovative teachers use AI-powered tools more interactively? a study in the context of diffusion of innovation theory. Technology, Knowledge and Learning, 29(2), 1109-1128. https://doi.org/10.1007/s10758-023-09687-1
Wang, F., Cheung, A. C., Chai, C. S. y Liu, J. (2024). Development and validation of the perceived interactivity of learner-AI interaction scale. Education and Information Technologies, 1-32. https://doi.org/10.1007/s10639-024-12963-x
Wang, Y. M., Wei, C. L., Lin, H. H., Wang, S. C. y Wang, Y. S. (2022). What drives students’ AI learning behavior: A perspective of AI anxiety. Interactive Learning Environments, 1-17. https://doi.org/10.1080/10494820.2022.2153147
Wang, Y. Y. y Wang, Y. S. (2022). Development and validation of an artificial intelligence anxiety scale: An initial application in predicting motivated learning behavior. Interactive Learning Environments, 30(4), 619-634. https://doi.org/10.1080/10494820.2019.1674887
Yilmaz, F. G. K., Yilmaz, R. y Ceylan, M. (2023). Generative artificial intelligence acceptance scale: A validity and reliability study. International Journal of Human–Computer Interaction, 1-13. https://doi.org/10.1080/10447318.2023.2288730
Yu, H. y Guo, Y. (2023, June). Generative artificial intelligence empowers educational reform: current status, issues, and prospects. Frontiers in Education, 8, Article 1183162. https://doi.org/10.3389/feduc.2023.1183162
Zhan, Y., Qiu, Z., Li, X. y Zhao, Z. (2024). Ease of Use or Fun Perception? Factors Affecting Retention of Newly Registered Mobile Game Players Based on Flow Theory and The Technology Acceptance Model. Journal of Internet Technology, 25(4), 497-505. https://doi.org/10.70003/160792642024072504001
Notas
Tabla 1
Análisis bibliográfico sobre instrumentos basados en IA en educación

Tabla 2
Distribución de la muestra de los docentes en formación

Tabla 3
Coeficientes de asimetría, curtosis y desviación típica

Fuente: elaboración propia.Nota: elaboración propia. DT= desviación típica; A= asimetría; K= curtosis. * Ítems en orden inverso
Tabla 4
Análisis del índice de discriminación de escala

Fuente: elaboración propia.
Tabla 5
Matriz de correlación factorial

Fuente: elaboración propia.
Tabla 6
Autovalores y varianza explicada

Fuente: elaboración propia.
Tabla 7
Cargas factoriales rotadas

Fuente: elaboración propia.

Figura 1
Modelo de ecuaciones estructurales. Instrumento definitivo
Fuente: elaboración propia.
Tabla 8
Coeficientes validez convergente y discriminante

Fuente: elaboración propia.
Tabla 9
Coeficientes de fiabilidad

Fuente: elaboración propia.
Buscar:
Contexto
Descargar
Todas
Imágenes
Visor de artículos científicos generados a partir de XML-JATS por Redalyc