Servicios
Descargas
Buscar
Idiomas
P. Completa
Formación docente en IA Generativa: impacto ético y retos en educación superior
Flavio Eduardo López-Vasco; Mishell Romina Angulo-Álvarez; David Ismael Sosa-Zúñiga
Flavio Eduardo López-Vasco; Mishell Romina Angulo-Álvarez; David Ismael Sosa-Zúñiga
Formación docente en IA Generativa: impacto ético y retos en educación superior
Teacher training in Generative AI:ethical impact and challenges in Higher Education
Alteridad. Revista de Educación, vol. 20, núm. 2, pp. 166-177, 2025
Universidad Politécnica Salesiana
resúmenes
secciones
referencias
imágenes

Resumen: La inteligencia artificial generativa (IA-G) está redefiniendo la educación a nivel superior, cambiando los enfoques en la enseñanza y evaluación, y para su integración, los docentes deben desarrollar habilidades técnicas y criterios pedagógicos que les permitan utilizar estas herramientas con conciencia ética. Este estudio analiza el impacto del programa de formación en IA-G de 80 horas impartido a 299 docentes de ocho universidades ecuatorianas, con el propósito de fortalecer sus competencias digitales y su disposición hacia estas tecnologías. Mediante un diseño cuasi-experimental con mediciones pretest y postest, los resultados mostraron mejoría en el conocimiento técnico sobre IA-G (M = 2.62 a 4.22, t = -30.77, p < 0.0001, d = 0.85) y en la predisposición docente para su aplicación en el aula (M = 3.63 a 4.02, t = -6.38, p < 0.0001, d = 0.52). Sin embargo, la percepción sobre la originalidad de los contenidos generados por IA no mostró cambios relevantes (M = 3.02 a 2.94, t = -0.82, p = 0.41), lo que sugiere incertidumbre sobre su autenticidad académica. Estos resultados destacan la importancia de una capacitación que combine instrucción con metodologías activas, como el aprendizaje basado en proyectos y la evaluación formativa. Asimismo, se recomienda establecer políticas institucionales claras sobre el uso de IA en la educación superior, priorizando ética y transparencia acorde con los principios de la UNESCO.

Palabras clave: inteligencia artificial, formación de docentes, enseñanza superior, evaluación de la educación, ética de la tecnología.

Abstract: Generative Artificial Intelligence (GAI) is reshaping on higher education, and transforming instructional and assessment practices, therefore, educators must develop technical expertise and pedagogical awareness to ensure ethical and responsible use. This study evaluates the impact of an 80-hour GAI training program conducted with 299 lecturers from eight Ecuadorian universities, aiming to enhance their digital skills and openness to AI-based teaching strategies. Through a quasi-experimental design with pretest and postest assessments, findings reveal an increase in technical proficiency (M = 2.62 to 4.22, t = -30.77, p < 0.0001, d = 0.85) and lecturers’ willingness to apply GAI in their teaching (M = 3.63 to 4.02, t = -6.38, p < 0.0001, d = 0.52). However, perceptions of AI-generated content originality remained unchanged perceptions (M = 3.02 to 2.94, t = -0.82, p = 0.41), indicating ongoing concerns regarding authenticity in academic settings. These results emphasize the necessity of training programs that merge technical instruction with active learning methodologies, such as project-based learning and formative assessment. Additionally, higher education institutions should establish clear policies regulating AI implementation, ensuring ethical standards and academic integrity. Moreover, developing institutional guidelines for assessing AI-generated content is essential for maintaining transparency, fairness, and responsible adoption in teaching and assessment to identify the best practices to support lecturers’ development, and promote its effective use in academic fields.

Keywords: artificial intelligence, teacher education, higher education, educational evaluation, ethics of technology.

Carátula del artículo

Sección Monográfica

Formación docente en IA Generativa: impacto ético y retos en educación superior

Teacher training in Generative AI:ethical impact and challenges in Higher Education

Flavio Eduardo López-Vasco
Universidad Católica Andrés Bello, República Bolivariana de Venezuela
Mishell Romina Angulo-Álvarez
Universidad de las Fuerzas Armadas, Ecuador
David Ismael Sosa-Zúñiga
Universidad de las Fuerzas Armadas, Ecuador
Alteridad. Revista de Educación, vol. 20, núm. 2, pp. 166-177, 2025
Universidad Politécnica Salesiana

Recepción: 03 Marzo 2025

Revisado: 31 Mayo 2025

Aprobación: 11 Junio 2025

Publicación: 01 Julio 2025

1. Introducción

La inteligencia artificial generativa (IA-G) ha transformado áreas incluida la educación superior, donde su aplicación en la enseñanza, evaluación y desarrollo académico sigue avanzando (Kohnke et al., 2023; Michel-Villarreal et al., 2023; Sanusi et al., 2023) debido a la capacidad para automatizar tareas docentes, personalizar experiencias de aprendizaje y generar contenido educativo, mismo que ha generado debate. Mientras autores como Chan (2023), Usher y Barak (2024) destacan el potencial de la IA-G para mejorar la accesibilidad y el aprendizaje personalizado; Nam y Bai (2023), Vallis et al. (2024) advierten sobre los riesgos en la equidad y la privacidad.

Uno de los desafíos centrales en la integración de la inteligencia artificial (IA) en la educación es el rol del docente, ya que, según la literatura existente, la falta de formación en IA representa un obstáculo significativo para su aplicación efectiva (Bendechache et al., 2021; Michel-Villarreal et al., 2023; Sanusi et al., 2023). Así, algunos estudios argumentan que la resistencia se debe principalmente al desconocimiento técnico (Baron, 2024; Diao, 2020), otros enfatizan preocupaciones éticas y la percepción de que la IA podría reducir la autonomía en el diseño pedagógico (Rudolph et al., 2024; Slimi y Carballido, 2023; Vallis et al., 2024); por lo que, esta divergencia en los hallazgos sugiere realizar un análisis más profundo acerca de cómo la capacitación específica en la IA influye en la percepción y disposición docente (Archambault et al., 2024; Celik, 2023). Coincidiendo con este enfoque, Weglarz et al. (2025) identifican que la expectativa de rendimiento, el esfuerzo percibido y la confianza institucional son factores que influyen en la adopción de herramientas de la IA, incluso fuera del ámbito educativo.

El uso de la IA-G en educación ha cambiado los procesos de enseñanza, y en la evaluación académica; así, Crawford et al. (2023) y Eager y Brunton (2023) han señalado que, aunque herramientas como Turnitin AI y GPTZero fueron diseñadas para detectar contenido generado por la IA, su precisión sigue siendo cuestionada debido a las limitaciones en la identificación de textos reformulados manualmente. Así mismo, Nikolic et al. (2023) argumentan que estos sistemas no siempre logran diferenciar con exactitud entre producciones originales y textos generados mediante IA con modificaciones posteriores. Por otro lado, Sanusi et al. (2023) advierten que la fiabilidad de estos detectores es un tema aún en evolución, dado que su desempeño puede verse afectado por la diversidad lingüística y los distintos estilos de escritura académica. De manera similar, Yin Albert et al. (2022) destacan que la creciente sofisticación de los modelos de IA plantea desafíos adicionales, ya que los textos generados por estas tecnologías pueden imitar patrones de redacción humanos con un alto grado de precisión, lo que dificulta su identificación efectiva en contextos evaluativos.

Además, la evaluación automatizada mediante la IA ha sido cuestionada debido a posibles sesgos algorítmicos que podrían comprometer la equidad en la calificación (Chiu, 2024; Javed et al., 2022; Silva-Rodriguez et al., 2021), por lo que, para mitigar estos riesgos, se ha propuesto que la supervisión docente y la auditoría de los sistemas de IA sean estrategias clave (Almassaad et al., 2024; Eager y Brunton, 2023).

Desde una perspectiva inclusiva, la IA puede ampliar el acceso a la educación mediante el aprendizaje personalizado, pero también tiene potencial para reforzar desigualdades preexistentes (Chiu, 2024), ya que, investigaciones recientes han revelado que la brecha digital sigue siendo un factor determinante en la adopción de IA en el aula, ya que el acceso a infraestructura tecnológica y capacitación especializada no es equitativo en todas las instituciones (Archambault et al., 2024; Diao, 2020); es decir, universidades con mayores recursos tienen más oportunidades de incorporar la IA en sus programas educativos, en cambio otras enfrentan limitaciones tecnológicas enfrentan dificultades significativas en su implementación (Crawford et al., 2023; Sanusi et al., 2023).

A pesar del interés de la IA-G dentro del ámbito educativo, la mayoría de los estudios han priorizado el análisis de la percepción estudiantil, dejando de lado papel del docente en su adopción y aplicación pedagógica (Almassaad et al., 2024; Archambault et al., 2024; Celik, 2023). Aunque existe consensos sobre la importancia de la formación docente en IA, los enfoques actuales han sido fragmentados y carecen de un análisis integral sobre cómo los programas de capacitación pueden influir en su aceptación y uso efectivo en el aula (Nam y Bai, 2023; Slimi y Carballido, 2023).Por lo que, este estudio busca abordar esta brecha mediante un análisis detallado del impacto de la capacitación en IA-G en la percepción, actitud y aplicación de estas tecnologías por parte del profesorado universitario (Javed et al., 2022; Nikolic et al., 2023). A diferencia de investigaciones previas con enfoques generales, esta investigación comparativa permite evaluar los cambios en el conocimiento técnico y la predisposición del profesorado antes y después de recibir formación específica (Chun y Elkins, 2023; Tubella et al., 2024).

Ante el avance de la IA-G en la educación superior, su adopción efectiva requiere acceso a tecnología, y también una formación docente que garantice su integración pedagógica con criterios éticos y metodológicos claros; por lo que, este estudio examina cómo un programa de capacitación en IA-G influye en la percepción y desarrollo de competencias docentes, además de identificar los principales desafíos para su aplicación en la enseñanza universitaria (Slimi y Carballido, 2023).

A partir de los hallazgos obtenidos, se propondrán estrategias para fortalecer la alfabetización digital y así facilitar su incorporación de manera efectiva en el aula, para ello se analiza el uso de IA-G en educación, abordando sus beneficios y desafíos. Luego, se describe la metodología utilizada para evaluar la formación docente, seguida de un análisis de resultados que permite comprender cómo esta capacitación transforma la percepción y su uso en la práctica educativa. Finalmente, se dan implicaciones clave y recomendaciones orientadas al diseño de políticas de formación en IA, alineadas con las realidades y necesidades del contexto universitario.

2. Metodología

Autores como Gómez-Diago (2022) y Yue et al. (2024) han destacado que los diseños cuasi-experimentales son una estrategia metodológica efectiva para evaluar cambios en contextos educativos sin alterar las dinámicas institucionales; en concordancia con estos enfoques, este estudio adoptó un diseño cuasi-experimental sin asignación aleatoria de los participantes a grupos de control y experimental, respondiendo a restricciones éticas y operativas dentro del entorno universitario, permitiendo analizar el impacto de la capacitación en inteligencia artificial generativa (IA-G) en la percepción y el desarrollo de competencias docentes dentro de condiciones reales de enseñanza.

Por su parte, Nikolic et al. (2023) enfatizan la importancia de conformar muestras heterogéneas en estudios sobre adopción tecnológica, ya que la diversidad en la experiencia docente y los entornos académicos influye en los resultados. Atendiendo a este criterio, se seleccionaron docentes de diversas disciplinas y niveles de experiencia, permitiendo una evaluación más representativa del fenómeno estudiado. Además, Zhao et al. (2023) y Michel-Villarreal et al. (2023) mencionan que la triangulación de instrumentos de medición es fundamental para reducir sesgos en estudios educativos; por lo que, con estos hallazgos, esta investigación implementó múltiples técnicas de recolección de datos y se realizó un análisis de covariables con el fin de mitigar factores externos que pudieran influir en los resultados.

Finalmente, Chiu (2024) y van den Berg y du Plessis (2023) sostienen que, en investigaciones educativas donde la accesibilidad y la disposición de los participantes son factores determinantes, el muestreo no probabilístico por conveniencia se presenta como una alternativa metodológica válida. Siguiendo esta premisa, la selección de los docentes se basó en su interés y predisposición en integrar la IA-G en las prácticas pedagógicas, lo que permitió examinar con mayor profundidad su impacto en la enseñanza universitaria; por lo que, la muestra de 299 docentes universitarios se fundamentó tanto en criterios metodológicos como en consideraciones operativas asociadas a la viabilidad de implementar el programa de capacitación en la IA-G en diferentes contextos institucionales y a la necesidad de garantizar una representatividad adecuada que permitiera realizar análisis estadísticos (como prueba t para muestras relacionadas, regresión múltiple y estimación de tamaño del efecto).

Ante lo expuesto anteriormente se adoptaron medidas para minimizar sesgos de selección, como la inclusión de participantes de instituciones públicas y privadas, con representación equitativa en género, edad y experiencia docente (Nikolic et al., 2023; Sullivan et al., 2023). Se estableció un rango etario de 25 a 60 años, con una media de 45 años, y se verificó que los docentes presentaran niveles similares de conocimientos previos sobre IA antes de la capacitación (Diao, 2020; Zhao et al., 2022).

Los datos fueron recolectados mediante encuestas estructuradas, con escalas Likert de cinco puntos, administradas en dos momentos: pretest y postest (Celik, 2023; Gómez-Diago, 2022) donde las variables evaluadas incluyeron el nivel de conocimiento sobre IA-G, la percepción de originalidad de los contenidos generados por la IA y la preocupación sobre privacidad de datos y ética en la docencia (Saltos et al., 2023; Vallis et al., 2024). Para verificar la validez del instrumento se envió para validación de expertos en tecnología educativa y ética digital utilizando el coeficiente V de Aiken (0.82), que confirmó la pertinencia de los ítems seleccionados (Almassaad et al., 2024; van den Berg y du Plessis, 2023). Asimismo, la confiabilidad se evaluó mediante el coeficiente alfa de Cronbach (α = 0.87), reflejando consistencia en las respuestas obtenidas (Sanusi et al., 2023; Zhao et al., 2022).

En el enfoque cuantitativo, la prueba t para muestras relacionadas permitió evaluar diferencias entre los resultados del pretest y postest; donde la normalidad de la distribución de los datos se verificó mediante la prueba de Shapiro-Wilk, obteniéndose valores de W = 0.978, p = 0.12 en el pretest y W = 0.982, p = 0.08 en el postest; dado que ambos valores p son superiores a 0.05, se confirmó que los datos seguían una distribución normal, permitiendo el uso de pruebas paramétricas (Rudolph et al., 2024; Sullivan et al., 2023).

Para controlar posibles variables de confusión, se realizó la regresión múltiple, considerando factores como la disciplina académica, la experiencia docente y el nivel previo de familiaridad con IA-G, donde el coeficiente de determinación R² = 0.65 (p < 0.01) indicó que el modelo explica el 65 % de la variabilidad en los resultados postest sugiriendo un impacto considerable de la capacitación en el conocimiento y percepción de la IA-G en el aula (Michel-Villarreal et al., 2023; Zhao et al., 2022). Adicionalmente, se calculó el tamaño del efecto mediante la d de Cohen, obteniéndose un valor de 0.85, lo que confirma mejora en la comprensión y percepción de la IA-G tras la capacitación (Archambault et al., 2024; Gómez-Diago, 2022).

Desde un enfoque cualitativo, se utilizó codificación temática inductiva, lo que permitió identificar cinco categorías emergentes en la percepción docente sobre la IA-G en educación superior: 1. Confianza en el uso de IA-G: Mayor seguridad en la aplicación de herramientas de la IA en la enseñanza. 2. Percepción de originalidad: Preocupaciones sobre la generación de contenidos y su impacto en la creatividad estudiantil. 3. Ética y privacidad: Consideraciones sobre la seguridad de datos y el uso responsable de la IA en la educación. 4. Adopción en la práctica docente: Diferencias en la implementación según la disciplina académica. 5. Continuidad de la formación: Interés en ampliar el conocimiento sobre IA y sus aplicaciones educativas.

Conforme lo anterior, con el fin de garantizar la confiabilidad del análisis cualitativo, se realizó una validación intersubjetiva entre investigadores, obteniendo un índice Kappa de Cohen (κ = 0.79), lo que indica un acuerdo sustancial en la interpretación de los datos (Chiu, 2024; Sullivan et al., 2023) empleando el software NVivo para la segmentación y clasificación de respuestas, optimizando el procesamiento y la organización de los hallazgos (Leoste et al., 2021; Zhao et al., 2022). Por lo que, los resultados de este estudio proporcionarán evidencia empírica sobre la efectividad de la formación en IA-G, contribuyendo al diseño de estrategias para su integración responsable en la educación superior (Gómez-Diago, 2022).

3. Resultados
3.1 Evolución del conocimiento técnico sobre IA Generativa

El análisis cuantitativo evidencia una mejora significativa en el conocimiento técnico sobre la IA-G tras la capacitación, donde, la comparación de mediciones pretest y postest aplicadas a los mismos participantes permitió evaluar la evolución de su comprensión sobre esta tecnología; por lo que la normalidad de los datos fue mediante la prueba de Shapiro-Wilk, confirmando la idoneidad del uso de pruebas paramétricas; y la prueba t para muestras relacionadas, misma que presentó una diferencia estadísticamente significativa entre ambas mediciones, con un t-valor de -30.77 y un p-valor menor a 0.0001 (Lozano y Blanco Fontao, 2023; Moorhouse et al., 2023).

El tamaño del efecto, medido con d de Cohen (0.85), indica un impacto considerable en la adquisición de conocimientos técnicos en la tabla 1 y en la figura 1, muestran la puntuación media en conocimiento de IA-G pasó de 2.62 en el pretest a 4.22 en el postest, lo que respalda la efectividad del programa formativo (Dai et al., 2023).



Tabla 1.

Comparación Pretest-Postest sobre Conocimiento Técnico en IA-G



Figura 1.

Evolución del conocimiento técnico sobre IA-G

3.2 Cambio en la actitud docente hacia IA-G

La evolución en la actitud docente hacia la adopción de la IA-G en la enseñanza también mostró un cambio positivo; la media pasó de 3.63 en el pretest a 4.02 en el postest, con una mejora estadísticamente significativa (t-valor de -6.38, p < 0.0001) (Puerto y Gutiérrez-Esteban, 2022).

El tamaño del efecto (d de Cohen = 0.52) indica un impacto moderado. Como se detalla en la tabla 2, estos hallazgos evidencian un avance en la disposición del profesorado a integrar la IA-G en sus estrategias pedagógicas (Flores-Vivar y García-Peñalvo, 2023).



Tabla 2.

Comparación Pretest-Postest sobre Actitud Docente hacia IA-G

3.3 Percepción sobre la originalidad de contenidos generados por IA

Los resultados sugieren que la capacitación no logró modificar significativamente la percepción de los docentes sobre la originalidad de los contenidos generados por la IA-G. La media pasó de 3.02 en el pretest a 2.94 en el postest, con una diferencia no significativa (t-valor = -0.82, p = 0.41), y un efecto bajo (d de Cohen = 0.12) (Sperling et al., 2024). Este patrón también fue identificado por Firat y Kuleli (2024), quienes observaron que incluso tras un proceso de formación intensiva en IA, la percepción docente sobre la originalidad de los contenidos generados no presentó mejoras sustanciales, lo que revela la resistencia vinculada a factores éticos y cognitivos.



Tabla 3.

Comparación Pretest-Postest sobre Percepción de Originalidad en IA-G

3.4 Análisis cualitativo de la percepción docente

El análisis cualitativo complementó los hallazgos mediante un proceso de codificación temática inductiva, permitiendo identificar cambios en la percepción docente, cuyos datos fueron procesados con NVivo, facilitando la categorización de respuestas abiertas en las encuestas pretest y postest (Ma, 2021). Así, en la fase inicial, predominaban expresiones de incertidumbre y desconocimiento sobre la IA-G, mientras que en el postest emergieron menciones más específicas a herramientas concretas y estrategias pedagógicas (Yin Albert et al., 2022). A continuación, se dan a conocer algunas respuestas textuales de los docentes:

Me interesa conocer herramientas de IA, pero no sé cómo pueden aplicarse en educación.

Creo que pueden ser útiles, pero tengo dudas sobre la originalidad de los contenidos generados.

Ahora tengo más claridad sobre cómo usar IA en mis clases, especialmente ChatGPT y Copilot

Sigo teniendo inquietudes sobre el plagio, pero entiendo mejor los mecanismos de detección disponibles.

4. Discusión y conclusiones
4.1 Discusión

Esta sección analiza los hallazgos del estudio en relación con sus objetivos y con la literatura existente, evaluando el impacto de la capacitación en IA generativa en la educación superior. Se examina la evolución del conocimiento técnico, la actitud docente, la percepción de originalidad de los contenidos generados por la IA y la efectividad de las herramientas de detección de plagio.

Para facilitar la visualización de estos resultados y sus comparaciones, la figura 2 muestra la evolución de las cuatro dimensiones analizadas antes y después de la capacitación. Este gráfico permite identificar con claridad los cambios experimentados en el conocimiento técnico y la actitud hacia la IA, así como la estabilidad en la percepción de originalidad y la confianza en los sistemas de detección de plagio (Cordero et al., 2024).



Figura 2.

Impacto de la capacitación en IA-G sobre el conocimiento técnico, actitud docente, percepción de originalidad y confianza detección de plagio

El primer objetivo de esta investigación fue determinar el impacto de la capacitación en el conocimiento técnico de los docentes, cuyos resultados muestran un incremento en la media de conocimiento, de 2.62 en el pretest a 4.22 en el postest (t = -30.77, p < 0.0001, d de Cohen = 0.85) (tabla 1), lo que indica una mejora. Así, investigaciones previas han documentado la efectividad de los programas de formación en las habilidades digitales en docentes universitarios (Sanusi et al., 2023); reforzando la idea de que la alfabetización estructurada en IA puede reducir brechas en el acceso y uso de estas tecnologías en la educación superior (Crompton y Burke, 2023; Ng et al., 2025).

En cuanto a la actitud de los docentes hacia la IA generativa, se obtuvo un cambio positivo, con un aumento en la media de 3.63 en el pretest a 4.02 en el postest (t = -6.38, p < 0.0001, d de Cohen = 0.52) (tabla 2); por lo que este hallazgo muestra la relación entre la adquisición de competencias tecnológicas y la disposición para adoptar nuevas herramientas en la enseñanza (Leoste et al., 2021). Sin embargo, el cambio en esta dimensión al ser mínimo sugiere que, aunque los docentes tienen más información sobre IA, aún pueden tener dudas sobre su implementación efectiva en el aula. Para corroborar lo mencionado, investigaciones recientes destacan la importancia de brindar programas de formación que integren tanto habilidades técnicas como consideraciones éticas y pedagógicas en el uso de IA en educación (Feigerlova et al., 2025; Keith et al., 2025).

Así mismo, los resultados indican que la capacitación no produjo cambios significativos en la percepción de originalidad de los contenidos generados por IA, ya que la media pasó de 3.02 en el pretest a 2.94 en el postest (t = -0.82, p = 0.41, d de Cohen = 0.12) (tabla 3), coincidiendo con estudios que han señalado una desconfianza persistente hacia la autenticidad de los textos generados por IA en entornos académicos (Baron, 2024). Por lo que, una posible explicación es la ausencia de normativas claras sobre el uso de IA como herramienta de apoyo académico; generando incertidumbre sobre su aplicación en evaluación y publicación científica (Hagendorff, 2024; Sperling et al., 2024).

En cambio, la percepción sobre la efectividad de las herramientas de detección de plagio en la identificación de textos generados por IA mostró un leve incremento en la media de 3.21 a 3.37 (t = -2.01, p = 0.045, d de Cohen = 0.18) (tabla 4); aunque la diferencia es estadísticamente significativa, su impacto es limitado. Ante ello, investigaciones previas han señalado que los sistemas actuales de detección de IA aún presentan dificultades para identificar con precisión contenido generado algorítmicamente, especialmente cuando los textos han sido editados manualmente (Cordero et al., 2024); por lo que, es importante que los programas de formación incluyan ejercicios prácticos sobre el uso y las limitaciones de estas herramientas en contextos académicos reales (Corfmat et al., 2025).

A partir del análisis cualitativo, se evidenció que tras la capacitación los docentes demostraron una mayor familiaridad con las herramientas de inteligencia artificial disponibles, aunque continuaron expresando inquietudes sobre su regulación y su aplicación en la evaluación académica. Mientras que en la fase pretest las respuestas eran generales, en el postest comenzaron a mencionar plataformas como ChatGPT o Turnitin AI, lo que sugiere un progreso tangible en su comprensión técnica.

Estos resultados indican que el proceso formativo permitió a los docentes desarrollar una visión más clara sobre el potencial y las limitaciones de la inteligencia artificial en el ámbito educativo (Feigerlova et al., 2025). Sin embargo, persisten dudas en torno a la originalidad de los contenidos generados por estas herramientas, así como a los posibles riesgos de plagio. En consecuencia, se destaca la necesidad de establecer normativas institucionales claras que orienten su uso ético y pedagógico (Leoste et al., 2021; Ng et al., 2025).

Un caso que ilustra estas carencias es el estudio de Ramírez Vergara, López-Chau y Rojas Hernández (2024), en el cual se implementó un sistema de narración inclusiva basado en IA, pero sin incorporar lineamientos pedagógicos ni mediación docente que respaldan su integración en el aula. Aunque los hallazgos de este estudio muestran avances en el conocimiento técnico y en la actitud del profesorado hacia la IA generativa, persisten zonas de incertidumbre en torno a su impacto real sobre la autoría y la originalidad, así como sobre la eficacia de los detectores automatizados. Al respecto, diversos estudios coinciden en que abordar estos retos requiere competencias tecnológicas, pensamiento crítico y la toma de decisiones informada sobre el uso ético de estas tecnologías en contextos educativos (Crompton y Burke, 2023; Hagendorff, 2024).

4.2 Conclusiones

Este estudio muestra un aporte significativo sobre la formación docente en IA-G en América Latina, al evaluar empíricamente el impacto de un programa estructurado de 80 horas impartido a 299 docentes de ocho universidades ecuatorianas. A través de un enfoque mixto (cuasi-experimental y cualitativo), indica cómo la formación mejora el conocimiento (d = 0.85), favorece la actitud docente hacia la IA (d = 0.52); además, las tensiones persistentes en la percepción de originalidad de los contenidos generados. Estos hallazgos permiten no solo validar el modelo formativo propuesto, sino también identificar brechas institucionales entre universidades públicas y privadas, lo que aporta insumos para el diseño de políticas educativas éticas basadas en evidencia. Estas desigualdades también fueron evidenciadas por Aguirre-Aguilar et al. (2024), quienes, a partir de un enfoque cuantitativo avanzado, destacaron disparidades significativas en el acceso y uso pedagógico de la IA entre instituciones con distintos niveles de infraestructura y respaldo institucional.

Así, investigaciones como las de Sanusi et al. (2023) y Crompton y Burke (2023) han documentado cómo una formación estructurada en IA no solo reduce las brechas en la adopción tecnológica, sino que también fomenta un uso más reflexivo y alineado con estrategias pedagógicas innovadoras. Sin embargo, uno de los principales desafíos identificados consiste en la percepción de originalidad de los contenidos generados por IA; a pesar de la capacitación recibida, los docentes no han cambiado de parecer respecto con la autenticidad de estos textos, lo que sugiere la necesidad de criterios más claros para evaluar la creatividad y pertinencia en el ámbito académico. Estudios previos, como los de Baron (2024) y Hagendorff (2024), han señalado que la incertidumbre sobre la originalidad de los textos generados automáticamente sigue siendo un factor determinante que limita su aceptación en la educación superior; por lo que, resulta importante el desarrollo de normativas que permitan establecer estándares claros para evaluar la transparencia y fiabilidad de estos materiales.

Desde un enfoque aplicado, el incremento en conocimientos y la mayor apertura por parte de los docentes hacia la IA-G pueden entenderse como una predisposición favorable a su incorporación en la práctica docente cotidiano. No obstante, persisten preocupaciones éticas y metodológicas que deben abordarse tanto por las autoridades, así como también por parte de planificadores para futuras capacitaciones; como sugieren autores de la talla de Feigerlova et al. (2025) y Keith et al. (2025). Ante lo mencionado anteriormente, es necesario diseñar capacitaciones formativas que vayan más allá del entrenamiento técnico, incorporando escenarios interactivos y estudios de caso donde los docentes puedan evaluar la implementación de la IA en su práctica docente el pensamiento crítico.

Acerca de la percepción sobre la efectividad de las herramientas de detección de plagio, los resultados reflejan un leve aumento en la confianza de los docentes en esta tecnología, aunque persisten inquietudes sobre su precisión; autores como Cordero et al. (2024) y Corfmat et al. (2025) han señalado que estos detectores aún presentan dificultades en la identificación de textos generados por IA, especialmente cuando han sido reformulados manualmente. Por lo cual, se hace aún más necesario que las capacitaciones a docentes incluyan un análisis crítico sobre los alcances y limitaciones de estas herramientas, permitiendo a los educadores tomar decisiones más informadas y fundamentadas en su quehacer académico.

5. Recomendaciones
5.1 Líneas de investigación futura

En cuanto a la percepción de originalidad, se recomienda explorar qué factores específicos influyen en la confianza de los docentes respecto a la autenticidad de los contenidos generados por IA-G. La co-creación de contenido con IA, la comparación con textos producidos por estudiantes y la adopción de estándares académicos específicos podrían impactar significativamente dicha percepción. Además, en la evaluación del impacto de la IA en la docencia, tanto esta como investigaciones previas se han centrado en el corto plazo. Por ello, se vuelve necesario avanzar hacia una adopción progresiva y sostenible de la IA en la educación superior, acompañada de estudios longitudinales que permitan examinar sus efectos en la práctica docente a lo largo del tiempo.

La efectividad de los detectores de IA en la evaluación académica varía según el modelo generativo y la estrategia utilizada para reformular textos, por lo que, es necesario un análisis comparativo entre diferentes plataformas para determinar cuáles ofrecen mayor fiabilidad en contextos educativos específicos.

Aplicaciones prácticas

La falta de normativas en la educación superior genera incertidumbre entre los docentes y limita la adopción de la IA-G en el aula. Por ello, la definición de políticas institucionales claras sobre su uso permitirá a las universidades y organismos reguladores establecer lineamientos en torno a la transparencia en su aplicación, los criterios de originalidad en la producción académica y su impacto en la evaluación del aprendizaje.

Además, brindar capacitaciones con enfoque práctico y contextualizado incorporando metodologías activas como estudios de caso, aprendizaje basado en proyectos y simulaciones en entornos reales, mismos que permitirán a los docentes desarrollar estrategias efectivas para su aplicación pedagógica.

Finalmente, las innovaciones pedagógicas basadas en IA permitirán aprovechar sus beneficios en la generación automática de materiales didácticos, el aprendizaje personalizado y la automatización de procesos de retroalimentación. No obstante, su implementación debe acompañarse de evaluaciones periódicas que midan su impacto en la enseñanza y el desempeño estudiantil.

Contribución de autores

Flavio Eduardo López-Vasco: conceptualización, curación de datos, investigación, análisis formal, metodología, administración del proyecto, supervisión, escritura borrador original, escritura-revisión y edición.

Mishell Romina Angulo-Álvarez: conceptualización, investigación, escritura borrador original, escritura-revisión y edición.

David Ismael Sosa-Zúñiga: curación de datos, escritura borrador original.

Material suplementario
Información adicional

redalyc-journal-id: 4677

Referencias bibliográficas
Aguirre-Aguilar, G., Esquivel-Gámez, I., Navarro, R. E. y Veytia-Buchelli, M. G. 2024. La IA en el desarrollo de competencias investigativas en el posgrado. Alteridad, 19(2), 162-172. https://doi.org/10.17163/alt.v19n2.2024.01
Almassaad, A., Alajlan, H. y Alebaikan, R. 2024. Student perceptions of Generative Artificial Intelligence: investigating utilization, benefits, and challenges in Higher Education. Systems, 12(10). https://doi.org/10.3390/systems12100385
Archambault, S. G., Ramachandran, S., Acosta, E. y Fu, S. 2024. Ethical dimensions of algorithmic literacy for college students: Case studies and cross-disciplinary connections. Journal of Academic Librarianship, 50(3). https://doi.org/10.1016/j.acalib.2024.102865
Baron, P. 2024. Are AI detection and plagiarism similarity scores worthwhile in the age of ChatGPT and other Generative AI? Scholarship of Teaching and Learning in the South, 8(2), 151-179. https://doi.org/10.36615/sotls.v8i2.411
Bendechache, M., Tal, I., Wall, P., Grehan, L., Clarke, E., Odriscoll, A., Der Haegen, L. V., Leong, B., Kearns, A. y Brennan, R. 2021. AI in My Life: AI, Ethics & Privacy Workshops for 15-16-Year-Olds. 34-39. https://doi.org/10.1145/3462741.3466664
Celik, I. 2023. Towards Intelligent-TPACK: An empirical study on teachers’ professional knowledge to ethically integrate artificial intelligence (AI)-based tools into education. Computers in Human Behavior, 138. https://doi.org/10.1016/j.chb.2022.107468
Chan, C. K. Y. 2023. A comprehensive AI policy education framework for university teaching and learning. International Journal of Educational Technology in Higher Education, 20(1). https://doi.org/10.1186/s41239-023-00408-3
Chiu, T. K. F. 2024. Future research recommendations for transforming higher education with generative AI. Computers and Education: Artificial Intelligence, 6. https://doi.org/10.1016/j.caeai.2023.100197
Chun, J. y Elkins, K. 2023. The crisis of artificial intelligence: a new digital humanities curriculum for human-centred AI. International Journal of Humanities and Arts Computing, 17(2), 147-167. https://doi.org/10.3366/ijhac.2023.0310
Cordero, J., Torres-Zambrano, J. y Cordero-Castillo, A. 2024. Integration of Generative Artificial Intelligence in Higher Education: Best Practices. Education Sciences, 15(1), 32. https://doi.org/10.3390/educsci15010032
Corfmat, M., Martineau, J. T. y Régis, C. 2025, enero. High-reward, high-risk technologies? An ethical and legal account of AI development in healthcare. En BMC medical ethics (Vol. 26, Número 1, p. 4). https://doi.org/10.1186/s12910-024-01158-1
Crawford, J., Cowling, M., Ashton-Hay, S., Kelder, J.-A., Middleton, R. y Wilson, G. S. (2023). Artificial Intelligence and Authorship Editor Policy: ChatGPT, Bard Bing AI, and beyond. Journal of University Teaching and Learning Practice, 20(5). https://doi.org/10.53761/1.20.5.01
Crompton, H. y Burke, D. 2023. Artificial intelligence in higher education: The state of the field. International Journal of Educational Technology in Higher Education, 20(1). https://doi.org/10.1186/s41239-023-00392-8
Dai, Y., Liu, A. y Lim, C. P. 2023. Reconceptualizing ChatGPT and generative AI as a student-driven innovation in higher education. 119, 84-90. https://doi.org/10.1016/j.procir.2023.05.002
Diao, S. 2020. The Reform of Teaching Management Mode Based on Artificial Intelligence in the Era of Big Data. 1533(4). https://doi.org/10.1088/1742-6596/1533/4/042050
Eager, B. y Brunton, R. 2023. Prompting Higher Education towards AI-augmented teaching and learning practice. Journal of University Teaching and Learning Practice, 20(5). https://doi.org/10.53761/1.20.5.02
Feigerlova, E., Hani, H. y Hothersall-Davies, E. 2025. A systematic review of the impact of artificial intelligence on educational outcomes in health professions education. BMC Medical Education, 25(1), 129. https://doi.org/10.1186/s12909-025-06719-5
Firat, M. y Kuleli, S. 2024. Educational frontiers with ChatGPT: a social network analysis of influential tweets. Alteridad, 19(2), 224-235. https://doi.org/10.17163/alt.v19n2.2024.06
Flores-Vivar, J.-M. y García-Peñalvo, F.-J. 2023. Reflections on the ethics, potential, and challenges of artificial intelligence in the framework of quality education (SDG4). Comunicar, 30(74), 35-44. https://doi.org/10.3916/C74-2023-03
Gómez-Diago, G. 2022. Perspectives to address artificial intelligence in journalism teaching. A review of research and teaching experiences. Revista Latina de Comunicacion Social, 80, 29-46. https://doi.org/10.4185/RLCS-2022-1542
Hagendorff, T. 2024. Mapping the ethics of Generative AI: a comprehensive scoping review. Minds and Machines, 34(4), 39. https://doi.org/10.1007/s11023-024-09694-w
Javed, R. T., Nasir, O., Zea, E., Gupta, S., Vinuesa, R. y Qadir, J. 2022. Get out of the BAG! Silos in AI ethics education: unsupervised topic modeling analysis of Global AI Curricula Loïs Vanhée. En KTH Royal Institute of Technology FLOW, Engineering Mechanics Osquars (Vol. 73, p. 44). https://wasp-hs.org/projects/
Keith, M., Keiller, E., Windows-Yule, C., Kings, I. y Robbins, P. 2025. Implementation and evaluation of generative artificial intelligence (GAI) in chemical engineering education. Education for Chemical Engineers. https://doi.org/10.1016/j.ece.2025.01.002
Kohnke, L., Moorhouse, B. L. y Zou, D. 2023. Exploring generative artificial intelligence preparedness among university language instructors: A case study. Computers and Education: Artificial Intelligence, 5. https://doi.org/10.1016/j.caeai.2023.100156
Leoste, J., Jõgi, L., Õun, T., Pastor, L., San Martín López, J. y Grauberg, I. 2021. Perceptions about the future of integrating emerging technologies into higher education—The case of robotics with artificial intelligence. Computers, 10(9). https://doi.org/10.3390/computers10090110
Lozano, A. y Blanco Fontao, C. 2023. Is the education system prepared for the irruption of Artificial Intelligence? A study on the perceptions of students of Primary Education Degree from a dual perspective: current pupils and future teachers. Education Sciences, 13(7). https://doi.org/10.3390/educsci13070733
Ma, J. 2021. Intelligent decision system of higher educational resource data under Artificial Intelligence Technology. International Journal of Emerging Technologies in Learning, 16(5), 130-146. https://doi.org/10.3991/ijet.v16i05.20305
Michel-Villarreal, R., Vilalta-Perdomo, E., Salinas-Navarro, D. E., Thierry-Aguilera, R. y Gerardou, F. S. 2023. Challenges and opportunities of generative AI for Higher Education as explained by ChatGPT. Education Sciences, 13(9). https://doi.org/10.3390/educsci13090856
Moorhouse, B. L., Yeo, M. A. y Wan, Y. 2023. Generative AI tools and assessment: Guidelines of the world’s top-ranking universities. Computers and Education Open, 5. https://doi.org/10.1016/j.caeo.2023.100151
Nam, B. H. y Bai, Q. 2023. ChatGPT and its ethical implications for STEM research and higher education: A media discourse analysis. International Journal of STEM Education, 10(1). https://doi.org/10.1186/s40594-023-00452-5
Ng, D. T. K., Chan, E. K. C. y Lo, C. K. 2025. Opportunities, challenges and school strategies for integrating generative AI in education. Computers and Education: Artificial Intelligence, 8, 100373. https://doi.org/10.1016/j.caeai.2025.100373
Nikolic, S., Daniel, S., Haque, R., Belkina, M., Hassan, G. M., Grundy, S., Lyden, S., Neal, P. y Sandison, C. 2023. ChatGPT versus engineering education assessment: A multidisciplinary and multi-institutional benchmarking and analysis of this generative artificial intelligence tool to investigate assessment integrity. European Journal of Engineering Education, 48(4), 559-614. https://doi.org/10.1080/03043797.2023.2213169
Ramírez Vergara, K. M., López-Chau, A. y Rojas Hernández, R. 2024. Storytelling utilizing Generative AI to foster inclusion of individuals with disabilities. Ingenius, (32), 101-113. https://doi.org/10.17163/ings.n32.2024.10
Puerto, D. A. y Gutiérrez-Esteban, P. 2022. Artificial Intelligence as an Educational Resource during preservice teacher training. RIED-Revista Iberoamericana de Educacion a Distancia, 25(2), 347-362. https://doi.org/10.5944/ried.25.2.32332
Rudolph, J., Ismail, M. F. B. M. y Popenici, S. 2024. Higher Education’s Generative Artificial Intelligence paradox: the meaning of Chatbot Mania. Journal of University Teaching and Learning Practice, 21(6). https://doi.org/10.53761/54fs5e77
Saltos, G. D. C., Oyarvide, W. V., Sánchez, E. A. y Reyes, Y. M. 2023. Bibliometric analysis on neuroscience, artificial intelligence and robotics studies: Emphasis on disruptive technologies in education. Salud, Ciencia y Tecnologia, 3. https://doi.org/10.56294/saludcyt2023362
Sanusi, I. T., Oyelere, S. S., Vartiainen, H., Suhonen, J. y Tukiainen, M. 2023. A systematic review of teaching and learning machine learning in K-12 education. Education and Information Technologies, 28(5), 5967-5997. https://doi.org/10.1007/s10639-022-11416-7
Silva-Rodriguez, J., Colomer, A., Dolz, J. y Naranjo, V. 2021. Self-Learning for Weakly Supervised Gleason Grading of Local Patterns. IEEE Journal of Biomedical and Health Informatics, 25(8), 3094-3104. https://doi.org/10.1109/JBHI.2021.3061457
Slimi, Z. y Carballido, B. V. 2023. Navigating the Ethical Challenges of Artificial Intelligence in Higher Education: An Analysis of Seven Global AI Ethics Policies. TEM Journal, 12(2), 590-602. https://doi.org/10.18421/TEM122-02
Sperling, K., Stenberg, C.-J., McGrath, C., Åkerfeldt, A., Heintz, F. y Stenliden, L. 2024. In search of artificial intelligence (AI) literacy in teacher education: A scoping review. Computers and Education Open, 6. https://doi.org/10.1016/j.caeo.2024.100169
Sullivan, M., Kelly, A. y McLaughlan, P. 2023. ChatGPT in higher education: Considerations for academic integrity and student learning. Journal of Applied Learning and Teaching, 6(1), 31-40. https://doi.org/10.37074/jalt.2023.6.1.17
Tubella, A. A., Mora-Cantallops, M. y Nieves, J. C. 2024. How to teach responsible AI in Higher Education: Challenges and opportunities. Ethics and Information Technology, 26(1). https://doi.org/10.1007/s10676-023-09733-7
Usher, M. y Barak, M. 2024. Unpacking the role of AI ethics online education for science and engineering students. International Journal of STEM Education, 11(1). https://doi.org/10.1186/s40594-024-00493-4
Vallis, C., Wilson, S., Gozman, D. y Buchanan, J. 2024. Student perceptions of AI-Generated avatars in teaching business ethics: we might not be impressed. Postdigital Science and Education, 6(2), 537-555. https://doi.org/10.1007/s42438-023-00407-7
van den Berg, G. y du Plessis, E. 2023. ChatGPT and Generative AI: possibilities for its contribution to lesson planning, critical thinking and openness in teacher education. Education Sciences, 13(10). https://doi.org/10.3390/educsci13100998
Weglarz, D., Pla-Garcia, C. y Jiménez-Zarco, A. I. 2025. Acceptance of Generative AI in the creative industry: The role of UTAUT, brand recognition and trust in adoption. Retos (Ecuador), 15(29), 90-27. https://doi.org/10.17163/ret.n29.2025.01
Williams, R. T. 2023. The ethical implications of using generative chatbots in higher education. Frontiers in Education, 8. https://doi.org/10.3389/feduc.2023.1331607
Yin Albert, C. C., Sun, Y., Li, G., Peng, J., Ran, F., Wang, Z. y Zhou, J. 2022. Identifying and monitoring students’ classroom learning behavior based on multisource information. Mobile Information Systems, 2022. https://doi.org/10.1155/2022/9903342
Yue, M., Jong, M. S.-Y. y Ng, D. T. K. 2024. Understanding K-12 teachers’ technological pedagogical content knowledge readiness and attitudes toward artificial intelligence education. Education and Information Technologies, 29(15), 19505-19536. https://doi.org/10.1007/s10639-024-12621-2
Zhao, L., Wu, X. y Luo, H. 2022. Developing AI literacy for primary and middle school teachers in China: based on a structural equation modeling analysis. Sustainability (Switzerland), 14(21). https://doi.org/10.3390/su142114549
Notas


Tabla 1.

Comparación Pretest-Postest sobre Conocimiento Técnico en IA-G



Figura 1.

Evolución del conocimiento técnico sobre IA-G



Tabla 2.

Comparación Pretest-Postest sobre Actitud Docente hacia IA-G



Tabla 3.

Comparación Pretest-Postest sobre Percepción de Originalidad en IA-G



Figura 2.

Impacto de la capacitación en IA-G sobre el conocimiento técnico, actitud docente, percepción de originalidad y confianza detección de plagio

Buscar:
Contexto
Descargar
Todas
Imágenes
Visor de artículos científicos generados a partir de XML-JATS por Redalyc