Monográfico
Narrativa gamificada como realidad extendida con Inteligencia artificial en los entornos sNOOC. Un proyecto desde la UNED para Utmach.
GAMIFIED NARRATIVE AS EXTENDED REALITY WITH AI IN SNOOC ENVIRONMENTS INNOVATIONS AND CHALLENGES IN THE UNED PROJECT FOR UTMACH
NARRATIVA GAMIFICADA COMO REALIDADE ESTENDIDA COM IA EM AMBIENTES SNOOC. INOVAÇÕES E DESAFIOS NO PROJETO UNED PARA UTMACH
Narrativa gamificada como realidad extendida con Inteligencia artificial en los entornos sNOOC. Un proyecto desde la UNED para Utmach.
Hachetetepé. Revista científica de educación y comunicación, núm. 30, pp. 1-23, 2025
Universidad de Cádiz
Recepción: 20/11/2024
Revisado: 02/01/2025
Aprobación: 17/01/2025
Publicación: 20/04/2025
Resumen: Este artículo examina de manera detallada la integración de la inteligencia artificial (IA) en definir los Social Nano Open Online Courses (sNOOC) desde diversas perspectivas pedagógicas y tecnológicas. Se analizan aspectos clave como la pertinencia y claridad del contenido proporcionado, la facilidad de uso y accesibilidad de las herramientas de IA, así como la precisión, relevancia y aplicabilidad del contenido generado en contextos educativos específicos. Los resultados revelan que, si bien la mayoría de los cursos son bien valorados por los usuarios, existen variaciones significativas en la percepción de su calidad, dependiendo del diseño del curso y del perfil del participante. Este análisis subraya la importancia de la adaptación y personalización de las herramientas basadas en IA, reconociendo que estas tecnologías deben ser ajustadas a las necesidades y objetivos de los usuarios en diferentes entornos educativos. Asimismo, se destaca la relevancia de considerar aspectos éticos, como la privacidad y la equidad, junto con la necesidad de garantizar la transparencia en la explicación del funcionamiento de los algoritmos de IA. Estas medidas son fundamentales para promover una comprensión uniforme, fomentar la confianza en estas tecnologías y asegurar una experiencia de aprendizaje enriquecedora para todos los participantes.
Palabras clave: Inteligencia artificial, Aprendizaje personalizado, sNOOC, Gamificación, Evaluación por pares.
Abstract: This article examines in detail the integration of artificial intelligence (AI) in Social Nano Open Online Courses (sNOOC) from various pedagogical and technological perspectives. Key aspects are analyzed such as the relevance and clarity of the content provided, the ease of use and accessibility of AI tools, as well as the accuracy, relevance and applicability of the content generated in specific educational contexts. The results reveal that, although most courses are highly valued by users, there are significant variations in the perception of their quality, depending on the design of the course and the profile of the participant. This analysis highlights the importance of adaptation and personalization of AI-based tools, recognizing that these technologies must be adjusted to the needs and objectives of users in different educational environments. Likewise, the relevance of considering ethical aspects, such as privacy and equity, is highlighted, along with the need to guarantee transparency in the explanation of the operation of AI algorithms. These measures are critical to promoting consistent understanding, building trust in these technologies, and ensuring a rich learning experience for all participants.
Keywords: Artificial intelligence , Personalized learning, Open Online Courses, Gamification, Peer assessment.
Resumo: Este artigo examina detalhadamente a integração da inteligência artificial (IA) no Social Nano Open Online Courses (sNOOC) a partir de diversas perspectivas pedagógicas e tecnológicas. São analisados aspectos-chave como a relevância e clareza dos conteúdos disponibilizados, a facilidade de utilização e acessibilidade das ferramentas de IA, bem como a precisão, relevância e aplicabilidade dos conteúdos gerados em contextos educativos específicos. Os resultados revelam que, embora a maioria dos cursos sejam altamente valorizados pelos usuários, existem variações significativas na percepção de sua qualidade, dependendo do desenho do curso e do perfil do participante. Esta análise destaca a importância da adaptação e personalização de ferramentas baseadas em IA, reconhecendo que estas tecnologias devem ser ajustadas às necessidades e objetivos dos utilizadores em diferentes ambientes educativos. Da mesma forma, destaca-se a relevância de considerar aspectos éticos, como privacidade e equidade, juntamente com a necessidade de garantir transparência na explicação do funcionamento dos algoritmos de IA. Estas medidas são fundamentais para promover uma compreensão consistente, construir confiança nestas tecnologias e garantir uma rica experiência de aprendizagem para todos os participantes.
Palavras-chave: Inteligência artificial, Aprendizagem personalizada, Cursos Online Abertos, Gamificação, Avaliação por pares..
1. INTRODUCCIÓN
En las últimas décadas, la tecnología ha irrumpido en el campo de la educación (Guerrero, 2022), transformando la manera en que estudiantes y docentes interactúan con el conocimiento y redefiniendo el rol del aprendizaje a distancia. Dentro de este contexto, la inteligencia artificial (IA) ha surgido como una herramienta poderosa para mejorar las experiencias de aprendizaje, permitiendo una mayor personalización y adaptabilidad en función de las necesidades de cada usuario (Aparicio Gómez, 2023). La IA facilita la automatización de tareas, la creación de sistemas de tutoría inteligentes y la optimización de los recursos educativos, aportando un valor significativo al aprendizaje digital. Destacando en el análisis de datos, reconocimiento de imágenes, lenguaje natural y decisiones complejas (Xie, 2023). Sin embargo, a pesar de su potencial, la integración de IA en plataformas de aprendizaje como los sNOOC (Social Nano Open Online Courses) (Hueso et al., 2024; Gil-Quintana 2024) plantea desafíos técnicos, pedagógicos y éticos que necesitan ser abordados para asegurar una implementación efectiva y centrada en el estudiante (Von Feigenblatt y Aparicio-Gómez, 2023). Los sNOOC, en particular, se han destacado por su enfoque en grupos pequeños y con objetivos específicos de aprendizaje, diferenciándose de los MOOC tradicionales, que suelen dirigirse a audiencias más amplias. Nos situamos ante una convergencia que no sólo redefine la educación, sino también el panorama tecnológico (Aparicio-Gómez et al., 2024). A través de la IA, los sNOOC pueden ofrecer recomendaciones personalizadas, ajustar la dificultad de los contenidos y proporcionar soporte en tiempo real, optimizando así la experiencia educativa. No obstante, el uso de IA en estos entornos requiere una evaluación exhaustiva de factores como la pertinencia y claridad del contenido ofrecido, la facilidad de uso de la plataforma, y la capacidad de la IA para mejorar efectivamente la experiencia de aprendizaje sin comprometer la autonomía del estudiante o la calidad del contenido (Granizo et al., 2024; Molina et al., 2024). Este artículo tiene como objetivo examinar la integración de la IA en los sNOOC desde varias perspectivas clave, centrándose en el análisis de la pertinencia y la claridad de los materiales educativos, así como en la facilidad de uso y accesibilidad de la plataforma (Mendoza et al., 2024). A través de una combinación de análisis teórico y revisión empírica, se busca explorar en qué medida las capacidades de la IA en los sNOOC pueden mejorar los resultados de aprendizaje y si cumplen con los estándares de calidad pedagógica (Zamora et al., 2022; Moreira & De la Peña Consuegra, 2022). Además, se analizan los desafíos éticos y técnicos que surgen en esta integración, especialmente en cuanto a la gestión de datos personales de los estudiantes y la transparencia en los procesos de toma de decisiones automatizados (Aparicio y Cortés, 2024). La presente investigación pretende contribuir al debate académico en torno a la educación digital y al uso de la IA en entornos de aprendizaje, ofreciendo un marco que permita a los desarrolladores de sNOOC y a los profesionales de la educación comprender mejor las oportunidades y limitaciones de estas herramientas tecnológicas. De esta forma, se busca no solo optimizar el diseño de sNOOC más efectivos, sino también aportar a la reflexión sobre las implicaciones de la IA en el aprendizaje digital, fomentando un desarrollo educativo ético, inclusivo y centrado en el usuario (Marcos et al., 2023).
2.METODOLOGÍA
Este estudio utilizó un juicio de expertos por pares para evaluar narrativas gamificadas (Lovato, 2021) diseñadas para un sNOOC, desarrollado desde la Universidad Nacional de Educación a Distancia (UNED, España) para la Universidad Técnica de Machala (UTMACH, Ecuador). Se formaron 22 grupos de expertos en educación y tecnología educativa desde un planteamiento interdisciplinar, quienes evaluaron las narrativas usando una lista de cotejo (Tamayo Vera, 2021), que incluyó criterios como la coherencia de la historia, la integración de elementos de gamificación, y la claridad de los objetivos educativos. Los datos se obtuvieron a partir de datos recopilados por medio de SPSS en Círculos de Análisis de narrativas por Pares (CAP), estructura colaborativa y democrática (Boud, Cohen, & Sampson, 2021) donde un grupo de expertos investigadores analizaron críticamente un hecho concreto desde el principio de revisión por pares, pero con un formato más interactivo, de valoración crítica y de enriquecimiento mutuo. Las narrativas, creadas por los grupos de estudiantes, tenían como objetivo mejorar el aprendizaje en el sNOOC. Un ejemplo fue el grupo denominado “Ciencias Experimentales y Ciberseguridad” que enseñaba Física y Química a través de experimentos virtuales y problemas de seguridad digital. Otra narrativa exploraba una civilización antigua, permitiendo a los estudiantes aprender sobre historia y cultura mediante simulaciones interactivas. La tercera narrativa utilizaba una temática de detectives para desarrollar habilidades de pensamiento crítico, desafiando a los estudiantes a resolver casos aplicando el método científico. El análisis se centró en la efectividad de las narrativas en términos de compromiso y aprendizaje. Se calculó el índice de concordancia entre los evaluadores para asegurar la fiabilidad, y se utilizaron análisis cualitativos para identificar temas comunes. Este estudio utilizó un enfoque de "juicio de expertos por pares" para evaluar la calidad y efectividad de narrativas gamificadas desarrolladas para un sNOOC. El juicio de expertos por pares es una metodología ampliamente empleada en la investigación educativa, ya que permite obtener valoraciones objetivas y fundamentadas a partir de la experiencia y el conocimiento de los evaluadores en el campo. En este caso, los expertos que formaron parte del proceso de revisión se dividieron en tres grupos con perfiles diferenciados. Cada grupo estuvo compuesto por expertos en pedagogía digital, con experiencia en diseño instruccional y metodologías activas de enseñanza; por especialistas en IA y tecnología educativa, cuya experiencia contribuyó a valorar los aspectos técnicos y la implementación de IA en entornos de aprendizaje: incluyó también profesionales de la narrativa y el diseño de juegos educativos.
3.RESULTADOS
A partir del (CAP) y del uso de una lista de cotejo, se analizan de forma detallada las categorías clave: Integración de la IA, Diseño, Usabilidad y Calidad y Ética, Responsabilidad y Compromiso. Cada categoría se dividió en subcategorías específicas que permitieron desglosar los elementos críticos de la experiencia educativa y técnica de la plataforma, ofreciendo así una visión integral de los puntos fuertes y las áreas de mejora de cada narrativa. Este apartado, presenta los hallazgos organizados por categoría y subcategoría, describiendo tanto los resultados cuantitativos como los aspectos cualitativos observados en el proceso de evaluación. En la tabla 1 se detallan con más precisión las categorías y subcategorías para esta investigación.
| Categoría | Subcategoría | Descripción |
| (1) Integración de la IA | Pertinencia del contenido | Con respecto a los propósitos específicos de la IA, indica si el contenido producido y modificado por esta es apropiado y beneficioso en cuanto a los propósitos educativos del sNOOC. |
| Relevancia educativa | Evalúa la eficacia de la IA para elegir contenidos que brinden valor educativo y fomenten el aprendizaje relevante. | |
| Utilización efectiva de la IA | Examina el nivel de utilización de las habilidades de la IA para mejorar la experiencia de aprendizaje en el sNOOC. | |
| Personalización del aprendizaje con IA | Examina la manera en que la IA adapta los contenidos y tareas a las necesidades individuales del estudiante, proporcionando una experiencia personalizada. | |
| Interactividad y retroalimentación | Analiza el grado de interacción de la Inteligencia Artificial, además de la velocidad y exactitud de la retroalimentación ofrecida durante el proceso de aprendizaje. | |
| (2) Diseño, Usabilidad y Calidad | Diseño visual y experiencia de usuario | Examina el diseño visual del sNOOC, junto a la experiencia de usuario, analizando si la estructura posibilita una navegación intuitiva y atractiva para los usuarios. |
| Facilidad de uso y accesibilidad | Analiza si la interfaz es sencilla de manejar, apta para individuos con distintos grados de destreza y compatible con varios dispositivos y navegadores. | |
| Precisión y relevancia de contenido | Mide si los contenidos ofrecidos son precisos y están actualizados, manteniendo su relevancia pedagógica en el contexto del curso y las necesidades del usuario. | |
| Originalidad y generación de contenido | Analiza la habilidad del sNOOC para generar contenidos únicos o innovadores que estimulen el interés y la dedicación de los alumnos hacia el aprendizaje. | |
| (3) Ética, Responsabilidad y Compromiso | Consideraciones éticas | Analiza el enfoque ético en el empleo de la IA, asegurando que los métodos y decisiones no perjudiquen ni manipulen al estudiante y respeten sus derechos. |
| Transparencia y Explicación del Funcionamiento de la IA | Evalúa si la plataforma detalla transparentemente y claramente cómo funciona la IA, para que los estudiantes comprendan el proceso y el propósito de su uso. |
La categoría n.º 1. Integración de la IA, revisa cómo la IA contribuye al valor pedagógico del sNOOC mediante contenido pertinente y educativo, personalización del aprendizaje y retroalimentación interactiva. La categoría n.º 2. Diseño, Usabilidad y Calidad, se enfoca en aspectos visuales y funcionales, evaluando la accesibilidad, la facilidad de uso, la precisión del contenido y la originalidad en la generación de materiales educativos. Por último, la categoría n.º 3. Ética, Responsabilidad y Compromiso, examina el compromiso ético del sNOOC en el uso de IA, asegurando la transparencia y que el funcionamiento de la tecnología esté alineado con los principios de respeto y responsabilidad hacia el estudiante. A continuación, se presentan los resultados más relevantes de cada una de la categorías y subcategorías establecidas.
3.1.Categoría 1: Integración de la inteligencia artificial
3.1.1.Pertinencia del contenido
Se analiza a partir de los resultados obtenidos de la pregunta "¿El material aborda temas relevantes y adecuados para el nivel educativo y el objetivo de aprendizaje?", indicando que los grupos más grandes, muestran una percepción persistente y favorable como ocurre en "Exploradores del Conocimiento" y "Enfermería Cuidados Artificiales", con valores medios sobre la relevancia de los temas en cuanto al nivel educativo y objetivo del aprendizaje con estos resultados de 4.25 y 4.1, respectivamente, y con desviaciones típicas de 0.84. En este rango, podemos encontrar también los grupos "Ciberseguridad" y "Ciencias Experimentales", con valores medios altos de 4.63 y 4.54, y desviaciones típicas (DT) bajas (0.69 y 0.74, respectivamente), indicando una alta valoración y uniformidad en las respuestas. En cuanto a los grupos con menor frecuencia de respuestas, como "Producción Agropecuaria" y "Química Sostenible", desprenden valores medios positivos de 4.5 y 4.13, aunque con una mayor variabilidad en algunos casos (DT de 0.99 para “Química Sostenible”). Esta percepción es uniforme, como "Conservación de los Alimentos" (3 respuestas) y "World App", donde se observan valoraciones muy altas (4.67 y 4.67, respectivamente), indicando que, aunque menos numerosos, estos grupos perciben el material basado en IA como altamente pertinente. En algunos casos, sin embargo, se observan valoraciones más bajas y con una mayor dispersión. Este es el caso de grupos como: "Actividad Física y Deporte" y "FCE" con valores medios de 3.96 y 3.93, respectivamente, con desviaciones típicas más altas (0.97 y 1.12), indicando una mayor diversidad de opiniones —Figura 1—.

El análisis estadístico muestra que los grupos han evaluado el material basado en IA conscientemente, reflejando una evaluación positiva y consistente sobre la pertinencia del contenido. El análisis apunta a que la mayoría de los grupos perciben el material como pertinente y adecuado, especialmente en áreas como "Ciberseguridad" y "Ciencias Experimentales". Esto refleja que el diseño del contenido tiene un fuerte impacto positivo en ciertas disciplinas donde las expectativas y los objetivos de aprendizaje son probablemente más uniformes o directamente relacionados con la tecnología y la innovación. Sin embargo, los resultados también revelan áreas de mejora, particularmente en los grupos con menores valoraciones medias o mayor dispersión. Estos patrones podrían sugerir la necesidad de una mayor personalización del contenido para abordar mejor las especificidades de disciplinas como "Actividad Física y Deporte" y "FCE".
3.1.2. Relevancia educativa
Se analiza en términos de la claridad y coherencia del contenido, respondiendo a la pregunta "¿El material presenta la información de manera clara y coherente, facilitando su comprensión?". El análisis estadístico muestra que la mayoría de los grupos, con puntuaciones superiores a 5, evalúan positivamente la claridad y coherencia del material educativo, facilitando su comprensión. Así, "Ciberseguridad" (91 respuestas) y "Ciencias Experimentales" (87 respuestas) destacan con valoraciones medias (VM) altas de (VM 4.59, DT 0.75) y (VM 4.47, DT 0.76), respectivamente, indicando una percepción muy favorable y uniforme sobre la claridad y coherencia del material. "Exploradores del Conocimiento" (111 respuestas) y "Enfermería Cuidados Artificiales" (105 respuestas) tienen (VM 4.25, DT 0.83) y (VM 4.09, DT 0.79), reflejando una percepción positiva y consistente. Los grupos con menor frecuencia, como "Producción Agropecuaria" (18 respuestas) y "Química Sostenible" (15 respuestas), muestran valoraciones positivas con (VM 4.56, DT 0.85) y (VM 4.07, DT 1.03), respectivamente, aunque con mayor variabilidad. Entre los grupos con muy pocas respuestas, "Conservación de los Alimentos" (3 respuestas) y "Mentes Creativas Motivadoras" (2 respuestas) presentan valoraciones muy altas (VM 4.67, DT 0.58) y (VM 5) con DT no reportada, indicando una percepción extremadamente positiva de la claridad y coherencia del contenido. Finalmente, "Actividad Física y Deporte" (79 respuestas) y "FCE" (68 respuestas) muestran puntuaciones medias más bajas (VM 3.92, DT 0.96) y (VM 3.88, DT 1.1), indicando una mayor diversidad de opiniones respecto a la claridad y coherencia del material —Figura 2—.

En general, los resultados sugieren que el material educativo logra su objetivo de facilitar la comprensión en la mayoría de los grupos. Sin embargo, la diversidad de valoraciones en algunos casos revela la necesidad de ajustes específicos para mejorar la uniformidad de la experiencia en ciertos contextos.
3.1.3. Utilización efectiva de la IA
La utilización efectiva de la IA en educación se refiere a cómo las tecnologías de IA mejoran la claridad, coherencia y comprensión del contenido educativo, facilitando el aprendizaje y proporcionando herramientas avanzadas para personalizar la educación según las necesidades individuales. Así, los grupos "World App" (VM 4.75, DT 0.51), "Ciberseguridad" (VM 4.51, DT 0.82), "Mundo App-Dominus" (VM 4.46, DT 0.79) y "Bioquímica y Farmacia" (VM 4.36, DT 0.80) destacan con puntuaciones medias altas y consistentes, reflejando una percepción altamente favorable sobre la integración de la IA en la educación. Por otro lado, "Enfermería Comunitaria Un Reto Al Futuro" y "Cambio Climático - Pérdida De Biodiversidad" con (VM 4.67 y 4.14, respectivamente), y con DT bajas (0.82 y 0.91), indicando una percepción positiva y consistente sobre la relevancia educativa de la IA. Sin embargo, "FCE!" (VM 3.75, DT 1.15) e "Ing. Química" (VM 3.96, DT 1.08) muestran mayor variabilidad en sus respuestas, sugiriendo una diversidad de opiniones dentro de estos grupos. "Negocios Digitales" tiene la puntuación más baja, con un VM de 1 y sin DT reportada, indicando una percepción negativa sobre la relevancia educativa de la IA en este contexto. Finalmente, "Mentes Creativas Motivadoras" y "Enfermería Comunitaria un Reto al Futuro" han obtenido puntuaciones perfectas de 5, reflejando una excelente integración y aceptación de la IA en sus programas educativos —Figura 3—.

La mayoría de los grupos consideran que la utilización de la IA es efectiva y relevante, mejorando la experiencia en claridad y coherencia del contenido. Sin embargo, las variaciones en algunas puntuaciones indican áreas específicas que podrían beneficiarse de una mayor atención para optimizar la aplicación de la IA en la educación.
3.1.4.Personalización del aprendizaje con IA
Entendida como la capacidad de adaptar el contenido educativo, la metodología de enseñanza y el ritmo de aprendizaje a las necesidades individuales de cada estudiante, mediante el uso de IA que analiza datos sobre el desempeño y las preferencias de los estudiantes para ofrecer una experiencia de aprendizaje más efectiva y personalizada, encontramos los siguientes resultados. “Ciberseguridad”, con una valoración media (VM) de 4.51 y DT de 0.82, “Ciencias Experimentales” (VM 4.44, DT 0.80), “World App” (VM 4.58 y DT 0.51), “Enfermería Comunitaria”. “Un Reto al Futuro y Conservación de los Alimentos”, (VM 4.67), indican una fuerte aceptación y aceptación de la IA en estos campos. Además, “Producción Agropecuaria” (VM 4.44, DT 0.70), seguida por “Carrera Alimentos” (VM 4.36, DT 1.18) e “Ingeniería de Alimentos” (VM 4.32, DT 0.83). Otros grupos con alta valoración incluyen “Agronomía” (VM 4.32, DT 0.82), “Ingeniería Civil” (VM 4.30, DT 0.87) y “Cuidados de Enfermería” (VM 4.29, DT 0.85). “Bioquímica y Farmacia” (VM 4.29, DT 0.89) y “Tecnologías de la Información” (VM 4.28, DT 0.94) también reflejan una percepción positiva y relativamente uniforme. “Salud Mental” (VM 4.26, DT 0.93), “Exploradores del Conocimiento” (VM 4.19, DT 0.88) e “Ingeniería Química” (VM 4.19, DT 0.91) muestran una percepción positiva con variabilidad moderada. Grupos como “Genius Alliance (Idioma Inglés)” (VM 4.16, DT 0.91), “Economía y Comercio Exterior” (VM 4.15, DT 0.89), “Ciencia de la Felicidad” (VM 4.14, DT 0.96) y “Cambio Climático - Pérdida de Biodiversidad” (VM 4.11, DT 0.92) indican percepciones positivas con variabilidad notable. “Contabilidad y Auditoría Mercadotecnia” (VM 4.06, DT 0.91) mantiene una percepción generalmente positiva. “Medicina Salud (Morfofisiología)” (VM 4.07, DT 0.99) y “Química Sostenible” (VM 4.07, DT 1.03) muestran percepciones positivas, pero con mayor variabilidad. Por último, “Actividad Física y Deporte” (VM 4.00, DT 0.97) y “Enfermería Cuidados Artificiales” (VM 3.96, DT 0.93) presentan percepciones positivas, pero menos robustas, mientras que “FCE!” (VM 3.75, DT 1.11) sugiere variabilidad significativa en las percepciones y desafíos para una efectividad uniforme —Figura 4—.

Los grupos muestran una percepción positiva sobre la personalización del aprendizaje con IA, destacándose “Ciberseguridad”, “Ciencias Experimentales”, “World App” y “Enfermería Comunitaria - Un Reto al Futuro” con las valoraciones más altas y consistentes. Sin embargo, “FCE!” y “Carrera Alimentos” presentan mayor variabilidad en sus experiencias, indicando áreas de mejora en la implementación de IA en estos contextos. En conjunto, los resultados destacan la efectividad de la IA en personalizar el aprendizaje en disciplinas con alta afinidad tecnológica o metodologías estructuradas, mientras que áreas más diversificadas o con menor integración tecnológica requieren una mayor atención para optimizar su experiencia de aprendizaje.
3.1.5. Interactividad y retroalimentación
La interactividad y retroalimentación proporcionadas por la IA son claves para un aprendizaje efectivo, permitiendo respuestas instantáneas y adaptadas a las necesidades de las y los estudiantes. A continuación, se presenta un análisis de cómo los distintos grupos perciben estos aspectos, ordenados de mayor a menor según (VM) y (DT). El grupo "Mentes Creativas Motivadoras" tiene una alta valoración de (VM 5.00, DT 0.00), indicando una excelente percepción de la interactividad y retroalimentación. La "Gamificación Educativa" también muestra una valoración sobresaliente de (VM 4.50, DT 0.00), reflejando una alta satisfacción con la IA en estos contextos. "Producción Agropecuaria" y "Mentes Creativas - Negocios Inteligentes" presentan valoraciones altas de (VM 4.50, DT 0.00) y (VM 4.36, DT 0.00), respectivamente, reflejando una experiencia positiva y satisfactoria con la retroalimentación de la IA. El grupo "Ingeniería de Alimentos" tiene una valoración de (VM 4.26, DT 0.85), mientras que "Genius Alliance" presenta una valoración de (VM 4.16, DT 0.91). Ambos grupos muestran valoraciones positivas, aunque con algo de variabilidad en las experiencias. "Economía y Comercio Exterior" y "Ingeniería Civil" tienen valoraciones favorables de (VM 4.22, DT 0.89) y (VM 4.27, DT 0.87), respectivamente, indicando una percepción positiva de la IA en estos campos. El grupo "Bioquímica y Farmacia" tiene una valoración de (VM 4.30, DT 0.88), mostrando una percepción positiva y eficaz de la interactividad y retroalimentación de la IA. "Salud Mental" presenta una valoración de (VM 4.29, DT 0.87), manifestando una buena adaptación de la IA para temas sensibles y complejos. "Agronomía" muestra una alta satisfacción con una valoración de (VM 4.34, DT 0.76), indicando una experiencia uniforme y positiva con la IA. Los grupos "Ciberseguridad" y "Ciencias Experimentales" tienen valoraciones destacadas de (VM 4.55, DT 0.79) y (VM 4.47, DT 0.76), respectivamente, reflejando una percepción muy favorable y consistente. El grupo "Cambio Climático - Pérdida de Biodiversidad" presenta una valoración de (VM 4.14, DT 0.91), denotando una buena percepción de la interactividad y retroalimentación, aunque con algo de variabilidad. "Enfermería Cuidados Artificiales" tiene una valoración de (VM 4.02, DT 0.88), revelando una percepción positiva, pero algo más reservada. "Contabilidad y Auditoría Mercadotecnia" muestra una valoración de (VM 4.03, DT 0.94), con una percepción favorable, pero con mayor variabilidad. "Actividad Física y Deporte" tiene una valoración de (VM 4.01, DT 0.88), exhibiendo una percepción positiva, pero ligeramente más baja en comparación con otros grupos. "FCE!" presenta una valoración de (VM 3.78, DT 1.13), sugiriendo una percepción más baja y variable de la interactividad y retroalimentación. Finalmente, "Enfermería Cuidados Artificiales" muestra una valoración de (VM 4.25, DT 0.85) y "Tecnologías de la Información" tiene una valoración de (VM 4.25, DT 0.92). Ambos grupos valoran positivamente la interactividad y retroalimentación, aunque con variabilidad en algunos casos —Figura 5—.

Estos resultados muestran que la interactividad y retroalimentación de la IA son valoradas en diferentes grados según el grupo de estudio, con algunas áreas mostrando una alta satisfacción y otras con mayor variabilidad en las experiencias. La IA tiene el potencial de mejorar la experiencia de aprendizaje al proporcionar retroalimentación oportuna y adaptativa, pero su efectividad puede variar según la naturaleza del contenido y las necesidades específicas de cada grupo.
3.2 .Categoría 2: Diseño, Usabilidad y Calidad
3.2.1.Diseño visual y experiencia de usuario
El diseño visual y la experiencia del usuario (UX) son fundamentales para la eficacia de las plataformas educativas, impactando directamente en la facilidad de uso y la satisfacción del usuario. A continuación, se presenta un análisis de cómo diferentes grupos perciben estos aspectos, ordenado de mayor a menor según la valoración media (VM) y desviación típica (DT). El grupo "Mentes Creativas Motivadoras" muestra una alta valoración de (VM 4.50, DT 0.00), señalando una excelente percepción del diseño visual y UX. "Gamificación Educativa" también refleja una alta satisfacción con (VM 4.50, DT 0.00), demostrando una experiencia positiva en estos contextos educativos. "Producción Agropecuaria" y "Mentes Creativas - Negocios Inteligentes" tienen valoraciones altas de (VM 4.50, DT 0.00) y (VM 4.23, DT 0.00), respectivamente, lo que indica una alta satisfacción con el diseño visual y UX. El grupo "Agronomía" presenta una valoración de (VM 4.35, DT 0.78), mostrando alta satisfacción con el diseño visual y UX, con una experiencia uniforme entre los usuarios. "Ciberseguridad" tiene una valoración destacada de (VM 4.55, DT 0.78), reflejando una percepción muy positiva del diseño visual y la experiencia de usuario. "Ciencias Experimentales" muestra (VM 4.46, DT 0.77), exhibiendo una experiencia consistente y satisfactoria con el diseño visual y UX. El grupo "Mundo App - Dominus" presenta una alta valoración (VM 4.36, DT 0.76), sugiriendo que el diseño visual y UX son bien valorados y adecuados para el contenido de las aplicaciones educativas. "Salud Mental" tiene una valoración (VM 4.22, DT 0.97), reflejando una percepción positiva del diseño visual y UX, con algunas diferencias en la experiencia relacionadas con la adaptación a temas sensibles. "Bioquímica y Farmacia" presenta una valoración de (VM 4.20, DT 0.98), demostrando una percepción generalmente satisfactoria del diseño visual y UX, aunque con cierta variabilidad en las experiencias. "Enfermería Cuidados Artificiales" tiene una valoración de (VM 4.00, DT 0.89), denotando una opinión positiva, pero menos entusiasta respecto al diseño visual y UX, con espacio para mejoras en la adaptación a las necesidades del campo de la enfermería. "Cambio Climático - Pérdida de Biodiversidad" tiene una valoración de (VM 4.13, DT 0.90), mostrando una apreciación positiva del diseño visual y UX, aunque con algo de variabilidad que indica la necesidad de interfaces más especializadas. "Medicina Salud (Morfofisiología)" presenta (VM 4.24, DT 0.90), indicando una buena percepción del diseño visual y UX, aunque con cierta variabilidad en la adaptación a la complejidad del contenido médico. "Tecnologías de la Información" muestra (VM 4.22, DT 1.00), reflejando una percepción positiva del diseño visual y UX, con variabilidad posiblemente relacionada con las diferentes herramientas y plataformas utilizadas. "Actividad Física y Deporte" (VM 3.97, DT 0.91), indica una percepción más baja en comparación con otros grupos, lo que puede sugerir que el diseño actual no cumple completamente con las expectativas del campo. "Contabilidad y Auditoría Mercadotecnia" presenta (VM 3.96, DT 0.95), revelando una percepción positiva, pero menos entusiasta, con variabilidad que podría reflejar la necesidad de mejoras en el diseño. "FCE!" muestra una valoración de (VM 3.76, DT 1.16), indicando una percepción relativamente baja del diseño visual y UX, con una alta desviación que sugiere una amplia gama de experiencias y posibles desafíos en la implementación. Otros grupos, como "Ingeniería de Alimentos" (VM 4.22, DT 0.85) y "Genius Alliance" (VM 4.16, DT 0.91), muestran valoraciones positivas, pero con cierta variabilidad en la experiencia. "Ingeniería Civil" (VM 4.20, DT 0.87) y "Economía y Comercio Exterior" (VM 4.14, DT 0.88) tienen puntuaciones favorables, indicando satisfacción general con el diseño y UX —Figura 6—.

La percepción del diseño visual y la experiencia del usuario varía entre los grupos, con unos que muestran una alta satisfacción, mientras que otras áreas presentan puntuaciones más bajas. La consistencia en la experiencia del usuario y la adaptación del diseño a las necesidades específicas de cada campo son factores clave para mejorar la efectividad de las herramientas educativas basadas en IA.
3.2.2.Facilidad de uso y accesibilidad
La facilidad de uso y accesibilidad de las herramientas basadas en IA para los cursos varía significativamente entre diferentes áreas temáticas, según los datos recopilados. A continuación, se presenta un análisis detallado de las percepciones de los usuarios en relación con estas herramientas, basándose en los datos obtenidos. Así, el grupo “Exploradores del Conocimiento” obtiene una puntuación de (VM 4.18, DT 0.83), señalando una experiencia generalmente positiva con algunas variaciones en la percepción entre los usuarios. Esta valoración sugiere que, en su mayoría, los usuarios encuentran las herramientas de IA accesibles y fáciles de usar, aunque existen diferencias individuales en la experiencia. Por otro lado, el curso “Enfermería Cuidados Artificiales” muestra una puntuación media de (VM 4.03, DT 0.84), siendo una valoración ligeramente inferior, revelando que, aunque la mayoría de los usuarios aprecian la facilidad de uso de las herramientas, hay una mayor variabilidad en las experiencias reportadas. Esto podría sugerir áreas específicas de mejora en la accesibilidad y facilidad de uso para este grupo. En cuanto a “Cambio Climático - Pérdida de Biodiversidad”, la puntuación es de (VM 4.15, DT 0.92), reflejando una percepción positiva, pero con una mayor variabilidad en la facilidad de uso reportada. Esta diferencia podría manifestar la necesidad de ajustar las herramientas para atender las necesidades particulares de los usuarios en esta área temática. “Bioquímica y Farmacia” presentan una puntuación media de (VM 4.27, DT 0.94), mostrando una buena percepción de la accesibilidad y facilidad de uso con una variabilidad moderada en las respuestas. Similarmente, “Salud Mental” obtiene una valoración de (VM 4.24, DT 0.89), indicando que la mayoría de los usuarios encuentran las herramientas útiles, aunque con algunas diferencias en la experiencia de uso. “Ciberseguridad” destaca con una alta puntuación de (VM 4.51, DT 0.82), sugiriendo que los usuarios de este grupo tienen una experiencia uniforme y muy satisfactoria en términos de facilidad de uso y accesibilidad de las herramientas de IA. En contraste, el grupo “Contabilidad y Auditoría Mercadotecnia” tiene una puntuación de (VM 3.93, DT 0.96). Esta puntuación indica que la facilidad de uso y accesibilidad son áreas de preocupación para los usuarios de este grupo, sugiriendo que se necesitan mejoras significativas en la implementación de las herramientas de IA en este campo. Cursos como “Haciendo Historia” y “Producción Agropecuaria” muestran puntuaciones medias altas de (VM 4.39, DT 0.82) y (VM 4.44, DT 0.79), respectivamente, reflejando una experiencia positiva y consistente en términos de accesibilidad y facilidad de uso. Estos resultados denotan que las herramientas de IA están bien adaptadas a las necesidades de estos cursos. Por otro lado, “Química Sostenible” y “FCE!” presentan puntuaciones más bajas de (VM 3.93, DT 0.98) y (VM 3.84, DT 1.05), respectivamente, indicando que los usuarios experimentan más dificultades en términos de facilidad de uso y accesibilidad. Esto podría manifestar áreas críticas que requieren atención para mejorar la experiencia del usuario en estos cursos específicos —Figura 7—.

Por lo tanto, la facilidad de uso y accesibilidad de las herramientas basadas en inteligencia artificial para los cursos varía ampliamente. Mientras que muchas áreas temáticas tienen valoraciones positivas, hay una notable variabilidad en la experiencia del usuario que sugiere la necesidad de ajustar y personalizar las herramientas de IA para satisfacer mejor las necesidades específicas de cada grupo. La mejora en la consistencia y adaptabilidad de estas herramientas podría ayudar a ofrecer una experiencia más uniforme y satisfactoria para todos los usuarios. La IA, en este contexto, aporta una capacidad única para explorar grandes volúmenes de datos, identificar patrones complejos y generar soluciones eficientes (Xie, 2023).
3.2.3.Precisión y relevancia de contenido
La precisión y relevancia del contenido generado por IA en sNOOC puede variar significativamente entre diferentes áreas temáticas, según los datos presentados. Los resultados del análisis reflejan cómo las y los usuarios perciben la precisión y relevancia del contenido en función de sus experiencias específicas. “Exploradores del Conocimiento” muestra una puntuación media de (VM 4.18, DT 0.82), lo que señala una alta percepción de precisión y relevancia del contenido generado por IA, aunque existe una cierta variabilidad en cómo los usuarios experimentan esta precisión. La puntuación sugiere que, en general, los usuarios consideran que el contenido es relevante y preciso, pero la percepción puede variar dependiendo de las experiencias individuales. Por su parte, “Enfermería - Cuidados Artificiales” obtiene una puntuación media de (VM 4.03, DT 0.84), indicando que, aunque el contenido generado por IA es generalmente percibido como preciso y relevante, existe una mayor variabilidad en las percepciones entre los usuarios. La variabilidad podría deberse a las diferentes expectativas y necesidades en la formación en cuidados artificiales. En el caso de “Cambio Climático - Pérdida de Biodiversidad”, la puntuación media es de (VM 4.15, DT 0.92), reflejando una percepción positiva de la precisión y relevancia del contenido generado. Sin embargo, la mayor desviación indica que hay más diferencias en la percepción entre los usuarios, sugiriendo que algunos pueden encontrar que el contenido no siempre se alinea con sus expectativas o necesidades específicas. En cuanto a “Bioquímica y Farmacia”, presenta una puntuación media de (VM 4.27, DT 0.94), lo que sugiere que la mayoría de los usuarios consideran el contenido como preciso y relevante, aunque la percepción varía entre los individuos. La desviación indica que algunos usuarios pueden haber encontrado inconsistencias o áreas de mejora en la relevancia del contenido. Por su parte, “Salud Mental” tiene una puntuación media de (VM 4.24, DT 0.89), mostrando una valoración positiva en términos de precisión y relevancia. La puntuación sugiere que el contenido generado por IA en este campo es generalmente considerado útil y pertinente, aunque la percepción puede variar. En cuanto a “Ciberseguridad”, destaca con una puntuación media alta de (VM 4.51, DT 0.82), indicando que los usuarios perciben el contenido generado por IA en este campo como altamente preciso y relevante, con una experiencia consistente y satisfactoria.
En contraste, el grupo “Contabilidad y Auditoría Mercadotecnia” muestra una puntuación media de (VM 3.93, DT 0.96). Esta puntuación indica que la precisión y relevancia del contenido generado por IA son áreas de preocupación, con una alta variabilidad en la percepción de los usuarios. Esto sugiere que el contenido puede no estar siempre alineado con las necesidades y expectativas de los usuarios en este campo. “Haciendo Historia” y “Producción Agropecuaria” presentan puntuaciones medias de (VM 4.39, DT 0.82) y (VM 4.44, DT 0.79), respectivamente, reflejando una alta percepción de precisión y relevancia del contenido generado por IA. Estos resultados indican que el contenido en estos cursos es generalmente considerado muy relevante y preciso por la mayoría de los usuarios. Por otro lado, “Química Sostenible” y “FCE!” tienen puntuaciones más bajas de (VM 3.93, DT 0.98) y (VM 3.84, DT 1.05), respectivamente, indicando que los usuarios encuentran más dificultades en la precisión y relevancia del contenido generado por IA. Estos resultados muestran la necesidad de ajustar el contenido para mejorar la alineación con las expectativas y necesidades del curso —Figura 8—.

En resumen, la percepción de la precisión y relevancia del contenido generado por IA en los sNOOC varía ampliamente. Mientras que muchos cursos reciben valoraciones positivas, la variabilidad en las puntuaciones sugiere que existe una necesidad de personalizar y ajustar el contenido generado para mejorar la experiencia y satisfacción de los usuarios en diferentes áreas temáticas. La mejora en la precisión y relevancia del contenido es crucial para asegurar que las herramientas de IA proporcionen valor real y alineado con los objetivos educativos de los cursos.
3.2.4.Respecto a la originalidad y la generación de contenido
La evaluación de la originalidad y creatividad del contenido generado por IA en sNOOC muestra una variedad de percepciones entre los diferentes cursos, reflejando diferencias significativas en la apreciación de la innovación y creatividad del contenido proporcionado. En general, los cursos “Exploradores del Conocimiento” y “Ciberseguridad” tienen puntuaciones altas en originalidad y creatividad, con medias de (VM 4.14, DT 0.85) y (VM 4.48, DT 0.85), respectivamente. Estos cursos parecen destacarse por ofrecer contenido innovador y creativo, siendo percibidos positivamente por los alumnos. La baja DT en “Ciberseguridad” sugiere que la percepción de creatividad es bastante uniforme entre los participantes, mientras que, en “Exploradores del Conocimiento”, la desviación es algo mayor, indicando una ligera variabilidad en la percepción. Los grupos “Salud Mental” y “Bioquímica y Farmacia” también reciben puntuaciones destacadas, con medias de (VM 4.32, DT 0.83) y (VM 4.28, DT 0.85), respectivamente. Estos resultados reflejan una alta valoración de la originalidad y creatividad del contenido en estos cursos, aunque la DT es un poco más alta, sugiriendo una cierta diversidad en cómo se percibe la creatividad del contenido. Por otro lado, “Enfermería - Cuidados Artificiales” y “Cambio Climático - Pérdida de Biodiversidad” presentan puntuaciones más modestas, con medias de (VM 3.93, DT 0.92) y (VM 4.01, DT 0.94), respectivamente. Estas puntuaciones indican que, aunque los usuarios consideran que el contenido es útil, hay una percepción menor de originalidad y creatividad. La DT también es relativamente alta, sugiriendo una mayor variabilidad en la percepción entre los usuarios, lo que podría indicar que el contenido podría beneficiarse de enfoques más innovadores. “Contabilidad y Auditoría Mercadotecnia” muestra una puntuación media de (VM 4.04, DT 1.03), indicando una percepción moderada de creatividad con una alta variabilidad en la respuesta de los usuarios. Esto sugiere que mientras algunos encuentran el contenido creativo, otros podrían sentir que falta innovación en este ámbito. En contraste, “Mundo App - Dominus” y “Haciendo Historia” reciben puntuaciones elevadas de (VM 4.41, DT 0.80) y (VM 4.39, DT 0.78), respectivamente. Estos cursos son percibidos como altamente originales y creativos por la mayoría de los usuarios, con una percepción consistente de su calidad innovadora. Así mismo, “Producción Agropecuaria” y “Mentores Creativos” también destacan con puntuaciones de (VM 4.33, DT 0.78) y (VM 4.57, DT 0.65), respectivamente, lo que indica una fuerte apreciación por la originalidad y creatividad del contenido. La baja DT en “Mentores Creativos” sugiere una percepción muy uniforme de la creatividad del contenido. Por otro lado, algunos cursos como “FCE” y “Enfermería” tienen puntuaciones más bajas de (VM 3.81, DT 1.08) y (VM 4.09, DT 0.94), respectivamente, lo que refleja una percepción menor y más variable en cuanto a la originalidad y creatividad del contenido. Estos cursos podrían beneficiarse de una revisión para incrementar su nivel de innovación y creatividad. Finalmente, cursos con puntuaciones extremadamente altas y bajas, como “Challenge Team” con una puntuación perfecta de 5 y “Negocios Digitales” con una puntuación de 1, subrayan la variabilidad extrema en la percepción de creatividad y originalidad, donde algunos cursos son considerados ejemplares en estos aspectos, mientras que otros no cumplen con las expectativas de los usuarios —Figura 9—.

Por lo tanto, la evaluación de la originalidad y creatividad del contenido en los sNOOC revela que, aunque muchos cursos son percibidos positivamente en términos de innovación, existe una significativa variabilidad en la percepción. Esto indica que mientras algunos cursos sobresalen en proporcionar contenido creativo y original, otros podrían mejorar para alinearse mejor con las expectativas de los usuarios y aumentar su valor educativo a través de un enfoque más innovador y creativo.
3.3 Categoría 3: Ética, responsabilidad y compromiso
3.3.1.Consideraciones éticas
En cuanto a las consideraciones éticas en el uso de la IA, el análisis de los datos proporciona una visión integral de cómo se perciben estas cuestiones en los diversos sNOOC evaluados. Los resultados se expresan en datos sobre la frecuencia de respuestas, el (VM), la (DT), y los valores mínimos y máximos de la evaluación sobre la consideración ética en el uso de la IA. Respecto a la Evaluación General, “Ciencias Experimentales” y “Ciberseguridad” destacan con puntuaciones medias de (VM 4.55, DT 0.76) y (VM 4.54, DT 0.83), respectivamente. Estas altas puntuaciones sugieren que estos cursos son percibidos como muy comprometidos con las consideraciones éticas relacionadas con la IA. La baja DT en “Ciencias Experimentales” indica una percepción homogénea sobre la ética en la IA, mientras que en “Ciberseguridad” la percepción es un poco más variable, pero aún positiva. Esto puede reflejar un enfoque robusto y coherente en la enseñanza de las implicaciones éticas de la IA en estos cursos. “Salud Mental” y “Bioquímica y Farmacia" también obtienen puntuaciones elevadas de (VM 4.44, DT 0.83) y (VM 4.49, DT 0.79), respectivamente, lo que refleja un fuerte enfoque en la ética dentro de estos campos. La DT es relativamente baja en ambos cursos, indicando de manera uniforme que estos cursos abordan de manera efectiva las cuestiones éticas relacionadas con la IA. Por otro lado, cursos como “Enfermería Cuidados Artificiales” y “Cambio Climático - Pérdida de Biodiversidad” muestran puntuaciones medias de (VM 4.15, DT 0.95) y (VM 4.21, DT 0.96), respectivamente. Aunque estos valores son positivos, las puntuaciones son ligeramente más bajas en comparación con los cursos mencionados anteriormente. La DT es relativamente alta, lo que indica que existe una mayor variabilidad en la percepción entre los usuarios sobre cómo estos cursos abordan las consideraciones éticas en la IA. Con respecto a cursos destacados, “Mundo App - Dominus” y “Haciendo Historia” obtienen puntuaciones de (VM 4.46, DT 0.73) y (VM 4.33, DT 0.84), respectivamente. Estos cursos parecen manejar de manera competente las consideraciones éticas, con desviaciones típicas relativamente bajas, lo que indica una percepción positiva y uniforme entre los participantes. “Mentores Creativos” y “Producción Agropecuaria” también reciben puntuaciones altas, con valores de (VM 4.50, DT 0.65) y (VM 4.39, DT 0.78), respectivamente. La baja DT en “Mentores Creativos” sugiere una percepción coherente y fuerte sobre la consideración ética en estos cursos. Con respecto a los cursos “Contabilidad y Auditoría Mercadotecnia” y “FCE!” tienen puntuaciones de (VM 4.07, DT 1.03) y (VM 3.99, DT 1.04), respectivamente. La DT es más alta en “Contabilidad y Auditoría Mercadotecnia”, indicando una mayor variabilidad en la percepción sobre cómo se abordan las consideraciones éticas en estos cursos. “FCE!” muestra la puntuación más baja con una DT alta, lo que sugiere que este curso podría no abordar tan efectivamente las cuestiones éticas relacionadas con la IA en comparación con otros cursos. Con respecto a los Cursos con Puntuaciones Extremas, algunos cursos como “Challenge Team” y “Ciencias Empresariales” obtienen una puntuación perfecta de 5, indicando una excelente percepción de la ética en el uso de la IA. En contraste, “Negocios Digitales” y “Educación Inicial” obtienen puntuaciones bajas de (VM 2, DT -) y (VM 3, DT -), respectivamente. Estas bajas puntuaciones reflejan una percepción de que estos cursos podrían no estar abordando de manera efectiva las consideraciones éticas en la IA —Figura 10—

Por lo tanto, los cursos con puntuaciones altas en consideraciones éticas, como “Ciencias Experimentales” y “Ciberseguridad”, destacan por su enfoque sólido en la ética en la IA. Por otro lado, aquellos con puntuaciones más bajas, como “FCE!” y “Negocios Digitales”, podrían necesitar mejorar en la integración de las cuestiones éticas en su contenido. La variabilidad en las respuestas sugiere que mientras algunos cursos son bien recibidos en términos de ética, otros presentan oportunidades significativas para mejorar la manera en que abordan estos temas cruciales.
3.3.2.Transparencia y Explicación del Funcionamiento de la IA
Con respecto al Análisis de la Transparencia y Explicación del Funcionamiento de la IA, los resultados muestran la percepción de la transparencia y la explicación del funcionamiento de la inteligencia artificial (IA) en diversos sNOOC. En cuanto a la Evaluación General, “Ciencias Experimentales” y “Ciberseguridad” tienen las puntuaciones medias más altas de (VM 4.51, DT 0.78) y (VM 4.52, DT 0.87), respectivamente, indicando que estos cursos son percibidos como muy efectivos en cuanto a la transparencia y explicación del funcionamiento de la IA. La baja DT en “Ciencias Experimentales” muestra una percepción consistente de los participantes sobre la calidad de la explicación en estos cursos. En “Ciberseguridad”, aunque la percepción es muy positiva, hay una ligera variabilidad en las respuestas. Así, “Salud Mental” y “Bioquímica y Farmacia” también obtienen puntuaciones altas, con valores de (VM 4.38, DT 0.82) y (VM 4.44, DT 0.83), respectivamente. La baja DT en estos cursos muestra que los participantes comparten una percepción bastante uniforme de la calidad de la explicación de la IA. En cuanto a los cursos Destacados, “Mundo App - Dominus” y “Producción Agropecuaria” presentan puntuaciones de (VM 4.46, DT 0.71) y (VM 4.44, DT 0.70), respectivamente, indicando que los cursos abordan de manera efectiva la transparencia y explicación del funcionamiento de la IA. La DT baja en ambos cursos sugiere una percepción coherente entre los participantes sobre la transparencia en estos cursos. Con respecto a “Mentores Creativos” y “Ciencia de la Felicidad”, tienen puntuaciones de (VM 4.50, DT 0.74) y (VM 4.18, DT 0.88), respectivamente, mostrando un buen nivel de satisfacción con la transparencia en la explicación de la IA en estos cursos. La DT en “Mentores Creativos” es baja, lo que sugiere una evaluación consistente por parte de los participantes. Los cursos con Puntuaciones Moderadas engloban “Contabilidad y Auditoría Mercadotecnia” y “FCE!” que presentan puntuaciones medias de (VM 4.08, DT 0.95) y (VM 3.93, DT 1.03), respectivamente. “Contabilidad y Auditoría Mercadotecnia” muestra una DT que indica cierta variabilidad en la percepción sobre la transparencia del curso. “FCE!” tiene la puntuación media más baja con una DT alta, sugiriendo que este curso podría estar fallando en ofrecer una explicación clara y transparente sobre el funcionamiento de la IA. En cuanto a los Cursos con Puntuaciones Extremas, “Challenge Team” y “Ciencias Empresariales” obtienen una puntuación perfecta de 5, lo que indica una excelente percepción sobre la transparencia y explicación del funcionamiento de la IA en estos cursos. “Negocios Digitales” y “Educación Inicial” presentan puntuaciones bajas de (VM 2.00, DT -) y (VM 3.00, DT -), respectivamente. Estas bajas puntuaciones sugieren que estos cursos podrían estar fallando en proporcionar una explicación adecuada y transparente sobre la IA —Figura 11—.

En resumen, “Ciencias Experimentales” y “Ciberseguridad” destacan por ofrecer una alta transparencia y explicación del funcionamiento de la IA, mientras que cursos como “FCE!” y “Negocios Digitales” muestran áreas significativas de mejora. La baja DT en varios cursos de alto puntaje indica una percepción consistente y positiva de la transparencia en la explicación de la IA, mientras que la alta DT en cursos con puntuaciones más bajas sugiere que la percepción de la transparencia puede variar significativamente entre los participantes. Esto resalta la importancia de mejorar la claridad y la explicación del funcionamiento de la IA en los cursos con puntuaciones más bajas para asegurar una comprensión uniforme entre todos los participantes.
4.CONCLUSIONES
Este estudio ofrece un análisis detallado de la integración de la IA en los sNOOC, evaluando su impacto desde múltiples perspectivas clave, como la pertinencia y relevancia del contenido, la personalización del aprendizaje y las consideraciones éticas y de transparencia. Los resultados confirman que la IA aporta valor significativo a estos entornos de aprendizaje mediante su capacidad para adaptar los contenidos a las necesidades individuales (Salgado, 2023), facilitar retroalimentación en tiempo real y mejorar la experiencia educativa en general. Una conclusión fundamental es la consistencia en la valoración positiva de la IA en términos de precisión y relevancia del contenido en la mayoría de los cursos evaluados. No obstante, la variabilidad en las percepciones de algunos grupos destaca la importancia de ajustar y personalizar aún más el uso de IA, especialmente en áreas como la accesibilidad y facilidad de uso. Asimismo, los resultados reflejan que la calidad del diseño visual y la experiencia de usuario son elementos cruciales para una implementación efectiva de IA en estos cursos. Los grupos que reportaron experiencias menos satisfactorias en estos aspectos sugieren que, para maximizar el impacto positivo de la IA, es esencial diseñar interfaces accesibles y visualmente atractivas, adaptadas a las necesidades específicas de cada grupo. En cuanto a la ética y transparencia, la investigación revela que la transparencia en la explicación del funcionamiento de la IA es vital para fortalecer la confianza de los estudiantes. Aquellos grupos con una percepción positiva en este aspecto también muestran una mayor aceptación de la IA como herramienta educativa. Sin embargo, se identificaron áreas donde esta transparencia es menos clara, lo que indica que mejorar la comunicación sobre los procesos de IA podría reducir las discrepancias en la percepción de su uso ético y responsable. La IA tiene el potencial de mejorar significativamente los entornos educativos, siempre y cuando se implementen de manera consciente y adaptada a las necesidades de los usuarios. Por todo lo anterior, esta investigación subraya la necesidad de personalización, accesibilidad y transparencia como pilares fundamentales para una experiencia de aprendizaje efectiva y ética en los sNOOC, sentando las bases para futuras mejoras en la integración de IA en la educación digital, dado que la convergencia de IA y aprendizaje transformará la educación con entornos inmersivos y tecnologías como asistentes virtuales y simulaciones (LeCun et al., 2015).
REFERENCIAS BIBLIOGRÁFICAS
Aparicio Gómez, W. O. (2023). La inteligencia artificial y su incidencia en la educación: Transformando el aprendizaje para el siglo XXI. Revista internacional de pedagogía e innovación educativa, 3(2), 217-230. https://doi.org/10.51660/ripie.v3i2.133
Aparicio-Gómez, O-Y, Aparicio Gómez, C-A y von Feigenblatt, O. F. (2024). Weaving connections: the transformative symbiosis between learning and Artificial intelligence. Hachetetepé. Revista científica de Educación y comunicación,(28), 1-23.https://doi.org/10.25267/Hachetetepe.2024.i28.1103
Aparicio-Gómez, O.-Y., y Cortés, M. A. (2024). Desafíos éticos de la Inteligencia Artificial en la personalización del aprendizaje. Revista Interamericana de Investigación Educación y Pedagogía RIIEP, 17(2), 377-392. https://doi.org/10.15332/25005421.10000
Boud, D., Cohen, R., y Sampson, J. (2021). Peer Learning in Higher Education: Learning from and Each Other. Routledge.
Gil-Quintana, J. (2024). Los sNOOC, un modelo educativo masivo, abierto y en línea, desde el empoderamiento social y el enfoque minimalista. Revista Latinoamericana Ogmios, 4(11), 11-20. https://doi.org/10.53595/rlo.v4.i11.105
Guerrero, L. (2022). La Irrupción de la Redes Sociales y la Tecnología en la Educación del siglo XXI. Boletín de Políticas y Gestión Educativa, 8(8), 37-63.
Hueso Romero, J. J., García Blazquez, E., y Gil-Quintana, J. (2024). El Microaprendizaje servicio a través de los sNOOC: Propuesta formativa para personas en riesgo de exclusión en México. Edutec, Revista Electrónica de Tecnología Educativa, 88, 42-61. https://doi.org/10.21556/edutec.2024.88.3101
LeCun, Y., Bengio, Y., y Hinton, G. (2015). Deep learning. Nature, 521(7553), 436–444.
León Granizo, Ó. D., Neil, C., y Cedillo C. S. (2024). La inteligencia artificial en la educación y sus implicaciones: Un mapeo sistemático de la literatura. CONECTIVIDAD, 5(1), 49-66. https://doi.org/10.37431/conectividad.v5i1.102
Lovato, M. A. (2021). Narrativas gamificadas. Experiencias lúdicas en proyectos transmedia de no ficción. Juegos, deporte, medios y tecnología. (pp. 44-61). UNR Editora.
Marcos, M. A., Álvarez, A. M., Aguado, A. M., Paz D. E. P., Saldaña, J. C., y Carrillo, J. W. (2023). Inteligencia Artificial en la educación digital y los resultados de la valoración del aprendizaje. Mar Caribe.https://osf.io/preprints/c3pmd/
Mendoza, J. A., Gaudamud, J. D., Santana, E. K., Chiriboga, I. A., y Vera, M. J. (2024). Uso De Las Plataformas de Inteligencia Artificial en el Contexto Educativo. Ciencia Latina: Revista Multidisciplinar, 8(1), 10996-11009. https://doi.org/10.37811/cl_rcm.v8i1.10412
Molina, E., Cobo, C., Pineda, J., y Rovner, H. (2024). La revolución de la IA en Educación: Lo que hay que saber. Banco Mundial. https://acortar.link/ZGyBkJ
Moreira, S. E. y De la Peña, G. (2022). Análisis de la Gestión Pedagógica y su incidencia en el proceso de enseñanza y aprendizaje. Dominio de las Ciencias, 8(3), 569-587. http://doi.org/10.23857/dc.v8i3
Salgado N. (2023). Uso de la inteligencia artificial en la personalización de la experiencia del usuario en plataformas digitales. Polo del Conocimiento: Revista científico-profesional, 8(6), 1190-1206. https://doi.org/10.23857/pc.v8i6
Tamayo Vera, O. (2021). La lista de cotejo en la evaluación de los aprendizajes [Monografía de pregrado]. Universidad Nacional de Educación Enrique Guzmán y Valle. https://acortar.link/mw2XKP
von Feigenblatt, O., y Aparicio-Gómez, O.-Y. (2023). Trascending the eternal debate between traditional and progressive education: A constructive scholarly dialogue. Octaedro.
Xie, H. (2023). The promising future of cognitive science and artificial intelligence. Nature Reviews Psychology, 2(4), 202. https://doi.org/10.1038/S44159-023-00170-3
Zamora, R.M., Díaz-Camacho, R. F., y Rivera J. L. (2022). La gestión pedagógica de calidad mediante una revisión sistemática internacional. Revista peruana de investigación e innovación educativa, 1(4), e22673. https://doi.org/10.15381/rpiiedu.v2i1.22673
Información adicional
CONTRIBUCIÓN DE LOS AUTORES: Jose Javier Hueso Romero (Formulación de ideas de investigación, desarrollo y diseño de metodología, aplicación de técnicas estadísticas y otros métodos de análisis y realización de experimentos/recogida de datos), Carmen Cantillo Valero (Verificación de resultados/replicación, preparación y presentación de figuras/datos, redacción - borrador original y Redacción - revisión y edición), Eduardo García Blázquez (Gestión y anotación de datos/metadatos, coordinación y supervisión, obtención de financiación y responsabilidad general del proyecto) y Tomas Ivan Fontaines Ruíz (Redacción - borrador original, redacción - revisión y edición y provisión de materiales/herramientas/análisis)
FINANCIACIÓN: Proyecto Diseño de productos, planificación y evaluación educativa con Inteligencia Artificial. Empresa: Dirección de Educación Continua de la Universidad Técnica de Machala (Ecuador). Encuadrado en el Programa Modular “Catedrales: Didáctica del Arte, Comunicación y Teología” de la Universidad Nacional de Educación a Distancia (UNED).
*: Los autores han informado a los participantes de la investigación y ellos han dado el consentimiento de participar en él.
Información adicional
redalyc-journal-id: 6837