Artículos
Análisis psicométrico de una prueba para evaluar la competencia digital de estudiantes de Educación Obligatoria
A test´s psychometric analysis to assess the digital competence of compulsory education students
Análisis psicométrico de una prueba para evaluar la competencia digital de estudiantes de Educación Obligatoria
RELIEVE. Revista Electrónica de Investigación y Evaluación Educativa, vol. 26, núm. 2, 2020
Universidad de Granada

Recepción: 11 Junio 2020
Aprobación: 01 Diciembre 2020
Publicación: 08 Diciembre 2020
Resumen:
Para que las investigaciones sobre la competencia digital puedan aportar información valiosa que contribuya a guiar las políticas educativas de desarrollo de la misma y de integración de las Tecnologías de la Información y la Comunicación en los sistemas educativos de los países, es necesario contar con instrumentos de recogida de información válidos y fiables. El objetivo del presente trabajo es el de validar una prueba para evaluar la competencia digital en estudiantes de Educación Obligatoria, en los ámbitos de conocimiento, capacidad y actitud; teniendo como base el Marco para el Desarrollo y la Comprensión de la Competencia Digital en Europa. Este instrumento, diseñado por un equipo de investigación universitario, fue aplicado a una muestra de 771 estudiantes. Se analiza el índice de facilidad/dificultad de la prueba y por dimensiones, así como la validez y la fiabilidad. Se concluye que la prueba es original, novedosa y presenta unas buenas propiedades psicométricas que permiten calificarla como un instrumento fiable y válido para medir la competencia digital en todas sus dimensiones, de manera directa, mediante la reflexión sobre situaciones reales y la resolución de problemas.
Palabras clave: Evaluación, Tecnología de la educación, Educación básica, Psicometría.
Abstract:
Valid and reliable information-gathering tools are necessary if research on digital competence is to provide valuable information that is able to guide education policies on the development of digital competence and the integration of information and communication technologies (ICT) into the educational systems of different countries. The aim of the present work is to validate a test that assesses the digital competence of students in compulsory education (ECODIES) in the areas of general knowledge, ability and attitude, using the Development and Understanding of Digital Competence in Europe Framework (DigComp) as the foundation for this research. This tool, designed by a university research team, was used on a sample of 771 students. The easiness/difficulty index and dimensions of the test were analysed, as well as its validity and reliability. It was concluded that ECODIES is an original and novel test that features good psychometric properties that qualify it as a reliable and valid instrument for directly measuring digital competence by reflecting on real situations and problem solving.
Keywords: Assessment, Educational technology, Basic education, Psychometry.
En los últimos años, las Tecnologías de la Información y la Comunicación (TIC, en adelante) han supuesto una revolución en todos los ámbitos sociales, especialmente en la manera de comunicarse e informarse (Lores Gómez et al., 2019). Los dispositivos móviles basados en Internet han transformado la forma que tienen las personas de aprender. Aunque los sistemas educativos han ido fomentando la inclusión de la innovación tecnológica en todas las etapas, aún no han integrado el potencial que la tecnología tiene en este campo (Hea et al., 2020; Larionova et al., 2018) y en la actualidad deben afrontar el desafío que supone utilizar las TIC para desarrollar en los estudiantes los conocimientos, habilidades y actitudes necesarias para acceder a la información, como fuente de aprendizaje, en un mundo globalizado (Alvarado Martínez, 2020). La tecnología está integrada en la vida del alumnado y es imprescindible, dentro y fuera de las aulas (Valverde Crespo et al., 2018). Por ello, su competencia digital es una de las capacidades más importantes y demandadas en las sociedades de todo el mundo. Y su evaluación es clave para orientar las políticas y los programas de desarrollo de la misma.
Este trabajo presenta el análisis psicométrico de una prueba para evaluar la competencia digital de estudiantes de Educación Obligatoria (ECODIES).
Evaluación de la competencia digital
La competencia se refiere a un saber hacer complejo que agrupa un conjunto de conocimientos, habilidades y actitudes, complementadas entre sí, que permiten un ejercicio profesional responsable y eficiente al aportar un saber (conocimientos), un saber hacer (habilidades) y un saber estar (actitudes) en cada actuación (Armengol et al., 2011). Por medio de ellas, las personas desarrollan capacidades amplias, que les permiten aprender y desaprender a lo largo de su vida, sabiendo adaptarse a situaciones cambiantes (Martínez et al., 2012).
En el contexto europeo, la competencia digital es una de las ocho competencias clave para el aprendizaje permanente y se define como:
El uso seguro, crítico y responsable de las tecnologías digitales para el aprendizaje, en el trabajo y para la participación en la sociedad, así como la interacción con estas. Incluye la alfabetización en información y datos, la comunicación y colaboración, la alfabetización mediática, la creación de contenidos digitales (incluida la programación), la seguridad (incluido el bienestar digital y las competencias relacionadas con la ciberseguridad), asuntos relacionados con la propiedad intelectual, la resolución de problemas y el pensamiento crítico (Unión Europea, 2018, p. 9).
La evaluación de una competencia supone determinar los logros y lo que ha de mejorar una persona en relación con ella, teniendo en cuenta criterios e indicadores, de acuerdo con su desempeño en la realización de actividades y resolución de problemas, considerando el saber, el saber hacer y el saber ser (Tobón et al., 2010).
Para que la evaluación por competencias sea un proceso con calidad, es necesario tener en cuenta una serie de criterios (Valverde Berrocoso et al., 2012):
· Autenticidad. Las actividades de evaluación deben hacer posible que el alumnado demuestre el mismo tipo de competencias que necesitaría poner en práctica en un supuesto de realidad.
· Complejidad cognitiva. Los conocimientos, habilidades y actitudes que se evalúan deben corresponderse con los conocimientos, habilidades y actitudes exigidas.
· Imparcialidad. Todas las actividades deben ajustarse al nivel educativo del alumnado, además de enmarcarse en el contexto cultural de los mismos.
· Significatividad. La evaluación deberá permitir a los estudiantes implicarse en la resolución de actividades, tareas o problemas significativos que ofrezcan experiencias educativas de interés.
· Interpretación directa. Los investigadores serán capaces de analizar y explicar, con claridad, los resultados de la evaluación.
· Consecuencias educativas. Los resultados deberán ser utilizados como orientación y guía del aprendizaje.
En la evaluación de la competencia digital, es necesario diferenciar entre dos tipos de procesos evaluativos, de acuerdo con el instrumento utilizado: (a) los que valoran la apreciación que los sujetos tienen de sí mismos en relación con diferentes aspectos de la competencia digital (véase, por ejemplo: Agudo et al., 2020; Basantes-Andrade et al., 2020; Bonnes et al., 2020;Cabezas-González & Casillas-Martín, 2018; Hea et al., 2020); (b) los que se centran en realizar evaluaciones, propiamente dichas, del nivel de competencia digital (véase, por ejemplo: García-Valcárcel et al., 2019; García-Valcárcel et al, 2020; Frailon et al., 2013). En el primero de los casos, que es el método más utilizado, la evaluación se convierte en un proceso de medida de autovaloración, basado en la percepción. Esta manera de evaluar presenta un serio sesgo: el aspecto subjetivo de las respuestas de los participantes, lo que no permite establecer conclusiones demasiado fiables, más allá de lo que los evaluados dicen saber o saber hacer (González-Segura et al., 2018). En el segundo, se trata de un proceso de medida directa, de realización y observación, por medio de la ejecución de tareas, actividades o resolución de problemas. Es una forma más adecuada y fiable de medir la competencia digital porque
evaluar competencias requiere enfocarse en la acción y valorar el desempeño del estudiante durante el proceso de la resolución de situaciones específicas en diversos contextos… Para decidir si un estudiante ha desarrollado cierta competencia, es necesario evaluar su desempeño, idealmente cuando éste se enfrenta a una problemática en la que se requiera movilizar dicha competencia. (González-Segura et al., 2018, pp. 2-3).
Marco de referencia para la evaluación de la competencia digital
La evaluación de la competencia digital es un tema de creciente interés en el ámbito de la investigación educativa. Desde hace años, han ido surgiendo diferentes modelos de estándares e indicadores para el desarrollo y la evaluación de esta competencia en el ámbito tanto docente como discente: modelo TPACK (Mishra & Koehler, 2006), modelo Krumsvik (Krumsvik, 2011), DigCompEdu (Punie, 2017), Standards for Students, a Practical Guide for Learning with Technology (ISTE, 2016), entre otros. En este trabajo se ha seguido el Marco Europeo de Competencia Digital (DigComp).
La Comisión Europea publicó en agosto de 2013 el Marco para el Desarrollo y la Comprensión de la Competencia Digital en Europa (DigComp 1.0) (Ferrari, 2013). Este modelo estructuraba las dimensiones de la competencia digital en cinco áreas, tres niveles y tres ámbitos. En junio de 2016, fue actualizado por el Marco Europeo para la Competencia Digital de los Ciudadanos (DigComp 2.0) (Vuorikari et al., 2016). Se mantenía la misma estructura del modelo anterior y se actualizaban las denominaciones, los conceptos y descriptores de la competencia digital. Este Marco de DigComp 2.0, fue actualizado en el año 2017. Surge DigComp 2.1. (Carretero et al., 2017). El principal cambio se dio en los niveles de dificultad que pasaron de tres a ocho, siguiendo la taxonomía de Bloom e inspirados en la estructura y el vocabulario del Marco Europeo de Calificaciones (EQF, por sus siglas en inglés) (figura 1). Este Marco cuenta con un total de 21 competencias digitales recogidas en la tabla 1.

| Área | Competencias |
| Información y alfabetización digital | 1. Navegar, buscar y filtrar datos, información y contenidos digitales 2. Evaluar datos, información y contenidos digitales 3. Gestión de datos, información y contenidos digitales |
| Comunicación y colaboración online | 4. Interactuar a través de tecnologías digitales 5. Compartir a través de tecnologías digitales 6. Participación ciudadana a través de tecnologías digitales 7. Colaboración a través de tecnologías digitales 8. Comportamiento en la red 9. Gestión de la identidad digital |
| Creación de contenidos digitales | 10. Desarrollo de contenidos digitales 11. Integración y reelaboración de contenidos digitales 12. Derechos de autor (copyright) y licencias de propiedad intelectual 13. Programación |
| Seguridad | 14. Protección de dispositivos 15. Protección de datos personales y privacidad 16. Protección de la salud y el bienestar 17. Protección medioambiental |
| Resolución de problemas | 18. Resolución de problemas técnicos 19. Identificación de necesidades y respuestas tecnológicas 20. Uso creativo de la tecnología digital 21. Identificar lagunas en las competencias digitales |
Método
A continuación, se explica el proceso seguido para obtener los resultados alcanzados en el análisis psicométrico de una prueba para evaluar la competencia digital de estudiantes de Educación Obligatoria.
Objetivos
El objetivo general es el de validar una prueba para evaluar la competencia digital de estudiantes de Educación Obligatoria (ECODIES), teniendo como base el Marco para el Desarrollo y la Comprensión de la Competencia Digital en Europa (DigComp). Este instrumento fue diseñado para la evaluación de conocimientos, capacidades y actitudes.
Este objetivo general se concreta en los siguientes objetivos específicos:
Muestra
Se utilizó un tipo de muestreo aleatorio estratificado (Otzen & Manterola, 2017) con un total de 816 estudiantes de 12-14 años, siendo 771 los que respondieron a la prueba completa. Estos alumnos pertenecen a 23 centros educativos de la Comunidad Autónoma de Castilla y León (España). Es una muestra equilibrada en cuanto al género y en menor medida en relación con la etapa educativa, predominando los alumnos del último curso de Educación Primaria (tabla 2).
| Áreas | N | Curso | Sexo | ||||||
| 6º Primaria | 1º ESO | Mujer | Hombre | ||||||
| N | % | N | % | N | % | N | % | ||
| A1 | 816 | 676 | 82.8 | 140 | 17.2 | 420 | 51.5 | 396 | 48.5 |
| A2 | 807 | 668 | 82.8 | 139 | 17.2 | 415 | 51.4 | 392 | 48.6 |
| A3 | 787 | 657 | 83.5 | 130 | 16.5 | 399 | 50.7 | 388 | 49.3 |
| A4 | 771 | 655 | 85 | 116 | 15 | 389 | 50.5 | 382 | 49.5 |
| A5 | 772 | 653 | 84.6 | 119 | 15.4 | 391 | 50.6 | 381 | 49.4 |
Características de la prueba y procedimiento de la recogida de datos
Para el diseño de la prueba, los investigadores siguieron el modelo DigComp 1.0 (Ferrari, 2013). Fueron planteados indicadores para las cinco áreas competenciales sobre las que versa la competencia digital (A1. Información, A2. Comunicación, A3. Creación de contenidos, A4. Seguridad, A5. Resolución de Problemas) y fueron adaptados a la población objeto de estudio, organizados en tres niveles de dificultad (básico, intermedio y avanzado) y tres ámbitos de desarrollo (conocimientos, habilidades y actitudes). Estos indicadores pueden consultarse en el Modelo de indicadores para evaluar la competencia digital de los estudiantes tomando como referencia el modelo DigComp (INCODIES) (García-Valcárcel et al., 2019). Para la validación del contenido del modelo se siguió el método de jueces expertos. En cada área competencial se contó con un total de 18-20 expertos en el diseño de indicadores de evaluación, en competencia digital y profesionales en ejercicio pertenecientes a diferentes ámbitos educativos (Educación Obligatoria, Universidad, Gestión educativa). Éstos evaluaron la importancia, pertinencia y claridad de los indicadores por medio de un cuestionario online con una escala tipo Likert de 4 grados (4-mucha, 3-bastante, 2-poca, 1-ninguna).
A partir de este modelo de indicadores y teniendo en cuenta los criterios para la elaboración y aplicación de instrumentos de recogida de información (McMillan & Schumacher, 2010) se procedió a elaborar un banco de preguntas para cada una de las cinco áreas. Esta batería de ítems se depuró, en primer lugar, por medio de una revisión de expertos e investigadores. Esta revisión dio lugar a la primera versión de la prueba de evaluación, aplicada a una muestra piloto de 288 estudiantes de Educación Obligatoria. Con esta información se calcularon los niveles de dificultad de las preguntas de conocimiento y capacidad, así como la fiabilidad de los ítems de actitud. A partir de estos resultados se procedió a elaborar la versión definitiva de la prueba para evaluar la competencia digital de los estudiantes tomando como referencia el modelo DIGCOMP (ECODIES. (disponible en https://gredos.usal.es/handle/10366/139397) cuya estructura de ítems se presenta en la tabla 3.
| Área | Número de ítems por ámbitos de competencia (versión final) | Número de ítems por niveles de competencia (prueba piloto) | ||||
| Conocimiento | Habilidad | Actitud | Básico | Intermedio | Avanzado | |
| A1 | 6 | 6 | 6 | 2 | 6 | 4 |
| A2 | 8 | 10 | 6 | 7 | 8 | 3 |
| A3 | 5 | 11 | 6 | 2 | 8 | 6 |
| A4 | 6 | 10 | 6 | 6 | 6 | 4 |
| A5 | 7 | 9 | 6 | 3 | 9 | 4 |
| TOTAL ÍTEMS 108 | 32 | 46 | 30 | 20 | 37 | 21 |
- Los ítems que se indican para cada área y para cada ámbito tienen diferentes niveles de competencia
El bloque referido a las actitudes fue valorado con una escala Likert de cinco puntos (1-Muy en descuerdo, 2-En desacuerdo, 3-Indiferente, 4-De acuerdo, 5-Muy de acuerdo), estando compuesta cada una de las áreas por seis enunciados. La escala final está conformada por un total de 30 ítems (disponible en https://gredos.usal.es/handle/10366/139397).
La aplicación de la prueba se realizó de manera online a través de una plataforma web diseñada ad hoc (https://www.ECODIES.es/) con el propósito de facilitar las respuestas de los escolares. En todo momento se contó con el permiso de las autoridades de la Administración educativa y del Comité ético de la Universidad de Salamanca.
Para proceder al desarrollo de la evaluación fueron enviadas, a los centros educativos seleccionados, solicitudes de participación para el alumnado de 6º de Educación Primaria y/o 1º de Educación Secundaria Obligatoria. Todos colaboraron voluntariamente y se encargaron de obtener los permisos de las familias y de los niños (con protocolos preparados por los investigadores) y de aplicar la prueba en el horario lectivo.
Análisis de los datos
Se realizaron diferentes análisis:
Las herramientas utilizadas para los análisis fueron el programa estadístico SPSS v24 y el software Corrector 1.2 desarrollado por el profesor Gaviria del Dpto. de Métodos de Investigación de la Universidad Complutense de Madrid. Este software actúa como un complemento de MS-Excel y permite analizar pruebas objetivas y escalas tipo Likert, aportando información de cada ítem y del conjunto del instrumento. También se empleó la hoja Excel (Domínguez Lara, 2018) que parte de una matriz de correlaciones tetracóricas para los análisis de fiabilidad relacionados con ítems dicotómicos.
Resultados
A continuación, se presentan los principales resultados obtenidos de acuerdo con los análisis de los datos planteados.
Estadísticos descriptivos básicos
Los estadísticos descriptivos que se presentan permiten apreciar los valores obtenidos a partir de las puntuaciones finales de la prueba en cada una de las cinco áreas que la componen, halladas como suma de la puntuación en la prueba de conocimiento-capacidad (tabla 4). Para calcular las medias se creó una variable como suma de los ámbitos de conocimiento y capacidad para cada área competencial. En cada una de ellas la respuesta correcta se categorizó como 1 y las otras tres incorrectas como 0. Las puntuaciones finales obtenidas son la suma de los aciertos en cada uno de los ítems que componen cada una de las diferentes áreas.
Con respecto a los ítems de actitud, cada respuesta se categorizó en una escala de cinco puntos: totalmente en desacuerdo (1), en desacuerdo (2), indiferente (3), de acuerdo (4) y totalmente de acuerdo (5). Para calcular la puntuación final se sumó la valoración de los seis ítems de actitud, siendo el rango de puntuación de 0-30. Las puntuaciones obtenidas en las escalas de actitudes se presentan de forma independiente en la tabla 5.
| Áreas (puntuación máxima) | N | Mín. | Máx. | | | Asimetría | Curtosis | ||
| Y1 | SE | g2 | SE | ||||||
| A1 (máx. 12) | 816 | 0 | 11 | 5.32 | 2.04 | 0.076 | 0.086 | -0.376 | 0.171 |
| A2 (máx. 18) | 807 | 0 | 17 | 9.66 | 2.98 | -0.359 | 0.086 | -0.102 | 0.172 |
| A3 (máx. 16) | 787 | 0 | 13 | 6.42 | 2.35 | 0.184 | 0.087 | -0.271 | 0.174 |
| A4 (máx. 16) | 771 | 0 | 16 | 9.29 | 3.13 | -0.262 | 0.088 | -0.352 | 0.176 |
| A5 (máx. 16) | 772 | 0 | 13 | 6.50 | 2.35 | 0.232 | 0.088 | -0.169 | 0.176 |
| ECODIES (máx. 78) | 771* | 16 | 59 | 37.14 | 6.74 | -0.084 | 0.088 | -0.171 | 0.176 |
- (*) Se corresponde con el número de estudiantes que han respondido a todos los ítems de las pruebas de conocimiento-capacidad de las cinco áreas que conforman la prueba completa (ECODIES).
Las puntuaciones medias en cada una de las áreas oscilan entre XA1=5.32 y XA2=9.66. Así, los estudiantes tienen mayores conocimientos y capacidades sobre Comunicación digital (XA2=9.66) y sobre Seguridad (XA4=9.29), seguido de Creación de contenidos (XA3=6.42) y Resolución de problemas (XA5=6.50). La puntuación más baja se da en el área de Información (XA1=5.32). La puntuación media en la prueba final es de XECODIES=37.14 sobre un máximo de 78 puntos. Si se emplea una escala de 10 puntos, que es la más utilizada académicamente para valorar al alumnado, el de Educación Obligatoria obtienen una puntuación cercana al aprobado (4.8).
En algunas áreas como la 1, 3 y 5 (tabla 4) se obtiene una asimetría positiva (>0), lo que significa que la curva se desplaza del centro a la derecha de la media. Respecto a la curtosis, dichos valores presentan puntuaciones inferiores a 3 y en todos los casos negativas, por lo que pueden considerarse distribuciones platicúrticas. Estos valores por debajo de 0 también indican que los datos están muy dispersos, no existiendo unanimidad en las respuestas.
La escala de actitudes en cada una de las cinco áreas presenta los siguientes datos estadísticos (tabla 5).
| Áreas | N | Mín. | Máx. | | | Asimetría | Curtosis | ||
| Y1 | SE | g2 | SE | ||||||
| A1 (máx. 30) | 806 | 0 | 30 | 24.80 | 4.06 | -2.12 | 0.086 | 8.82 | 0.171 |
| A2 (máx. 30) | 788 | 0 | 30 | 26.02 | 4.32 | -2.39 | 0.087 | 9.06 | 0.173 |
| A3 (máx. 30) | 777 | 0 | 30 | 25.21 | 4.05 | -1.94 | 0.088 | 7.45 | 0.175 |
| A4 (máx. 30) | 767 | 0 | 30 | 26.04 | 4.14 | -2.09 | 0.088 | 6.81 | 0.176 |
| A5 (máx. 30) | 760 | 0 | 30 | 25.08 | 4.39 | -2.40 | 0.088 | 9.87 | 0.176 |
| ECODIES (máx. 150) | 760* | 65 | 150 | 127.2 | 11.17 | -1.23 | 0.089 | 3.20 | 0.179 |
- (*) Se corresponde con el número de estudiantes que han respondido a todos los ítems de la escala de actitudes de las cinco áreas que conforman la prueba completa (ECODIES).
Los estudiantes manifiestan una actitud muy positiva en las cinco áreas que componen la competencia digital. Las puntuaciones medias oscilan entre XA1=24.80, que es la menor puntuación, y las máximas puntuaciones XA4=26.04 y XA2=26.02, sobre un máximo de 30 puntos. Por ello, tienen mejores actitudes en el área de Seguridad (XA4=26.04) y Comunicación(XA2=26.02), seguido de Creación de contenidos (XA3=25.21) y Resolución de problemas (XA5=25.08). La puntuación más baja se da en el área de Información (XA1=24.80).
En todas las áreas de la escala, como se observa en la tabla 5, presentan una asimetría negativa (<0). Respecto a la curtosis, todas las áreas muestran puntuaciones superiores a 3 y en todos los casos positivas, por lo que pueden considerarse de distribuciones leptocúrticas.
Si se hace un análisis de la prueba completa, centrando la atención en los ámbitos de la competencia (conocimiento, capacidad y actitud), en líneas generales las actitudes son mucho más positivas (XAC=4.24) que las puntuaciones obtenidas en los ámbitos de conocimiento y capacidad.
En todas las áreas, se calculó la puntuación global tomando como referencia una escala de 0-10 puntos. Así, en el área 1, la puntuación global en los ámbitos de conocimiento y capacidad es de 4.40, situándose próxima al punto medio y alcanzando un nivel alto en las actitudes (8.26). En el área 2, la puntuación global en las áreas de conocimiento y capacidad es de 6.22, situándose por encima del punto medio y alcanzando un nivel muy alto las actitudes (8.68). En el área 3, la puntuación global en conocimiento y capacidad es de 4.01, situándose por debajo del punto medio y alcanzando un nivel muy alto en las actitudes (8.40). En el área 4, la puntuación global en los aspectos de conocimiento y capacidad es de 5.80, situándose por encima al punto medio y alcanzando las actitudes un nivel muy alto (8.80). En el área 5, la puntuación global en conocimiento y capacidad es de 4.06, se sitúa por debajo del punto medio y las actitudes alcanzan un nivel muy alto (8.36).
Teniendo en cuenta estos datos, el alumnado de Educación Obligatoria posee un nivel medio de competencia digital en las áreas 2 y 4 (Comunicación y Seguridad), y un nivel bajo en las áreas 1, 3 y 5 (Información, Creación de contenidos y Resolución de problemas).
En general, son muy pequeñas, casi imperceptibles, las diferencias encontradas entre las puntuaciones obtenidas en el ámbito de conocimiento y el de capacidad. La desviación típica del total de la prueba pone de manifiesto la variabilidad que se atribuye a la misma, siendo capaz de diferenciar entre los distintos niveles de competencia de los sujetos (tabla 6).
| Área | Ámbito competencial | Mínimo | Máximo | Media | DT |
| A1 | Conocimiento (máx. 6) | 0 | 6 | 2.94 | 1.280 |
| Capacidad (máx. 6) | 0 | 6 | 2.38 | 1.286 | |
| Actitud (máx. 30) N=806 | 0 | 30 | 24.80 | 4.064 | |
| Prueba c-c área 1 (máx. 12) N=816 | 0 | 11 | 5.32 | 2.043 | |
| A2 | Conocimiento (máx. 8) | 0 | 8 | 4.27 | 1.611 |
| Capacidad (máx. 10) | 0 | 10 | 5.39 | 1.926 | |
| Actitud (máx. 30) N=788 | 0 | 30 | 26.02 | 4.320 | |
| Prueba c-c área 2 (máx. 18) N=807 | 0 | 17 | 11.19 | 2.987 | |
| A3 | Conocimiento (máx. 6) | 0 | 5 | 2.75 | 1.234 |
| Capacidad (máx. 10) | 0 | 9 | 3.67 | 1.707 | |
| Actitud (máx. 30) N=777 | 0 | 30 | 25.21 | 4.049 | |
| Prueba c-c área 3 (máx. 16) N=787 | 0 | 16 | 6.42 | 2.349 | |
| A4 | Conocimiento (máx. 6) | 0 | 7 | 3.50 | 1.476 |
| Capacidad (máx. 10) | 0 | 10 | 5.79 | 2.129 | |
| Actitud (máx. 30) N=767 | 0 | 30 | 26.04 | 4.139 | |
| Prueba c-c área 4 (máx. 16) N=771 | 0 | 16 | 9.29 | 3.129 | |
| A5 | Conocimiento (máx. 6) | 0 | 7 | 2.85 | 1.280 |
| Capacidad (máx. 10) | 0 | 9 | 3.65 | 1.670 | |
| Actitud (máx. 30) N=760 | 0 | 30 | 25.08 | 4.399 | |
| Prueba c-c área 5 (máx. 16) N=772 | 0 | 13 | 6.50 | 2.356 | |
| Prueba final c-c (5 áreas). Máx. 78 puntos (N=771) | 16 | 59 | 37.14 | 6.74 | |
| 150 | 65 | 150 | 127.2 | 11.17 | |
- Prueba c-c. Prueba conocimiento-capacidad
Índices de dificultad/facilidad de los ítems de conocimiento y capacidad
Estos índices se expresan como % de acierto en los ámbitos de conocimiento y capacidad de las áreas competenciales (tablas 7 y 8). Los datos generales arrojan una tasa promedio del 47% en los 78 ítems, confirmándose empíricamente una dificultad moderada del instrumento ya anticipada por los expertos. En relación con los ítems que evalúan capacidades, los aciertos constituyen un 48.4% y los que evalúan conocimientos un 45.7% (en ambos una dificultad media). No se aprecian prácticamente diferencias entre estos ámbitos competenciales, excepto si se centra la atención en el porcentaje de aciertos en función de las distintas áreas, que es mayor, lo que se traduce en mejor nivel en la competencia, como ya se indicaba en el apartado anterior, en las áreas de Seguridad y Comunicación (54.8% y 53.6% respectivamente); y menor en la de Creación de contenidos (38.7%).
Se puede afirmar que el nivel de dificultad de las pruebas de las 5 áreas es moderado (41%-60% aciertos) y que la mayor dificultad (15%-40%) se da en el área 3 (Creación de contenidos).
| Área | Ámbito competencial | N Ítem | N | N aciertos | % aciertos |
| A1 | Total ítems | 12 | 816 | 362 | 44.5% |
| Ítems Conocimiento | 6 | 816 | 400 | 49% | |
| Ítems Capacidad | 6 | 816 | 324 | 40% | |
| A2 | Total ítems | 18 | 807 | 433 | 53.6% |
| Ítems Conocimiento | 8 | 807 | 431 | 53.4% | |
| Ítems Capacidad | 10 | 807 | 435 | 53.9% | |
| A3 | Total ítems | 16 | 787 | 348.7 | 38.7% |
| Ítems Conocimiento | 5 | 787 | 400 | 39.7% | |
| Ítems Capacidad | 11 | 787 | 297.4 | 37.8% | |
| A4 | Total ítems | 16 | 771 | 423.2 | 54.8% |
| Ítems Conocimiento | 6 | 771 | 400 | 51.8% | |
| Ítems Capacidad | 10 | 771 | 446.4 | 57.9% | |
| A5 | Total ítems | 16 | 772 | 339.1 | 43.4% |
| Ítems Conocimiento | 5 | 772 | 371.4 | 48.1% | |
| Ítems Capacidad | 11 | 772 | 306.9 | 38.8% |
Teniendo en cuenta los porcentajes de acierto, ECODIES es una prueba equilibrada (tabla 8) porque la dificultad de las preguntas es similar, tanto en las de conocimiento como en las de capacidad. En las cinco áreas predominan los ítems de nivel intermedio o moderado (40%-60%), siendo estos los que mejor discriminan, y son pocos los que se sitúan en las categorías extremas (muy fácil-muy difícil).
| Bloques | N Ítem | N | % aciertos | |
| Prueba ECODIES (conocimiento-capacidad) | Total | 78 | 771 | 47% |
| Ítems Conocimiento | 30 | 771 | 48.4% | |
| Ítems Capacidad | 48 | 771 | 45.7% |
En las tablas 9 y 10 se presentan las estructuras de cada una de las pruebas de las diferentes áreas competenciales. Un total de 78 ítems divididos en básicos o fáciles (+60% de aciertos), intermedios o moderados (entre 40% y 60% de aciertos) y avanzados o difíciles (menos de 40% de aciertos).
| Calificación | Nivel | N ítems | % ítems |
| Fácil | Básico | 19 | 24.7 |
| Moderado | Intermedio | 36 | 45.5 |
| Difícil | Avanzado | 23 | 29.9 |
| Área 1 | Ítems | N ítems | % acierto | Criterio | Calificación | Nivel | |
| 5, 6 | 2 | 68.8; 79.5 | 61-85 | Fácil | Básico | ||
| 1, 4, 7, 8, 9, 10, 11, 12 | 8 | 44.2; 41.3; 46.9; 42.6; 33.5; 41.3; 47.5, 41 | 41-60 | Moderado | Intermedio | ||
| 2, 3 | 2 | 26.7; 19 | 15-40 | Difícil | Avanzado | ||
| Área 2 | Ítems | N ítems | % acierto | Criterio | Calificación | Nivel | |
| 1, 6, 8, 15, 16, 17 | 6 | 81.2; 79.1, 66.8; 77.3; 62.1; 61.8 | 61-85 | Fácil | Básico | ||
| 2, 5, 9, 11, 12, 13, 14, 18 | 8 | 59.4; 44.6; 53.5; 47.8; 44.7; 57, 59.7; 45.2 | 41-60 | Moderado | Intermedio | ||
| 3, 4, 7, 10 | 4 | 31.1; 22.7; 36.6; 35.1 | 15-40 | Difícil | Avanzado | ||
| Área 3 | Ítems | N ítems | % acierto | Criterio | Calificación | Nivel | |
| 3, 13 | 2 | 75.5; 66.8 | 61-85 | Fácil | Básico | ||
| 1, 2, 4, 8, 9, 14, 16 | 7 | 60.5; 56.8; 43.2; 41.6; 42.9; 48.4; 42 | 41-60 | Moderado | Intermedio | ||
| 5, 6, 7, 10, 11, 12, 15 | 7 | 40.4; 37.6; 15; 40.7; 38; 20.7; 14.6 | 15-40 | Difícil | Avanzado | ||
| Área 4 | Ítems | N ítems | % acierto | Criterio | Calificación | Nivel | |
| 1, 4, 6, 9, 10, 11, 16 | 7 | 77.7; 61.3; 62.6; 63; 81.3; 70, 69.8 | 61-85 | Fácil | Básico | ||
| 2, 3, 7, 12, 13, 15 | 6 | 50.1; 54.7, 54.2; 56; 55.5; 41.6 | 41-60 | Moderado | Intermedio | ||
| 5, 8, 14 | 3 | 39.8; 39.8; 12.5 | 15-40 | Difícil | Avanzado | ||
| Área 5 | Ítems | N ítems | % acierto | Criterio | Calificación | Nivel | |
| 6,7 | 2 | 71.5; 82 | 61-85 | Fácil | Básico | ||
| 1,2,3,9,10,11,12,15 | 8 | 43.6; 40.9; 55.7; 46.8; 46.8; 44.9;50.3; 48.7 | 41-60 | Moderado | Intermedio | ||
| 4,5,8,13,14,16 | 6 | 21.7;34; 20.13; 32.8; 32; 23.1 | 15-40 | Difícil | Avanzado | ||
Fiabilidad y validez de la prueba
Para comprobar la fiabilidad, tanto de la prueba completa como de las pruebas de acuerdo con los ámbitos de conocimiento, capacidad y actitud, se calcularon el índice α de Cronbach y el αordinal o modelo de factor común, como medidas de consistencia interna (Welch & Comer, 1998), además del coeficiente Theta de Armor (modelo de componentes principales). Estos últimos se consideran más apropiados para escalas de menos de cinco categorías o ítems dicotómicos, como el caso que nos ocupa. Para los análisis de la escala de actitud tipo Likert, compuesta por 6 ítems, con opciones de respuesta de 1 a 5; la puntuación de los ítems se recodificó, asignando 1 (positiva) para las alternativas 4 y 5, y 0 (no positiva) para 1, 2 y 3. El αordinal y Theta de Armor se calcularon en base a las correlaciones tetracóricas y los pesos factoriales rotados, siguiendo las indicaciones y la hoja Excel de Domínguez-Lara (2018).
En la tabla 11 se presentan los datos obtenidos diferenciados por cada una de las cinco áreas competenciales. Los índices α de Cronbach de las diferentes áreas y de los distintos ámbitos, se consideran poco aceptables (<0.70). Esto puede ser debido a que este estadístico presupone el carácter continuo de las variables y es considerado inadecuado para escalas con menos de cinco categorías. Teniendo en cuenta las apreciaciones de algunos autores (Zumbo et al., 2007; Oliden & Zumbo, 2008) en relación con la aplicación de este índice, al tratarse una escala dicotómica se utilizó el Índice de Atenuación (IA) para comparar el α de Cronbach con el .Ordinal. (tabla 15). Los valores obtenidos son satisfactorios en casi todos los casos (>0.70), a excepción de las áreas 1 y 3 en el ámbito de conocimiento y capacidad que, aunque con índices muy próximos a 0.70, no alcanzan esta puntuación mínima para ser considerados aceptables, siendo insuficientes para garantizar la fiabilidad de las escalas (Morales et al., 2003).
Sería necesario revisar los ítems de las pruebas con índices inferiores a 0.70 para modificar o cambiar las preguntas que se consideren necesarias, de tal manera que permitan aumentar la fiabilidad de algunas de las áreas competenciales estudiadas.
| Área | Ámbito | N | αCronbach | αordinal | Theta de Armor | Índice de Atenuación (IA) | N de elementos | ||
| A1 | Conocimiento-capacidad | 816 | 0.393 | 0.655 | 0.66 | 40% | 12 | ||
| Actitudes | 806 | 0.593 | 0.724 | 0.72 | 18% | 6 | |||
| Área completa | 806 | 0.349 | 0.817 | 0.72 | 57% | 18 | |||
| A2 | Conocimiento-capacidad | 807 | 0.583 | 0.700 | 0.71 | 17% | 18 | ||
| Actitudes | 788 | 0.728 | 0.814 | 0.80 | 11% | 6 | |||
| Área completa | 788 | 0.397 | 0.864 | 0.80 | 19% | 24 | |||
| A3 | Conocimiento-capacidad | 787 | 0.434 | 0.628 | 0.64 | 31% | 16 | ||
| Actitudes | 777 | 0.694 | 0.798 | 0.72 | 13% | 6 | |||
| Área completa | 777 | 0.296 | 0.848 | 0.72 | 65% | 22 | |||
| A4 | Conocimiento-capacidad | 771 | 0.636 | 0.760 | 0.74 | 16% | 16 | ||
| Actitudes | 767 | 0.781 | 0.843 | 0.83 | 7% | 6 | |||
| Área completa | 767 | 0.393 | 0.895 | 0.84 | 56% | 22 | |||
| A5 | Conocimiento-capacidad | 772 | 0.398 | 0.582 | 0.62 | 32% | 16 | ||
| Actitudes | 760 | 0.681 | 0.790 | 0.70 | 14% | 6 | |||
| Área completa | 760 | 0.302 | 0.835 | 0.70 | 64% | 22 | |||
| Prueba Completa ECODIES | 760* | 0.310 | 0.628 | 0.54 | 51% | 108 | |||
- (*) Se corresponde con el número de estudiantes que han respondido a todos los ítems de las pruebas de conocimiento-capacidad y de las escalas de actitudes de las cinco áreas que conforman la prueba completa (ECODIES).
Respecto a la validez, se tuvieron en cuenta tanto la validez de contenido como la estructural. Para la primera, los integrantes del equipo de investigación, desde su rol de expertos, analizaron la relevancia y la claridad de los ítems con respecto a los presupuestos teóricos (modelo conceptual DigComp) y su relación con las dimensiones identificadas. Todos los ítems se elaboraron partiendo del modelo de indicadores, se ajustaron a las edades de los sujetos de referencia y se sometieron a juicio de expertos, a través de grupos de discusión, hasta llegar a la formulación final en un proceso de reformulación de los enunciados y respuestas de los ítems. En relación con la validez estructural, se realizó un Análisis Factorial (AF) de componentes principales para las diferentes áreas (tabla 12), tomando como variables los ámbitos de conocimiento, capacidad y la escala de actitudes. La idoneidad del análisis se evaluó previamente a través del test de Kaiser-Meyer-Olkin (KMO) y de la prueba de esfericidad de Bartlett para la totalidad del instrumento del ámbito de conocimiento y capacidad (tabla 12). Este análisis de las condiciones previas para llevar a cabo el análisis factorial (AF) proporcionó un valor KMO superior a 0.50 (índice bajo, aunque aceptable) en todos los casos, por lo que puede considerarse una muestra adecuada (Kaiser, 1974). Por otro lado, el índice de esfericidad de Barlett es altamente significativo en todos los casos (p<0.001), lo que refleja que los datos se correlacionan positivamente y se establece una relación lineal entre las variables¸ indicado además que probablemente eran factorizables. En la escala de actitudes, también considerada como una muestra adecuada, el índice KMO es superior a 0.50 y el índice obtenido de esfericidad de Barlett es altamente significativo (p<0.001). Por lo tanto, estos resultados revelan que la aplicación del análisis factorial es apropiada.
| Conocimientos-capacidadesÁreas | Medida Keiser-Meyer-Olkin | Prueba de Bartlett | |||||||
| Chi cuadrado | Gl | Sig. | |||||||
| A1 | 0.55 | 56.137 | 3 | 0.000 | |||||
| A2 | 0.77 | 802.688 | 45 | 0.000 | |||||
| A3 | 0.71 | 319.01 | 15 | 0.000 | |||||
| A4 | 0.60 | 104.89 | 6 | 0.000 | |||||
| A5 | 0.53 | 93.07 | 6 | 0.000 | |||||
| Prueba ECODIES (conocimiento-capacidad) | 0.502 | 664.36 | 10 | 0.000 | |||||
| Actitudes | Medida Keiser-Meyer-Olkin | Prueba de Bartlett | |||||||
| Escala completa de actitudes | 0.506 | Chi cuadrado | Gl | Sig. | |||||
| 724.7 | 10 | 0.000 | |||||||
Este análisis previo permitió realizar un análisis factorial (AF), mediante el estudio de componentes principales, con el método de rotación Varimax con normalización Kaiser, tomando como variables los ámbitos de conocimiento y capacidad de cada una de las áreas competenciales y los ítems de la escala de actitudes. Se efectuó el análisis independiente para cada una de las áreas (tabla 13). La técnica empleada fue la multivariante con el propósito de simplificar, en el menor número de elementos posible, un grupo de variables interrelacionadas en un conjunto de factores independientes, comprobando la correlación entre variables para realizar una reducción de los datos simplificando la estructura (Casillas-Martín et al., 2018).
| Área | Competencias | Sumas de extracción de cargas al cuadrado | ||
| Total | % de varianzas | % acumulado | ||
| A1 | C1. Navegación, búsqueda y filtrado información | 2.52 | 26.21 | 26.21 |
| C2. Evaluación de la información | 1.26 | 13.07 | 39.28 | |
| C3. Almacenamiento y recuperación de la información | 1.19 | 12.40 | 51.68 | |
| Actitud 1 | 1.04 | 10.84 | 62.52 | |
| Actitud 2 | 0.91 | 9.40 | 71.92 | |
| Actitud 3 | 0.81 | 8.37 | 80.29 | |
| Actitud 4 | 0.71 | 7.41 | 87.70 | |
| Actitud 5 | 0.69 | 7.12 | 94.81 | |
| Actitud 6 | 0.50 | 5.19 | 100.000 | |
| A2 | C1. Interacción mediante nuevas tecnologías | 3.01 | 25.11 | 25.11 |
| C2. Compartir información y contenidos | 1.46 | 12.18 | 37.29 | |
| C3. Participación ciudadana en línea | 1.13 | 9.44 | 46.73 | |
| C4. Colaboración mediante canales digitales | 0.95 | 7.88 | 54.61 | |
| C5. Netiqueta | 0.89 | 7.44 | 62.05 | |
| C6. Gestión identidad digital | 0.79 | 6.61 | 68.66 | |
| Actitud 1 | 0.75 | 6.27 | 74.93 | |
| Actitud 2 | 0.70 | 5.83 | 80.76 | |
| Actitud 3 | 0.69 | 5.74 | 86.50 | |
| Actitud 4 | 0.61 | 5.10 | 91.60 | |
| Actitud 5 | 0.53 | 4.45 | 96.05 | |
| Actitud 6 | 0.47 | 3.95 | 100.000 | |
| A3 | C1. Desarrollo de contenidos | 2.51 | 25.14 | 25.14 |
| C2. Integración y elaboración | 1.36 | 13.62 | 38.76 | |
| C3. Derechos de autor y licencias | 0.99 | 9.88 | 48.64 | |
| C4. Programación | 0.86 | 8.60 | 57.24 | |
| Actitud 1 | 0.84 | 8.38 | 65.62 | |
| Actitud 2 | 0.81 | 8.13 | 73.74 | |
| Actitud 3 | 0.71 | 7.09 | 80.83 | |
| Actitud 4 | 0.67 | 6.73 | 87.56 | |
| Actitud 5 | 0.66 | 6.60 | 94.16 | |
| Actitud 6 | 0.58 | 5.84 | 100.000 | |
| A4 | C1. Protección dispositivos | 3.25 | 32.52 | 32.52 |
| C2. Protección de datos personales | 1.59 | 15.88 | 48.40 | |
| C3. Protección de la salud | 0.85 | 8.55 | 56.95 | |
| C4. Protección del entorno | 0.79 | 7.91 | 64.86 | |
| Actitud 1 | 0.74 | 7.45 | 72.31 | |
| Actitud 2 | 0.68 | 6.81 | 79.12 | |
| Actitud 3 | 0.64 | 6.41 | 85.52 | |
| Actitud 4 | 0.54 | 5.40 | 90.92 | |
| Actitud 5 | 0.48 | 4.82 | 95.75 | |
| Actitud 6 | 0.43 | 4.25 | 100.000 | |
| A5 | C1. Resolución de problemas técnicos | 2.40 | 24.03 | 24.03 |
| C2.Identificación de necesidades y respuestas tecnológicas | 1.34 | 13.39 | 37.42 | |
| C3. Innovar y utilizar la tecnología de forma creativa | 1.13 | 11.31 | 48.73 | |
| C4. Identificación de lagunas en la competencia digital | 0.90 | 8.99 | 57.72 | |
| Actitud 1 | 0.87 | 8.74 | 66.46 | |
| Actitud 2 | 0.80 | 7.99 | 74.45 | |
| Actitud 3 | 0.70 | 7.03 | 81.48 | |
| Actitud 4 | 0.65 | 6.53 | 88.00 | |
| Actitud 5 | 0.61 | 6.05 | 94.06 | |
| Actitud 6 | 0.59 | 5.94 | 100.000 | |
El área competencial que mayor peso tenía en la prueba de conocimientos y capacidad era la de Información, y la que menor la de Resolución de problemas. En el ámbito actitudinal los resultados fueron muy similares (tabla 14).
| Área | Sumas de extracción de cargas al cuadrado conocimiento-capacidad | ||||||
| Total | % de varianzas | % acumulado | |||||
| A1 | 1.77 | 35.45 | 35.45 | ||||
| A2 | 1.01 | 20.38 | 55.83 | ||||
| A3 | 1.002 | 20.03 | 75.87 | ||||
| A4 | 0.96 | 19.31 | 95.18 | ||||
| A5 | 0.24 | 4.81 | 100 | ||||
| Área | Sumas de extracción de cargas al cuadrado ámbito actitudinal | ||||||
| Total | % de varianzas | % acumulado | |||||
| A1 | 1.80 | 36.10 | 36.10 | ||||
| A2 | 1.09 | 21.82 | 57.92 | ||||
| A3 | 0.98 | 19.59 | 77.51 | ||||
| A4 | 0.91 | 18.18 | 95.70 | ||||
| A5 | 0.21 | 4.30 | 100 | ||||
En el análisis de componentes principales se calcularon los valores para cada uno de ellos, conservando los factores cuyo valor es de ≥ 1. Los ámbitos de conocimiento y capacidad en las cinco áreas explicaron más del 50% de la varianza (51.68%-68.66%) y el ámbito de actitud comprendió desde 48.32% hasta el 31.34%.
Tras realizar un análisis factorial exploratorio (AFE), forzando el número de factores a dos (factor 1: ámbito actitudinal, factor 2: ámbito de conocimiento y capacidad), se consiguió alcanzar la bidimensionalidad con un 100% de varianza explicada y se confirmó, en este sentido, la validez de la prueba.
También se comprobó que la asimetría de cada uno de los ítems tomaba valores comprendidos entre -1 y +1, lo que legitimó la realización del análisis. Mediante el estudio de componentes principales se hallaron los valores para cada uno ellos, reteniendo los factores cuyo valor es de ≥ 1. En la matriz de componentes (tabla 15) se aprecia, de forma clara, la saturación de los ítems de actitudes en el primer factor y de los de conocimientos y capacidades en el segundo.
| Áreas | Variables | Factor | |
| 1 | 2 | ||
| Área 1. Información | C1. Navegación, búsqueda y filtrado información. | -0.080 | 0.680 |
| C2. Evaluación de la información. | 0.329 | 0.515 | |
| C3. Almacenamiento y recuperación de la información. | 0.090 | 0.682 | |
| Actitud 1 | 0.390 | 0.311 | |
| Actitud 2 | 0.398 | 0.135 | |
| Actitud 3 | 0.548 | 0.111 | |
| Actitud 4 | 0.743 | 0.043 | |
| Actitud 5 | 0.714 | -0.018 | |
| Actitud 6 | 0.538 | 0.049 | |
| Área 2. Comunicación | C1. Interacción mediante nuevas tecnologías | 0.006 | 0.339 |
| C2. Compartir información y contenidos | 0.091 | 0.559 | |
| C3. Participación ciudadana en línea | 0.110 | 0.602 | |
| C4. Colaboración mediante canales digitales | 0.026 | 0.579 | |
| C5. Netiqueta | 0.207 | 0.630 | |
| C6. Gestión identidad digital | 0.74 | 0.468 | |
| Actitud 1 | 0.563 | 0.198 | |
| Actitud 2 | 0.692 | 0.148 | |
| Actitud 3 | 0.722 | 0.121 | |
| Actitud 4 | 0.642 | -0.065 | |
| Actitud 5 | 0.584 | 0.166 | |
| Actitud 6 | 0.698 | 0.022 | |
| Área 3.Creación de contenidos | C1. Desarrollo de contenidos | 0.135 | 0.662 |
| C2. Integración y elaboración | -0.031 | 0.664 | |
| C3. Derechos de autor y licencias | -0.032 | 0.232 | |
| C4. Programación | 0.122 | 0.665 | |
| Actitud 1 | 0.641 | 0.038 | |
| Actitud 2 | 0.641 | 0.075 | |
| Actitud 3 | 0.632 | 0.218 | |
| Actitud 4 | 0.661 | 0.015 | |
| Actitud 5 | 0.651 | 0.019 | |
| Actitud 6 | 0.559 | -0.134 | |
| Área 4.Seguridad | C1. Protección dispositivos | -0.018 | 0.691 |
| C2. Protección de datos personales | 0.080 | 0.718 | |
| C3. Protección de la salud | 0.128 | 0.707 | |
| C4. Protección del entorno | 0.177 | 0.549 | |
| Actitud 1 | 0.528 | 0.093 | |
| Actitud 2 | 0.717 | 0.183 | |
| Actitud 3 | 0.676 | 0.230 | |
| Actitud 4 | 0.757 | 0.035 | |
| Actitud 5 | 0.701 | -0.030 | |
| Actitud 6 | 0.755 | 0.100 | |
| Área 5. Resolución de problemas | C1. Resolución de problemas técnicos | 0.027 | 0.698 |
| C2. Identificación de necesidades y respuestas tecnológicas | 0.029 | 0.462 | |
| C3. Innovar y utilizar la tecnología de forma creativa | 0.014 | 0.184 | |
| C4. Identificación de lagunas en la competencia digital | 0.037 | 0.754 | |
| Actitud 1 | 0.641 | 0.117 | |
| Actitud 2 | 0.637 | 0.137 | |
| Actitud 3 | 0.598 | 0.243 | |
| Actitud 4 | 0.661 | -0.086 | |
| Actitud 5 | 0.665 | -0.033 | |
| Actitud 6 | 0.528 | -0.057 | |
Método de rotación: Varimax con normalización Kaiser.
La mayoría de los ítems de las diferentes subáreas analizadas adquieren el peso suficiente, con valores >0.40 o muy próximos, lo que permitió ubicarlos en el mismo factor en el que fueron establecidos, tanto por los investigadores como por el comité de expertos que validó el contenido de la prueba. Los correspondientes al ámbito de actitud presentan una importante carga o valores altos a la hora de interpretar el factor, lo que llevó a considerarlos como determinantes para el mismo. Caben destacar dos valores consideraros bajos en los que se pueden interpretar que dos subáreas tienen un peso bajo (<0.40) dentro del factor [área 3 de Creación de contenidos, la subárea Derechos de autor y licencias (=0.232); área 5, Resolución de problemas, la subárea: Innovar y utilizar la tecnología de forma creativa (=0.184)].
Discusión y conclusiones
La evaluación de la competencia digital, en el ámbito de la educación, continúa siendo un tema de gran interés para la comunidad científica, existiendo numerosa investigación al respecto (Casillas-Martín et al., 2020; He et al., 2020; Moreno Rodríguez et al., 2018; Nowak, 2019; Pérez-Rodríguez et al., 2019; Terry et al., 2019; Torres-Hernández et al., 2019; Xu et al., 2019, entre otras). La investigación en esta línea puede aportar información muy valiosa para guiar las políticas educativas de desarrollo de la competencia digital y de integración de las TIC en los sistemas educativos de los países.
Para que esta información sea útil, las investigaciones deberán de contar con instrumentos de recogida de información válidos y fiables (Casillas-Martín et al., 2018), lo que permitirá descubrir las lagunas de los estudiantes y conocer de forma fiable su competencia digital.
Los análisis estadísticos realizados sobre la prueba ECODIES confirman que se trata de un instrumento fiable y válido. La amplia muestra a la que se aplicó permitió obtener datos suficientes para conocer las características psicotécnicas de la misma en su conjunto.
Se ha podido constatar que se trata de un instrumento muy extenso, que requiere un tiempo considerable para ser aplicado en su totalidad a la población de referencia. Esto es debido a que aporta información sobre las 21 competencias recogidas en el modelo DigComp.
Su nivel de dificultad/facilidad en los ámbitos de conocimiento y de capacidad fue medio/moderado, tanto para la prueba general como para cada una de las áreas. El ámbito actitudinal alcanzó una valoración muy positiva (XAC=4.24), lo que permite afirmar que los estudiantes evaluados tienen una actitud muy buena hacia el aprendizaje y el uso adecuado de las TIC.
La puntuación media en la prueba final es de XECODIES=37.14 sobre un máximo de 78 puntos, lo que equivale, en una escala de 0-10 puntos, a una puntuación muy cercana al aprobado (4.8). La prueba podría ser aplicada a estudiantes de niveles superiores para analizar las diferencias entre distintas poblaciones, así como su evolución en esta competencia a lo largo de la escolaridad.
La utilización del αordinal evidencia que las pruebas por separado (conocimiento, capacidad y actitud) y la prueba completa tienen una fiabilidad entre satisfactoria y muy satisfactoria, aunque se deberán revisar las pruebas de aquellas áreas (1 y 3 en el ámbito de conocimiento y capacidad) en las que los índices de fiabilidad fueron más bajos.
En relación con la validez, se trata de una prueba válida que responde a todas las competencias propuestas en el modelo DigComp. Los resultados del análisis factorial (AF) manifiestan la existencia de dos factores claramente diferenciados (1: conocimiento y capacidad, 2: actitud).
En definitiva, la prueba ECODIES presenta unas buenas propiedades psicométricas que permiten calificarla como un instrumento fiable y válido para medir la competencia digital.
Son muchos los instrumentos que se pueden encontrar en la literatura científica con el objeto de evaluar esta competencia en los estudiantes. La mayoría de ellos, presentan algunos límites como: (a) se basan en la autovaloración de los sujetos evaluados y, aunque válidos y fiables, los resultados y la conclusiones a las que se pueden llegar presentan sesgos, ya que están basadas en el aspecto subjetivo de las respuestas de los participantes, lo que no permite establecer conclusiones que vayan más allá de lo que los evaluados quieran manifestar; (b) sólo evalúan algunas dimensiones de la competencia digital; (c) falta de estudios psicométricos de los instrumentos (González-Segura et al., 2018; Valverde Berrocoso et al., 2012).
La principal aportación de este trabajo es el análisis de una prueba para evaluar la competencia digital de estudiantes de Educación Obligatoria (ECODIES). Un instrumento original y novedoso, que permite medir la competencia digital en todas sus dimensiones, de manera directa, mediante la reflexión sobre situaciones reales y la resolución de problemas. Esta prueba se pone al servicio de toda la comunidad científica y educativa (https://gredos.usal.es/handle/10366/139397) que quiera utilizarla para llevar a cabo un proceso de evaluación de la competencia digital del alumnado.
Declaraciones sobre datos abiertos, ética y conflicto de intereses
Se puede acceder a los datos de esta investigación si contacta con los autores. Los datos son propiedad de la Universidad de Salamanca y se darán a conocer con el permiso de la institución.
En este estudio los participantes fueron voluntarios y sus datos son anónimos y confidenciales. No hay conflicto de intereses potencial.
Agradecimientos
Artículo realizado en el marco del proyecto de investigación I+D denominado "Evaluación de las competencias digitales de los estudiantes de Educación Obligatoria y estudio de la incidencia de variables socio-familiares", desarrollado por el Grupo de Investigación-Innovación en Tecnología Educativa de la Universidad de Salamanca (GITE-USAL) y financiado por el Ministerio de Economía y Competitividad dentro del Programa Estatal de Fomento de la Investigación Científica y Técnica de Excelencia del gobierno de España (EVADISO, EDU2015-67975-C3-3-P, MINECO/FEDER).
Referencias
Agudo, A.A., García, E.G., & Martínez Heredia, N. (2020). Desafíos para una ciudadanía inclusiva: Competencia digital entre adultos mayores y jóvenes. Comunicacao Midia e Consumo, 17(48), 11-33. https://doi.org/10.18568/cmc.v17i48.2247
Alvarado Martínez, E. (2020). La formación tecno-pedagógica de los profesores universitarios de lengua extranjera. Revista Lengua y Cultura, 1(2), 58-63. https://doi.org/10.29057/lc.v1i2.5423
Armengol, C., Castro, D., Jariot, M., Massot, M., & Sala, J. (2011). El prácticum en el Espacio Europeo de Educación Superior (EEES): mapa de competencias del profesional de la educación. Revista de Educación, 354, 71-98. http://www.univnova.org/documentos/492.pdf
Basantes-Andrade, A.V., Cabezas-González, M., & Casillas-Martín, S. (2020). Digital Competences Relationship with Gender and Generation of University Professors. IJASEIT, International Journal on Advanced Science, Engineering and Information Technology, 10(1), 205-211. https://doi.org/10.1857/ijaseit.10.1.10806
Bonnes, C., Leiser, C., Schmidt‐Hertha, B., Rott, K.J., & Hochholdinger, S. (2020). The relationship between trainers’ media‐didactical competence and media‐didactical self‐efficacy, attitudes and use of digital media in training. International Journal of Training and Development, 24(1), 74-88. https://doi.org/10.1111/ijtd.12171
Cabezas, M., & Casillas, S. (2018). Social Educators: A Study of Digital Competence from a Gender Differences Perspective. Croatian Journal of Education-Hrvatski Casopis za Odgoj i obrazovanje, 20(1), 11-42. https://doi.org/10.15516/cje.v20i1.2632
Carretero, S., Vuorikari, R., & Punie, Y. (2017). DigComp 2.1. The digital competence framework for citizens. Publications Office of the European Union. https://doi.org/10.2760/38842
Casillas-Martín, S., Cabezas-González, M., & García-Peñalvo, F.J. (2020). Digital competence of early childhood education teachers: attitude, knowledge and use of ICT. European Journal of Teacher Education, 43(2), 210-223. https://doi.org/10.1080/02619768.2019.1681393
Casillas-Martín, S., Cabezas-González, M., Sanches-Ferreira, M., & Teixeira Diogo, F. L. (2018). Psychometric Study of a Questionnaire to Measure the Digital Competence of University Students (CODIEU). Education in the Knowledge Society, 19(3), 69-81. https://doi.org/10.14201/eks20181936981
Domínguez-Lara, S. (2018). Fiabilidad y alfa ordinal. Actas Urológicas Españolas, 42(2), 140-141. https://doi.org/10.1016/j.acuro.2017.07.002
Ferrari, A. (2013). DigComp: A framework for developing and understanding digital competence in Europe. Publications Office of the European Union. https://doi.org/10.2788/52966
Frailon, J., Schulz, W., Friedman, T., Ainley, J., & Gebhardt, E. (2013). International Computer and Information Literacy Study. Amsterdam: IEA Secretariat. https://doi.org/10.15478/uuid:b9cdd888-6665-4e9f-a21e-61569845ed5b
García-Valcárcel, A., Hernández, A., Basilotta, V., Cabezas-González, M., Casillas-Martín, S., González Rodero, L., Iglesias, A., Martín del Pozo, M., Mena Marcos, J.J., & Salvador Blanco, L. (2019). Modelo de indicadores para evaluar la competencia digital de los estudiantes tomando como referencia el modelo DigComp (INCODIES) [Universidad de Salamanca]. Repositorio Institucional GREDOS. https://gredos.usal.es/handle/10366/139409
García-Valcárcel, A., Casillas-Martín, S., & Basilotta, V. (2020). Validation of an Indicator Model (INCODIES) for Assessing Student Digital Competence in Basic Education. Journal of New Approaches in Educational Research, 9(1), 110-125. https://doi.org/10.7821/naer.2020.1.459
García-Valcárcel, A., Salvador Blanco, L., Casillas-Martín, S., & Basilotta, V. (2019). Evaluación de las competencias digitales sobre seguridad de los estudiantes de Educación Básica. Revista de Educación a Distancia, 19(61), 1-34. https://doi.org/10.6018/red/61/05
González-Segura, C.M., García-García, M., Menéndez-Domínguez, V.H. (2018). Análisis de la evaluación de competencias y su aplicación en un Sistema de Gestión del Aprendizaje. Un caso de estudio. RED. Revista de Educación a Distancia, 58(3), 1-20. http://dx.doi.org/10.6018/red/58/3
He, T., Huang, Q., Yu, X., & Li, S. (2020). Exploring students’ digital informal learning: the roles of digital competence and DTPB factors. Behaviour & Information Technology, published online, 1-11. https://doi.org/10.1080/0144929X.2020.1752800
Hea, T., Huanga, Q., Yub, X., & Li, S. (2020): Exploring students’ digital informal learning: the roles of digital competence and DTPB factors. Behaviour & Information Technology, published online. https://doi.org/10.1080/0144929X.2020.1752800
ISTE (2016). ISTE Standards for Students. A Practical Guide for Learning with Technology. Stanstebook.
Kaiser, H. F. (1974). An index of factorial simplicity. Psychometrika, 39, 32-36. https://doi.org/10.1007/BF02291575
Krumsvik, R. J. (2011). Digital competence in Norwegian teacher education and schools. Högre Utbildning, 1(1), 39-51. https://www.researchgate.net/publication/305360830_Digital_competence_in_the_Norwegian_teacher_education_and_school
Larionova, V., Brown, K., Bystrova, T., & Sinitsyn, E. (2018). Russian perspectives of online learning technologies in higher education: An empirical study of a MOOC. Research in Comparative and International Education, 13(1), 70-91. https://doi.org/10.1177/1745499918763420
Lores Gómez, B., Sánchez Thevenet, P., & García Bellido, M.R. (2019). La formación de la competencia digital en los docentes. Profesorado, Revista de Currículum y formación del profesorado, 24(4), 234-260. https://doi.org/10.30827/profesorado.v23i4.11720
Martínez, A., Cegarra, J.G., & Rubio, J.A. (2012). Aprendizaje basado en competencias: Una propuesta para la autoevaluación del docente. Profesorado, Revista de currículum y formación del profesorado, 16(2), 373-386. http://www.ugr.es/~recfpro/rev162COL5.pdf
McMillan, J.H., & Schumacher, S. (2010). Investigación educativa. Pearson Addison Wesley.
Mishra, P., & Koehler, M. (2006). Technological Pedagogical Content Knowledge: A Framework for Teacher Knowledge. State University. https://doi.org/10.1111/j.1467-9620.2006.00684.x
Moreno Rodríguez, M.D., Gabarda Méndez, V., & Rodríguez Martín, A.M. (2018). Alfabetización informacional y competencia digital en estudiantes de magisterio. Profesorado, Revista de currículum y formación del profesorado, 22(3), 253-270. http://dx.doi.org/10.30827/profesorado.v22i3.8001
Morales, P.; Urosa, B., & Blanco, A. (2003). Construcción de escalas de actitud tipo Likert: una guía práctica. Cuadernos de Estadística.
Nowak, B.M. (2019). The development of digital competence of students of teacher training studies-Polish cases. International Journal of Higher Education, 8(6), 262-266. https://doi.org/10.5430/ijhe.v8n6p262
Oliden, P. E., & Zumbo, B. D. (2008). Coeficientes de fiabilidad para escalas de respuesta categórica ordenada. Psicothema, 20(4), 896‐901. http://www.psicothema.com/psicothema.asp?id=3572
Otzen, T., & Manterola, C. (2017). Técnicas de Muestreo sobre una Población a Estudio. International Journal of Morphology, 35(1), 227-232. http://dx.doi.org/10.4067/S0717-95022017000100037
Pérez-Rodríguez, A., Delgado-Ponce, A., Marín-Mateos, P., & Romero-Rodríguez, L.M. (2019). Media Competence in Spanish Secondary School Students. Assessing Instrumental and Critical Thinking Skills in Digital Contexts. Educational Sciences: Theory and Practice, 19(3), 33-48. https://doi.org/10.12738/estp.2019.3.003
Punie, Y. (2017). European Framework for the Digital Competence of Educators (DigCompEdu). Publications Office of the European Union. https://doi.org/10.2760/159770
Terry, J., Davies, A., Williams, C., Tait, S., Condon, L. (2019). Improving the digital literacy competence of nursing and midwifery students: A qualitative study of the experiences of NICE student champions. Nurse Education in Practice, 34, 192-198. https://doi.org/10.1016/j.nepr.2018.11.016
Tobón, S., Pimienta, J.H., & García Fraile, J.A. (2010). Secuencias didácticas: Aprendizaje y evaluación de competencias. Pearson Educación.
Torres-Hernández, M., Pessoa, T., & Gallego-Arrufat, M.J. (2019). Intervención y evaluación con tecnologías de la competencia en seguridad digital. Digital Education Review, 35, 111-129. https://revistes.ub.edu/index.php/der/article/view/27399/pdf
Unión Europea (2018, 22 de mayo). Recomendación C 189 Relativa a las Competencias Clave Para el Aprendizaje Permanente. Diario Oficial de la Unión Europea, 4 de junio de 2018.
Valverde Berrocoso, J., Revuelta Domínguez, F.I., & Fernández Sánchez, M.R. (2012). Modelos de evaluación por competencias a través de un sistema de gestión de aprendizaje. Experiencias en la formación inicial del profesorado. Revista Iberoamericana de Educación, 60, 51-62. https://doi.org/10.35362/rie600443
Valverde Crespo, D., De Pro Bueno, A., & González Sánchez, J. (2018). La competencia informacional-digital en la enseñanza y aprendizaje de las ciencias en la educación secundaria obligatoria actual: una revisión teórica. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 15(2). 1-15. https://doi.org/10.25267/Rev_Eureka_ensen_divulg_cienc.2018.v15.i2.2105
Vuorikari, R., Punie, Y., Carretero, S, & Van den Brande, L. (2016). DigComp 2.0: The Digital Competence Framework for Citizens. Update Phase 1: The Conceptual Reference Model. Publication Office of the European Union. https://doi.org/10.2791/11517
Welch, S., & Comer, J. (1998). Quantitative methods for public administration: Techniques and applications. Brooks/Cole.
Xu, S., Yang, H. H., MacLeod, J., & Zhu, S. (2019). Social media competence and digital citizenship among college students. Convergence, 25(4), 735-752. https://doi.org/10.1177/1354856517751390
Zumbo, B. D., Gadermann, A. M., & Zeisser, C. (2007). Ordinal versions of coefficients alpha and theta for Likert rating scales. Journal of modern applied statistical methods, 6(1), 20-29. https://doi.org/10.22237/jmasm/1177992180
Notas de autor
mcabezasgo@usal.es
Información adicional
Cómo referenciar este artículo: Casillas-Martín, S., Cabezas-González, M., & García-Valcárcel, A. (2020). Análisis psicométrico de una prueba para evaluar la competencia digital de estudiantes de Educación Obligatoria. RELIEVE, 26(2), art. 2. http://doi.org/10.7203/relieve.26.2.17611
Enlace alternativo
https://ojs.uv.es/index.php/RELIEVE/article/view/17611/16658 (pdf)