Artículos

Análisis psicométrico de una prueba para evaluar la competencia digital de estudiantes de Educación Obligatoria

A test´s psychometric analysis to assess the digital competence of compulsory education students

Sonia Casillas-Martín *
Universidad de Salamanca, España
Marcos Cabezas-González **
Universidad de Salamanca, España
Ana García-Valcárcel Muñoz-Repiso ***
Universidad de Salamanca, España

Análisis psicométrico de una prueba para evaluar la competencia digital de estudiantes de Educación Obligatoria

RELIEVE. Revista Electrónica de Investigación y Evaluación Educativa, vol. 26, núm. 2, 2020

Universidad de Granada

Universidad de Valencia

Recepción: 11 Junio 2020

Aprobación: 01 Diciembre 2020

Publicación: 08 Diciembre 2020

Resumen: Para que las investigaciones sobre la competencia digital puedan aportar información valiosa que contribuya a guiar las políticas educativas de desarrollo de la misma y de integración de las Tecnologías de la Información y la Comunicación en los sistemas educativos de los países, es necesario contar con instrumentos de recogida de información válidos y fiables.

El objetivo del presente trabajo es el de validar una prueba para evaluar la competencia digital en estudiantes de Educación Obligatoria, en los ámbitos de conocimiento, capacidad y actitud; teniendo como base el Marco para el Desarrollo y la Comprensión de la Competencia Digital en Europa. Este instrumento, diseñado por un equipo de investigación universitario, fue aplicado a una muestra de 771 estudiantes. Se analiza el índice de facilidad/dificultad de la prueba y por dimensiones, así como la validez y la fiabilidad. Se concluye que la prueba es original, novedosa y presenta unas buenas propiedades psicométricas que permiten calificarla como un instrumento fiable y válido para medir la competencia digital en todas sus dimensiones, de manera directa, mediante la reflexión sobre situaciones reales y la resolución de problemas.

Palabras clave: Evaluación, Tecnología de la educación, Educación básica, Psicometría.

Abstract: Valid and reliable information-gathering tools are necessary if research on digital competence is to provide valuable information that is able to guide education policies on the development of digital competence and the integration of information and communication technologies (ICT) into the educational systems of different countries.

The aim of the present work is to validate a test that assesses the digital competence of students in compulsory education (ECODIES) in the areas of general knowledge, ability and attitude, using the Development and Understanding of Digital Competence in Europe Framework (DigComp) as the foundation for this research. This tool, designed by a university research team, was used on a sample of 771 students. The easiness/difficulty index and dimensions of the test were analysed, as well as its validity and reliability. It was concluded that ECODIES is an original and novel test that features good psychometric properties that qualify it as a reliable and valid instrument for directly measuring digital competence by reflecting on real situations and problem solving.

Keywords: Assessment, Educational technology, Basic education, Psychometry.

En los últimos años, las Tecnologías de la Información y la Comunicación (TIC, en adelante) han supuesto una revolución en todos los ámbitos sociales, especialmente en la manera de comunicarse e informarse (Lores Gómez et al., 2019). Los dispositivos móviles basados en Internet han transformado la forma que tienen las personas de aprender. Aunque los sistemas educativos han ido fomentando la inclusión de la innovación tecnológica en todas las etapas, aún no han integrado el potencial que la tecnología tiene en este campo (Hea et al., 2020; Larionova et al., 2018) y en la actualidad deben afrontar el desafío que supone utilizar las TIC para desarrollar en los estudiantes los conocimientos, habilidades y actitudes necesarias para acceder a la información, como fuente de aprendizaje, en un mundo globalizado (Alvarado Martínez, 2020). La tecnología está integrada en la vida del alumnado y es imprescindible, dentro y fuera de las aulas (Valverde Crespo et al., 2018). Por ello, su competencia digital es una de las capacidades más importantes y demandadas en las sociedades de todo el mundo. Y su evaluación es clave para orientar las políticas y los programas de desarrollo de la misma.

Este trabajo presenta el análisis psicométrico de una prueba para evaluar la competencia digital de estudiantes de Educación Obligatoria (ECODIES).

Evaluación de la competencia digital

La competencia se refiere a un saber hacer complejo que agrupa un conjunto de conocimientos, habilidades y actitudes, complementadas entre sí, que permiten un ejercicio profesional responsable y eficiente al aportar un saber (conocimientos), un saber hacer (habilidades) y un saber estar (actitudes) en cada actuación (Armengol et al., 2011). Por medio de ellas, las personas desarrollan capacidades amplias, que les permiten aprender y desaprender a lo largo de su vida, sabiendo adaptarse a situaciones cambiantes (Martínez et al., 2012).

En el contexto europeo, la competencia digital es una de las ocho competencias clave para el aprendizaje permanente y se define como:

El uso seguro, crítico y responsable de las tecnologías digitales para el aprendizaje, en el trabajo y para la participación en la sociedad, así como la interacción con estas. Incluye la alfabetización en información y datos, la comunicación y colaboración, la alfabetización mediática, la creación de contenidos digitales (incluida la programación), la seguridad (incluido el bienestar digital y las competencias relacionadas con la ciberseguridad), asuntos relacionados con la propiedad intelectual, la resolución de problemas y el pensamiento crítico (Unión Europea, 2018, p. 9).

La evaluación de una competencia supone determinar los logros y lo que ha de mejorar una persona en relación con ella, teniendo en cuenta criterios e indicadores, de acuerdo con su desempeño en la realización de actividades y resolución de problemas, considerando el saber, el saber hacer y el saber ser (Tobón et al., 2010).

Para que la evaluación por competencias sea un proceso con calidad, es necesario tener en cuenta una serie de criterios (Valverde Berrocoso et al., 2012):

· Autenticidad. Las actividades de evaluación deben hacer posible que el alumnado demuestre el mismo tipo de competencias que necesitaría poner en práctica en un supuesto de realidad.

· Complejidad cognitiva. Los conocimientos, habilidades y actitudes que se evalúan deben corresponderse con los conocimientos, habilidades y actitudes exigidas.

· Imparcialidad. Todas las actividades deben ajustarse al nivel educativo del alumnado, además de enmarcarse en el contexto cultural de los mismos.

· Significatividad. La evaluación deberá permitir a los estudiantes implicarse en la resolución de actividades, tareas o problemas significativos que ofrezcan experiencias educativas de interés.

· Interpretación directa. Los investigadores serán capaces de analizar y explicar, con claridad, los resultados de la evaluación.

· Consecuencias educativas. Los resultados deberán ser utilizados como orientación y guía del aprendizaje.

En la evaluación de la competencia digital, es necesario diferenciar entre dos tipos de procesos evaluativos, de acuerdo con el instrumento utilizado: (a) los que valoran la apreciación que los sujetos tienen de sí mismos en relación con diferentes aspectos de la competencia digital (véase, por ejemplo: Agudo et al., 2020; Basantes-Andrade et al., 2020; Bonnes et al., 2020;Cabezas-González & Casillas-Martín, 2018; Hea et al., 2020); (b) los que se centran en realizar evaluaciones, propiamente dichas, del nivel de competencia digital (véase, por ejemplo: García-Valcárcel et al., 2019; García-Valcárcel et al, 2020; Frailon et al., 2013). En el primero de los casos, que es el método más utilizado, la evaluación se convierte en un proceso de medida de autovaloración, basado en la percepción. Esta manera de evaluar presenta un serio sesgo: el aspecto subjetivo de las respuestas de los participantes, lo que no permite establecer conclusiones demasiado fiables, más allá de lo que los evaluados dicen saber o saber hacer (González-Segura et al., 2018). En el segundo, se trata de un proceso de medida directa, de realización y observación, por medio de la ejecución de tareas, actividades o resolución de problemas. Es una forma más adecuada y fiable de medir la competencia digital porque

evaluar competencias requiere enfocarse en la acción y valorar el desempeño del estudiante durante el proceso de la resolución de situaciones específicas en diversos contextos… Para decidir si un estudiante ha desarrollado cierta competencia, es necesario evaluar su desempeño, idealmente cuando éste se enfrenta a una problemática en la que se requiera movilizar dicha competencia. (González-Segura et al., 2018, pp. 2-3).

Marco de referencia para la evaluación de la competencia digital

La evaluación de la competencia digital es un tema de creciente interés en el ámbito de la investigación educativa. Desde hace años, han ido surgiendo diferentes modelos de estándares e indicadores para el desarrollo y la evaluación de esta competencia en el ámbito tanto docente como discente: modelo TPACK (Mishra & Koehler, 2006), modelo Krumsvik (Krumsvik, 2011), DigCompEdu (Punie, 2017), Standards for Students, a Practical Guide for Learning with Technology (ISTE, 2016), entre otros. En este trabajo se ha seguido el Marco Europeo de Competencia Digital (DigComp).

La Comisión Europea publicó en agosto de 2013 el Marco para el Desarrollo y la Comprensión de la Competencia Digital en Europa (DigComp 1.0) (Ferrari, 2013). Este modelo estructuraba las dimensiones de la competencia digital en cinco áreas, tres niveles y tres ámbitos. En junio de 2016, fue actualizado por el Marco Europeo para la Competencia Digital de los Ciudadanos (DigComp 2.0) (Vuorikari et al., 2016). Se mantenía la misma estructura del modelo anterior y se actualizaban las denominaciones, los conceptos y descriptores de la competencia digital. Este Marco de DigComp 2.0, fue actualizado en el año 2017. Surge DigComp 2.1. (Carretero et al., 2017). El principal cambio se dio en los niveles de dificultad que pasaron de tres a ocho, siguiendo la taxonomía de Bloom e inspirados en la estructura y el vocabulario del Marco Europeo de Calificaciones (EQF, por sus siglas en inglés) (figura 1). Este Marco cuenta con un total de 21 competencias digitales recogidas en la tabla 1.

Estructura de las dimensiones de la competencia digital DigComp 2.1
Figura 1
Estructura de las dimensiones de la competencia digital DigComp 2.1

Tabla 1
Competencias digitales DigComp 21
ÁreaCompetencias
Información y alfabetización digital1. Navegar, buscar y filtrar datos, información y contenidos digitales 2. Evaluar datos, información y contenidos digitales 3. Gestión de datos, información y contenidos digitales
Comunicación y colaboración online4. Interactuar a través de tecnologías digitales 5. Compartir a través de tecnologías digitales 6. Participación ciudadana a través de tecnologías digitales 7. Colaboración a través de tecnologías digitales 8. Comportamiento en la red 9. Gestión de la identidad digital
Creación de contenidos digitales10. Desarrollo de contenidos digitales 11. Integración y reelaboración de contenidos digitales 12. Derechos de autor (copyright) y licencias de propiedad intelectual 13. Programación
Seguridad14. Protección de dispositivos 15. Protección de datos personales y privacidad 16. Protección de la salud y el bienestar 17. Protección medioambiental
Resolución de problemas18. Resolución de problemas técnicos 19. Identificación de necesidades y respuestas tecnológicas 20. Uso creativo de la tecnología digital 21. Identificar lagunas en las competencias digitales
Carretero et al. (2017)

Método

A continuación, se explica el proceso seguido para obtener los resultados alcanzados en el análisis psicométrico de una prueba para evaluar la competencia digital de estudiantes de Educación Obligatoria.

Objetivos

El objetivo general es el de validar una prueba para evaluar la competencia digital de estudiantes de Educación Obligatoria (ECODIES), teniendo como base el Marco para el Desarrollo y la Comprensión de la Competencia Digital en Europa (DigComp). Este instrumento fue diseñado para la evaluación de conocimientos, capacidades y actitudes.

Este objetivo general se concreta en los siguientes objetivos específicos:

  1. 1. Identificar el nivel de competencia digital del alumnado de Educación Secundaria en cada una de las áreas.
  2. 2. Determinar la fiabilidad y validez del instrumento diseñado para medir el nivel de competencia digital.
  3. 3. Verificar el índice de dificultad/facilidad de la prueba en cada una de las áreas competenciales y ámbitos.
  4. 4. Efectuar un análisis factorial exploratorio y de factores principales para validar los constructos, la consistencia interna y conocer el número de factores que subyacen en cada una de las pruebas de las diferentes áreas competenciales.

Muestra

Se utilizó un tipo de muestreo aleatorio estratificado (Otzen & Manterola, 2017) con un total de 816 estudiantes de 12-14 años, siendo 771 los que respondieron a la prueba completa. Estos alumnos pertenecen a 23 centros educativos de la Comunidad Autónoma de Castilla y León (España). Es una muestra equilibrada en cuanto al género y en menor medida en relación con la etapa educativa, predominando los alumnos del último curso de Educación Primaria (tabla 2).

Tabla 2
Distribución de la muestra
ÁreasNCursoSexo
6º Primaria1º ESOMujerHombre
N%N%N%N%
A181667682.814017.242051.539648.5
A280766882.813917.241551.439248.6
A378765783.513016.539950.738849.3
A4771655851161538950.538249.5
A577265384.611915.439150.638149.4
A1. Información, A2. Comunicación, A3. Creación de contenidos, A4. Seguridad, A5. Resolución de Problemas

Características de la prueba y procedimiento de la recogida de datos

Para el diseño de la prueba, los investigadores siguieron el modelo DigComp 1.0 (Ferrari, 2013). Fueron planteados indicadores para las cinco áreas competenciales sobre las que versa la competencia digital (A1. Información, A2. Comunicación, A3. Creación de contenidos, A4. Seguridad, A5. Resolución de Problemas) y fueron adaptados a la población objeto de estudio, organizados en tres niveles de dificultad (básico, intermedio y avanzado) y tres ámbitos de desarrollo (conocimientos, habilidades y actitudes). Estos indicadores pueden consultarse en el Modelo de indicadores para evaluar la competencia digital de los estudiantes tomando como referencia el modelo DigComp (INCODIES) (García-Valcárcel et al., 2019). Para la validación del contenido del modelo se siguió el método de jueces expertos. En cada área competencial se contó con un total de 18-20 expertos en el diseño de indicadores de evaluación, en competencia digital y profesionales en ejercicio pertenecientes a diferentes ámbitos educativos (Educación Obligatoria, Universidad, Gestión educativa). Éstos evaluaron la importancia, pertinencia y claridad de los indicadores por medio de un cuestionario online con una escala tipo Likert de 4 grados (4-mucha, 3-bastante, 2-poca, 1-ninguna).

A partir de este modelo de indicadores y teniendo en cuenta los criterios para la elaboración y aplicación de instrumentos de recogida de información (McMillan & Schumacher, 2010) se procedió a elaborar un banco de preguntas para cada una de las cinco áreas. Esta batería de ítems se depuró, en primer lugar, por medio de una revisión de expertos e investigadores. Esta revisión dio lugar a la primera versión de la prueba de evaluación, aplicada a una muestra piloto de 288 estudiantes de Educación Obligatoria. Con esta información se calcularon los niveles de dificultad de las preguntas de conocimiento y capacidad, así como la fiabilidad de los ítems de actitud. A partir de estos resultados se procedió a elaborar la versión definitiva de la prueba para evaluar la competencia digital de los estudiantes tomando como referencia el modelo DIGCOMP (ECODIES. (disponible en https://gredos.usal.es/handle/10366/139397) cuya estructura de ítems se presenta en la tabla 3.

Tabla 3
Estructura de la prueba ECODIES
ÁreaNúmero de ítems por ámbitos de competencia (versión final)Número de ítems por niveles de competencia (prueba piloto)
ConocimientoHabilidadActitudBásicoIntermedioAvanzado
A1666264
A28106783
A35116286
A46106664
A5796394
TOTAL ÍTEMS 108324630203721
- A1. Información, A2. Comunicación, A3. Creación de contenidos, A4. Seguridad, A5. Resolución de Problemas

- Los ítems que se indican para cada área y para cada ámbito tienen diferentes niveles de competencia

El bloque referido a las actitudes fue valorado con una escala Likert de cinco puntos (1-Muy en descuerdo, 2-En desacuerdo, 3-Indiferente, 4-De acuerdo, 5-Muy de acuerdo), estando compuesta cada una de las áreas por seis enunciados. La escala final está conformada por un total de 30 ítems (disponible en https://gredos.usal.es/handle/10366/139397).

La aplicación de la prueba se realizó de manera online a través de una plataforma web diseñada ad hoc (https://www.ECODIES.es/) con el propósito de facilitar las respuestas de los escolares. En todo momento se contó con el permiso de las autoridades de la Administración educativa y del Comité ético de la Universidad de Salamanca.

Para proceder al desarrollo de la evaluación fueron enviadas, a los centros educativos seleccionados, solicitudes de participación para el alumnado de 6º de Educación Primaria y/o 1º de Educación Secundaria Obligatoria. Todos colaboraron voluntariamente y se encargaron de obtener los permisos de las familias y de los niños (con protocolos preparados por los investigadores) y de aplicar la prueba en el horario lectivo.

Análisis de los datos

Se realizaron diferentes análisis:

  1. 1. Descriptivo básico de cada una de las áreas, en los ámbitos de conocimiento, capacidad y actitud, para obtener una visión general del instrumento y realizar un estudio global de la prueba completa.
  2. 2. Análisis Factorial Exploratorio (AFE) para validar los constructos, la consistencia interna y poder conocer el número de factores que subyacían en las pruebas de cada una de las áreas.
  3. 3. Análisis de factores principales con el método de rotación Varimax.
  4. 4. Verificación del índice de dificultad/facilidad a partir del número de aciertos (%) tanto en cada una de las áreas y competencias como en los diferentes ámbitos (conocimiento, capacidad y actitud).
  5. 5. Estudio de fiabilidad de la prueba mediante los estadísticos de Alpha de Cronbach, Alpha ordinal y Theta de Armor, estos dos últimos debidos a la naturaleza dicotómica de la prueba.

Las herramientas utilizadas para los análisis fueron el programa estadístico SPSS v24 y el software Corrector 1.2 desarrollado por el profesor Gaviria del Dpto. de Métodos de Investigación de la Universidad Complutense de Madrid. Este software actúa como un complemento de MS-Excel y permite analizar pruebas objetivas y escalas tipo Likert, aportando información de cada ítem y del conjunto del instrumento. También se empleó la hoja Excel (Domínguez Lara, 2018) que parte de una matriz de correlaciones tetracóricas para los análisis de fiabilidad relacionados con ítems dicotómicos.

Resultados

A continuación, se presentan los principales resultados obtenidos de acuerdo con los análisis de los datos planteados.

Estadísticos descriptivos básicos

Los estadísticos descriptivos que se presentan permiten apreciar los valores obtenidos a partir de las puntuaciones finales de la prueba en cada una de las cinco áreas que la componen, halladas como suma de la puntuación en la prueba de conocimiento-capacidad (tabla 4). Para calcular las medias se creó una variable como suma de los ámbitos de conocimiento y capacidad para cada área competencial. En cada una de ellas la respuesta correcta se categorizó como 1 y las otras tres incorrectas como 0. Las puntuaciones finales obtenidas son la suma de los aciertos en cada uno de los ítems que componen cada una de las diferentes áreas.

Con respecto a los ítems de actitud, cada respuesta se categorizó en una escala de cinco puntos: totalmente en desacuerdo (1), en desacuerdo (2), indiferente (3), de acuerdo (4) y totalmente de acuerdo (5). Para calcular la puntuación final se sumó la valoración de los seis ítems de actitud, siendo el rango de puntuación de 0-30. Las puntuaciones obtenidas en las escalas de actitudes se presentan de forma independiente en la tabla 5.

Tabla 4
Estadísticos descriptivos de la prueba ECODIES sobre conocimiento-capacidad
Áreas (puntuación máxima)NMín.Máx.AsimetríaCurtosis
Y1SEg2SE
A1 (máx. 12)8160115.322.040.0760.086-0.3760.171
A2 (máx. 18)8070179.662.98-0.3590.086-0.1020.172
A3 (máx. 16)7870136.422.350.1840.087-0.2710.174
A4 (máx. 16)7710169.293.13-0.2620.088-0.3520.176
A5 (máx. 16)7720136.502.350.2320.088-0.1690.176
ECODIES (máx. 78)771*165937.146.74-0.0840.088-0.1710.176
- A1. Información, A2. Comunicación, A3. Creación de contenidos, A4. Seguridad, A5. Resolución de Problemas

- (*) Se corresponde con el número de estudiantes que han respondido a todos los ítems de las pruebas de conocimiento-capacidad de las cinco áreas que conforman la prueba completa (ECODIES).

Las puntuaciones medias en cada una de las áreas oscilan entre XA1=5.32 y XA2=9.66. Así, los estudiantes tienen mayores conocimientos y capacidades sobre Comunicación digital (XA2=9.66) y sobre Seguridad (XA4=9.29), seguido de Creación de contenidos (XA3=6.42) y Resolución de problemas (XA5=6.50). La puntuación más baja se da en el área de Información (XA1=5.32). La puntuación media en la prueba final es de XECODIES=37.14 sobre un máximo de 78 puntos. Si se emplea una escala de 10 puntos, que es la más utilizada académicamente para valorar al alumnado, el de Educación Obligatoria obtienen una puntuación cercana al aprobado (4.8).

En algunas áreas como la 1, 3 y 5 (tabla 4) se obtiene una asimetría positiva (>0), lo que significa que la curva se desplaza del centro a la derecha de la media. Respecto a la curtosis, dichos valores presentan puntuaciones inferiores a 3 y en todos los casos negativas, por lo que pueden considerarse distribuciones platicúrticas. Estos valores por debajo de 0 también indican que los datos están muy dispersos, no existiendo unanimidad en las respuestas.

La escala de actitudes en cada una de las cinco áreas presenta los siguientes datos estadísticos (tabla 5).

Tabla 5
Estadísticos descriptivos de la prueba ECODIES sobre actitudes
ÁreasNMín.Máx.AsimetríaCurtosis
Y1SEg2SE
A1 (máx. 30)80603024.804.06-2.120.0868.820.171
A2 (máx. 30)78803026.024.32-2.390.0879.060.173
A3 (máx. 30)77703025.214.05-1.940.0887.450.175
A4 (máx. 30)76703026.044.14-2.090.0886.810.176
A5 (máx. 30)76003025.084.39-2.400.0889.870.176
ECODIES (máx. 150)760*65150127.211.17-1.230.0893.200.179
- A1. Información, A2. Comunicación, A3. Creación de contenidos, A4. Seguridad, A5. Resolución de Problemas

- (*) Se corresponde con el número de estudiantes que han respondido a todos los ítems de la escala de actitudes de las cinco áreas que conforman la prueba completa (ECODIES).

Los estudiantes manifiestan una actitud muy positiva en las cinco áreas que componen la competencia digital. Las puntuaciones medias oscilan entre XA1=24.80, que es la menor puntuación, y las máximas puntuaciones XA4=26.04 y XA2=26.02, sobre un máximo de 30 puntos. Por ello, tienen mejores actitudes en el área de Seguridad (XA4=26.04) y Comunicación(XA2=26.02), seguido de Creación de contenidos (XA3=25.21) y Resolución de problemas (XA5=25.08). La puntuación más baja se da en el área de Información (XA1=24.80).

En todas las áreas de la escala, como se observa en la tabla 5, presentan una asimetría negativa (<0). Respecto a la curtosis, todas las áreas muestran puntuaciones superiores a 3 y en todos los casos positivas, por lo que pueden considerarse de distribuciones leptocúrticas.

Si se hace un análisis de la prueba completa, centrando la atención en los ámbitos de la competencia (conocimiento, capacidad y actitud), en líneas generales las actitudes son mucho más positivas (XAC=4.24) que las puntuaciones obtenidas en los ámbitos de conocimiento y capacidad.

En todas las áreas, se calculó la puntuación global tomando como referencia una escala de 0-10 puntos. Así, en el área 1, la puntuación global en los ámbitos de conocimiento y capacidad es de 4.40, situándose próxima al punto medio y alcanzando un nivel alto en las actitudes (8.26). En el área 2, la puntuación global en las áreas de conocimiento y capacidad es de 6.22, situándose por encima del punto medio y alcanzando un nivel muy alto las actitudes (8.68). En el área 3, la puntuación global en conocimiento y capacidad es de 4.01, situándose por debajo del punto medio y alcanzando un nivel muy alto en las actitudes (8.40). En el área 4, la puntuación global en los aspectos de conocimiento y capacidad es de 5.80, situándose por encima al punto medio y alcanzando las actitudes un nivel muy alto (8.80). En el área 5, la puntuación global en conocimiento y capacidad es de 4.06, se sitúa por debajo del punto medio y las actitudes alcanzan un nivel muy alto (8.36).

Teniendo en cuenta estos datos, el alumnado de Educación Obligatoria posee un nivel medio de competencia digital en las áreas 2 y 4 (Comunicación y Seguridad), y un nivel bajo en las áreas 1, 3 y 5 (Información, Creación de contenidos y Resolución de problemas).

En general, son muy pequeñas, casi imperceptibles, las diferencias encontradas entre las puntuaciones obtenidas en el ámbito de conocimiento y el de capacidad. La desviación típica del total de la prueba pone de manifiesto la variabilidad que se atribuye a la misma, siendo capaz de diferenciar entre los distintos niveles de competencia de los sujetos (tabla 6).

Tabla 6
Análisis descriptivo de los diferentes ámbitos de las competencias por áreas
ÁreaÁmbito competencialMínimoMáximoMediaDT
A1Conocimiento (máx. 6)062.941.280
Capacidad (máx. 6)062.381.286
Actitud (máx. 30) N=80603024.804.064
Prueba c-c área 1 (máx. 12) N=8160115.322.043
A2Conocimiento (máx. 8)084.271.611
Capacidad (máx. 10)0105.391.926
Actitud (máx. 30) N=78803026.024.320
Prueba c-c área 2 (máx. 18) N=80701711.192.987
A3Conocimiento (máx. 6)052.751.234
Capacidad (máx. 10)093.671.707
Actitud (máx. 30) N=77703025.214.049
Prueba c-c área 3 (máx. 16) N=7870166.422.349
A4Conocimiento (máx. 6)073.501.476
Capacidad (máx. 10)0105.792.129
Actitud (máx. 30) N=76703026.044.139
Prueba c-c área 4 (máx. 16) N=7710169.293.129
A5Conocimiento (máx. 6)072.851.280
Capacidad (máx. 10)093.651.670
Actitud (máx. 30) N=76003025.084.399
Prueba c-c área 5 (máx. 16) N=7720136.502.356
Prueba final c-c (5 áreas). Máx. 78 puntos (N=771)165937.146.74
15065150127.211.17
- A1. Información, A2. Comunicación, A3. Creación de contenidos, A4. Seguridad, A5. Resolución de Problemas.

- Prueba c-c. Prueba conocimiento-capacidad

Índices de dificultad/facilidad de los ítems de conocimiento y capacidad

Estos índices se expresan como % de acierto en los ámbitos de conocimiento y capacidad de las áreas competenciales (tablas 7 y 8). Los datos generales arrojan una tasa promedio del 47% en los 78 ítems, confirmándose empíricamente una dificultad moderada del instrumento ya anticipada por los expertos. En relación con los ítems que evalúan capacidades, los aciertos constituyen un 48.4% y los que evalúan conocimientos un 45.7% (en ambos una dificultad media). No se aprecian prácticamente diferencias entre estos ámbitos competenciales, excepto si se centra la atención en el porcentaje de aciertos en función de las distintas áreas, que es mayor, lo que se traduce en mejor nivel en la competencia, como ya se indicaba en el apartado anterior, en las áreas de Seguridad y Comunicación (54.8% y 53.6% respectivamente); y menor en la de Creación de contenidos (38.7%).

Se puede afirmar que el nivel de dificultad de las pruebas de las 5 áreas es moderado (41%-60% aciertos) y que la mayor dificultad (15%-40%) se da en el área 3 (Creación de contenidos).

Tabla 7
Índice de dificultadfacilidad de los ítems de conocimientocapacidad por áreas
ÁreaÁmbito competencialN ÍtemNN aciertos% aciertos
A1Total ítems1281636244.5%
Ítems Conocimiento681640049%
Ítems Capacidad681632440%
A2Total ítems1880743353.6%
Ítems Conocimiento880743153.4%
Ítems Capacidad1080743553.9%
A3Total ítems16787348.738.7%
Ítems Conocimiento578740039.7%
Ítems Capacidad11787297.437.8%
A4Total ítems16771423.254.8%
Ítems Conocimiento677140051.8%
Ítems Capacidad10771446.457.9%
A5Total ítems16772339.143.4%
Ítems Conocimiento5772371.448.1%
Ítems Capacidad11772306.938.8%
Nota: A1. Información, A2. Comunicación, A3. Creación de contenidos, A4. Seguridad, A5. Resolución de Problemas

Teniendo en cuenta los porcentajes de acierto, ECODIES es una prueba equilibrada (tabla 8) porque la dificultad de las preguntas es similar, tanto en las de conocimiento como en las de capacidad. En las cinco áreas predominan los ítems de nivel intermedio o moderado (40%-60%), siendo estos los que mejor discriminan, y son pocos los que se sitúan en las categorías extremas (muy fácil-muy difícil).

Tabla 8
Índice de dificultad/facilidad de la prueba ECODIES
BloquesN ÍtemN% aciertos
Prueba ECODIES (conocimiento-capacidad)Total7877147%
Ítems Conocimiento3077148.4%
Ítems Capacidad4877145.7%

En las tablas 9 y 10 se presentan las estructuras de cada una de las pruebas de las diferentes áreas competenciales. Un total de 78 ítems divididos en básicos o fáciles (+60% de aciertos), intermedios o moderados (entre 40% y 60% de aciertos) y avanzados o difíciles (menos de 40% de aciertos).

Tabla 9
Índice de dificultad/facilidad de los ítems en la prueba final
CalificaciónNivelN ítems% ítems
FácilBásico1924.7
ModeradoIntermedio3645.5
DifícilAvanzado2329.9

Tabla 10
Estructura de la prueba ECODIES en función del índice de dificultad de los ítems
Área 1ÍtemsN ítems% aciertoCriterioCalificaciónNivel
5, 6268.8; 79.561-85FácilBásico
1, 4, 7, 8, 9, 10, 11, 12844.2; 41.3; 46.9; 42.6; 33.5; 41.3; 47.5, 4141-60ModeradoIntermedio
2, 3226.7; 1915-40DifícilAvanzado
Área 2ÍtemsN ítems% aciertoCriterioCalificaciónNivel
1, 6, 8, 15, 16, 17681.2; 79.1, 66.8; 77.3; 62.1; 61.861-85FácilBásico
2, 5, 9, 11, 12, 13, 14, 18859.4; 44.6; 53.5; 47.8; 44.7; 57, 59.7; 45.241-60ModeradoIntermedio
3, 4, 7, 10431.1; 22.7; 36.6; 35.115-40DifícilAvanzado
Área 3ÍtemsN ítems% aciertoCriterioCalificaciónNivel
3, 13275.5; 66.861-85FácilBásico
1, 2, 4, 8, 9, 14, 16760.5; 56.8; 43.2; 41.6; 42.9; 48.4; 4241-60ModeradoIntermedio
5, 6, 7, 10, 11, 12, 15740.4; 37.6; 15; 40.7; 38; 20.7; 14.615-40DifícilAvanzado
Área 4ÍtemsN ítems% aciertoCriterioCalificaciónNivel
1, 4, 6, 9, 10, 11, 16777.7; 61.3; 62.6; 63; 81.3; 70, 69.861-85FácilBásico
2, 3, 7, 12, 13, 15650.1; 54.7, 54.2; 56; 55.5; 41.641-60ModeradoIntermedio
5, 8, 14339.8; 39.8; 12.515-40DifícilAvanzado
Área 5ÍtemsN ítems% aciertoCriterioCalificaciónNivel
6,7271.5; 8261-85FácilBásico
1,2,3,9,10,11,12,15843.6; 40.9; 55.7; 46.8; 46.8; 44.9;50.3; 48.741-60ModeradoIntermedio
4,5,8,13,14,16621.7;34; 20.13; 32.8; 32; 23.115-40DifícilAvanzado

Fiabilidad y validez de la prueba

Para comprobar la fiabilidad, tanto de la prueba completa como de las pruebas de acuerdo con los ámbitos de conocimiento, capacidad y actitud, se calcularon el índice α de Cronbach y el αordinal o modelo de factor común, como medidas de consistencia interna (Welch & Comer, 1998), además del coeficiente Theta de Armor (modelo de componentes principales). Estos últimos se consideran más apropiados para escalas de menos de cinco categorías o ítems dicotómicos, como el caso que nos ocupa. Para los análisis de la escala de actitud tipo Likert, compuesta por 6 ítems, con opciones de respuesta de 1 a 5; la puntuación de los ítems se recodificó, asignando 1 (positiva) para las alternativas 4 y 5, y 0 (no positiva) para 1, 2 y 3. El αordinal y Theta de Armor se calcularon en base a las correlaciones tetracóricas y los pesos factoriales rotados, siguiendo las indicaciones y la hoja Excel de Domínguez-Lara (2018).

En la tabla 11 se presentan los datos obtenidos diferenciados por cada una de las cinco áreas competenciales. Los índices α de Cronbach de las diferentes áreas y de los distintos ámbitos, se consideran poco aceptables (<0.70). Esto puede ser debido a que este estadístico presupone el carácter continuo de las variables y es considerado inadecuado para escalas con menos de cinco categorías. Teniendo en cuenta las apreciaciones de algunos autores (Zumbo et al., 2007; Oliden & Zumbo, 2008) en relación con la aplicación de este índice, al tratarse una escala dicotómica se utilizó el Índice de Atenuación (IA) para comparar el α de Cronbach con el .Ordinal. (tabla 15). Los valores obtenidos son satisfactorios en casi todos los casos (>0.70), a excepción de las áreas 1 y 3 en el ámbito de conocimiento y capacidad que, aunque con índices muy próximos a 0.70, no alcanzan esta puntuación mínima para ser considerados aceptables, siendo insuficientes para garantizar la fiabilidad de las escalas (Morales et al., 2003).

Sería necesario revisar los ítems de las pruebas con índices inferiores a 0.70 para modificar o cambiar las preguntas que se consideren necesarias, de tal manera que permitan aumentar la fiabilidad de algunas de las áreas competenciales estudiadas.

Tabla 11
Estadísticos de fiabilidad de la prueba completa por ámbitos y áreas
ÁreaÁmbitoNαCronbachαordinalTheta de ArmorÍndice de Atenuación (IA)N de elementos
A1Conocimiento-capacidad8160.3930.6550.6640%12
Actitudes8060.5930.7240.7218%6
Área completa8060.3490.8170.7257%18
A2Conocimiento-capacidad8070.5830.7000.7117%18
Actitudes7880.7280.8140.8011%6
Área completa7880.3970.8640.8019%24
A3Conocimiento-capacidad7870.4340.6280.6431%16
Actitudes7770.6940.7980.7213%6
Área completa7770.2960.8480.7265%22
A4Conocimiento-capacidad7710.6360.7600.7416%16
Actitudes7670.7810.8430.837%6
Área completa7670.3930.8950.8456%22
A5 Conocimiento-capacidad7720.3980.5820.6232%16
Actitudes7600.6810.7900.7014%6
Área completa7600.3020.8350.7064%22
Prueba Completa ECODIES760*0.3100.6280.5451%108
Nota: Información, A2. Comunicación, A3. Creación de contenidos, A4. Seguridad, A5. Resolución de Problemas

- (*) Se corresponde con el número de estudiantes que han respondido a todos los ítems de las pruebas de conocimiento-capacidad y de las escalas de actitudes de las cinco áreas que conforman la prueba completa (ECODIES).

Respecto a la validez, se tuvieron en cuenta tanto la validez de contenido como la estructural. Para la primera, los integrantes del equipo de investigación, desde su rol de expertos, analizaron la relevancia y la claridad de los ítems con respecto a los presupuestos teóricos (modelo conceptual DigComp) y su relación con las dimensiones identificadas. Todos los ítems se elaboraron partiendo del modelo de indicadores, se ajustaron a las edades de los sujetos de referencia y se sometieron a juicio de expertos, a través de grupos de discusión, hasta llegar a la formulación final en un proceso de reformulación de los enunciados y respuestas de los ítems. En relación con la validez estructural, se realizó un Análisis Factorial (AF) de componentes principales para las diferentes áreas (tabla 12), tomando como variables los ámbitos de conocimiento, capacidad y la escala de actitudes. La idoneidad del análisis se evaluó previamente a través del test de Kaiser-Meyer-Olkin (KMO) y de la prueba de esfericidad de Bartlett para la totalidad del instrumento del ámbito de conocimiento y capacidad (tabla 12). Este análisis de las condiciones previas para llevar a cabo el análisis factorial (AF) proporcionó un valor KMO superior a 0.50 (índice bajo, aunque aceptable) en todos los casos, por lo que puede considerarse una muestra adecuada (Kaiser, 1974). Por otro lado, el índice de esfericidad de Barlett es altamente significativo en todos los casos (p<0.001), lo que refleja que los datos se correlacionan positivamente y se establece una relación lineal entre las variables¸ indicado además que probablemente eran factorizables. En la escala de actitudes, también considerada como una muestra adecuada, el índice KMO es superior a 0.50 y el índice obtenido de esfericidad de Barlett es altamente significativo (p<0.001). Por lo tanto, estos resultados revelan que la aplicación del análisis factorial es apropiada.

Tabla 12
Índice de adecuación muestral de las escalas de conocimientoscapacidades y actitudes
Conocimientos-capacidadesÁreasMedida Keiser-Meyer-OlkinPrueba de Bartlett
Chi cuadradoGlSig.
A10.5556.13730.000
A20.77802.688450.000
A30.71319.01150.000
A40.60104.8960.000
A50.5393.0760.000
Prueba ECODIES (conocimiento-capacidad)0.502664.36100.000
ActitudesMedida Keiser-Meyer-OlkinPrueba de Bartlett
Escala completa de actitudes 0.506Chi cuadradoGlSig.
724.7100.000
Nota: A1. Información, A2. Comunicación, A3. Creación de contenidos, A4. Seguridad, A5. Resolución de Problemas

Este análisis previo permitió realizar un análisis factorial (AF), mediante el estudio de componentes principales, con el método de rotación Varimax con normalización Kaiser, tomando como variables los ámbitos de conocimiento y capacidad de cada una de las áreas competenciales y los ítems de la escala de actitudes. Se efectuó el análisis independiente para cada una de las áreas (tabla 13). La técnica empleada fue la multivariante con el propósito de simplificar, en el menor número de elementos posible, un grupo de variables interrelacionadas en un conjunto de factores independientes, comprobando la correlación entre variables para realizar una reducción de los datos simplificando la estructura (Casillas-Martín et al., 2018).

Tabla 13
Porcentaje de la varianza total explicada por áreas
ÁreaCompetenciasSumas de extracción de cargas al cuadrado
Total% de varianzas% acumulado
A1C1. Navegación, búsqueda y filtrado información2.5226.2126.21
C2. Evaluación de la información1.2613.0739.28
C3. Almacenamiento y recuperación de la información1.1912.4051.68
Actitud 11.0410.8462.52
Actitud 20.919.4071.92
Actitud 30.818.3780.29
Actitud 40.717.4187.70
Actitud 50.697.1294.81
Actitud 60.505.19100.000
A2C1. Interacción mediante nuevas tecnologías3.0125.1125.11
C2. Compartir información y contenidos1.4612.1837.29
C3. Participación ciudadana en línea1.139.4446.73
C4. Colaboración mediante canales digitales0.957.8854.61
C5. Netiqueta0.897.4462.05
C6. Gestión identidad digital0.796.6168.66
Actitud 10.756.2774.93
Actitud 20.705.8380.76
Actitud 30.695.7486.50
Actitud 40.615.1091.60
Actitud 50.534.4596.05
Actitud 60.473.95100.000
A3C1. Desarrollo de contenidos2.5125.1425.14
C2. Integración y elaboración1.3613.6238.76
C3. Derechos de autor y licencias0.999.8848.64
C4. Programación0.868.6057.24
Actitud 10.848.3865.62
Actitud 20.818.1373.74
Actitud 30.717.0980.83
Actitud 40.676.7387.56
Actitud 50.666.6094.16
Actitud 60.585.84100.000
A4C1. Protección dispositivos3.2532.5232.52
C2. Protección de datos personales1.5915.8848.40
C3. Protección de la salud0.858.5556.95
C4. Protección del entorno0.797.9164.86
Actitud 10.747.4572.31
Actitud 20.686.8179.12
Actitud 30.646.4185.52
Actitud 40.545.4090.92
Actitud 50.484.8295.75
Actitud 60.434.25100.000
A5C1. Resolución de problemas técnicos2.4024.0324.03
C2.Identificación de necesidades y respuestas tecnológicas1.3413.3937.42
C3. Innovar y utilizar la tecnología de forma creativa1.1311.3148.73
C4. Identificación de lagunas en la competencia digital0.908.9957.72
Actitud 10.878.7466.46
Actitud 20.807.9974.45
Actitud 30.707.0381.48
Actitud 40.656.5388.00
Actitud 50.616.0594.06
Actitud 60.595.94100.000
Nota: A1. Información, A2. Comunicación, A3. Creación de contenidos, A4. Seguridad, A5. Resolución de Problemas

El área competencial que mayor peso tenía en la prueba de conocimientos y capacidad era la de Información, y la que menor la de Resolución de problemas. En el ámbito actitudinal los resultados fueron muy similares (tabla 14).

Tabla 14
Porcentaje de la varianza total explicada en cada área competencial en conocimiento-capacidad y en el ámbito actitudinal
ÁreaSumas de extracción de cargas al cuadrado conocimiento-capacidad
Total% de varianzas% acumulado
A11.7735.4535.45
A21.0120.3855.83
A31.00220.0375.87
A40.9619.3195.18
A50.244.81100
ÁreaSumas de extracción de cargas al cuadrado ámbito actitudinal
Total% de varianzas% acumulado
A11.8036.1036.10
A21.0921.8257.92
A30.9819.5977.51
A40.9118.1895.70
A50.214.30100
Nota: A1. Información, A2. Comunicación, A3. Creación de contenidos, A4. Seguridad, A5. Resolución de Problemas

En el análisis de componentes principales se calcularon los valores λ para cada uno de ellos, conservando los factores cuyo valor es de λ ≥ 1. Los ámbitos de conocimiento y capacidad en las cinco áreas explicaron más del 50% de la varianza (51.68%-68.66%) y el ámbito de actitud comprendió desde 48.32% hasta el 31.34%.

Tras realizar un análisis factorial exploratorio (AFE), forzando el número de factores a dos (factor 1: ámbito actitudinal, factor 2: ámbito de conocimiento y capacidad), se consiguió alcanzar la bidimensionalidad con un 100% de varianza explicada y se confirmó, en este sentido, la validez de la prueba.

También se comprobó que la asimetría de cada uno de los ítems tomaba valores comprendidos entre -1 y +1, lo que legitimó la realización del análisis. Mediante el estudio de componentes principales se hallaron los valores λ para cada uno ellos, reteniendo los factores cuyo valor es de λ ≥ 1. En la matriz de componentes (tabla 15) se aprecia, de forma clara, la saturación de los ítems de actitudes en el primer factor y de los de conocimientos y capacidades en el segundo.

Tabla 15
Matriz de componentes principales
ÁreasVariablesFactor
12
Área 1. InformaciónC1. Navegación, búsqueda y filtrado información.-0.0800.680
C2. Evaluación de la información.0.3290.515
C3. Almacenamiento y recuperación de la información.0.0900.682
Actitud 10.3900.311
Actitud 20.3980.135
Actitud 30.5480.111
Actitud 40.7430.043
Actitud 50.714-0.018
Actitud 60.5380.049
Área 2. ComunicaciónC1. Interacción mediante nuevas tecnologías0.0060.339
C2. Compartir información y contenidos0.0910.559
C3. Participación ciudadana en línea0.1100.602
C4. Colaboración mediante canales digitales0.0260.579
C5. Netiqueta0.2070.630
C6. Gestión identidad digital0.740.468
Actitud 10.5630.198
Actitud 20.6920.148
Actitud 30.7220.121
Actitud 40.642-0.065
Actitud 50.5840.166
Actitud 60.6980.022
Área 3.Creación de contenidosC1. Desarrollo de contenidos0.1350.662
C2. Integración y elaboración-0.0310.664
C3. Derechos de autor y licencias-0.0320.232
C4. Programación0.1220.665
Actitud 10.6410.038
Actitud 20.6410.075
Actitud 30.6320.218
Actitud 40.6610.015
Actitud 50.6510.019
Actitud 60.559-0.134
Área 4.SeguridadC1. Protección dispositivos-0.0180.691
C2. Protección de datos personales0.0800.718
C3. Protección de la salud0.1280.707
C4. Protección del entorno0.1770.549
Actitud 10.5280.093
Actitud 20.7170.183
Actitud 30.6760.230
Actitud 40.7570.035
Actitud 50.701-0.030
Actitud 60.7550.100
Área 5. Resolución de problemasC1. Resolución de problemas técnicos0.0270.698
C2. Identificación de necesidades y respuestas tecnológicas0.0290.462
C3. Innovar y utilizar la tecnología de forma creativa0.0140.184
C4. Identificación de lagunas en la competencia digital0.0370.754
Actitud 10.6410.117
Actitud 20.6370.137
Actitud 30.5980.243
Actitud 40.661-0.086
Actitud 50.665-0.033
Actitud 60.528-0.057
Nota: Método de extracción: análisis de componentes principales.

Método de rotación: Varimax con normalización Kaiser.

La mayoría de los ítems de las diferentes subáreas analizadas adquieren el peso suficiente, con valores >0.40 o muy próximos, lo que permitió ubicarlos en el mismo factor en el que fueron establecidos, tanto por los investigadores como por el comité de expertos que validó el contenido de la prueba. Los correspondientes al ámbito de actitud presentan una importante carga o valores altos a la hora de interpretar el factor, lo que llevó a considerarlos como determinantes para el mismo. Caben destacar dos valores consideraros bajos en los que se pueden interpretar que dos subáreas tienen un peso bajo (<0.40) dentro del factor [área 3 de Creación de contenidos, la subárea Derechos de autor y licencias ( λ =0.232); área 5, Resolución de problemas, la subárea: Innovar y utilizar la tecnología de forma creativa ( λ =0.184)].

Discusión y conclusiones

La evaluación de la competencia digital, en el ámbito de la educación, continúa siendo un tema de gran interés para la comunidad científica, existiendo numerosa investigación al respecto (Casillas-Martín et al., 2020; He et al., 2020; Moreno Rodríguez et al., 2018; Nowak, 2019; Pérez-Rodríguez et al., 2019; Terry et al., 2019; Torres-Hernández et al., 2019; Xu et al., 2019, entre otras). La investigación en esta línea puede aportar información muy valiosa para guiar las políticas educativas de desarrollo de la competencia digital y de integración de las TIC en los sistemas educativos de los países.

Para que esta información sea útil, las investigaciones deberán de contar con instrumentos de recogida de información válidos y fiables (Casillas-Martín et al., 2018), lo que permitirá descubrir las lagunas de los estudiantes y conocer de forma fiable su competencia digital.

Los análisis estadísticos realizados sobre la prueba ECODIES confirman que se trata de un instrumento fiable y válido. La amplia muestra a la que se aplicó permitió obtener datos suficientes para conocer las características psicotécnicas de la misma en su conjunto.

Se ha podido constatar que se trata de un instrumento muy extenso, que requiere un tiempo considerable para ser aplicado en su totalidad a la población de referencia. Esto es debido a que aporta información sobre las 21 competencias recogidas en el modelo DigComp.

Su nivel de dificultad/facilidad en los ámbitos de conocimiento y de capacidad fue medio/moderado, tanto para la prueba general como para cada una de las áreas. El ámbito actitudinal alcanzó una valoración muy positiva (XAC=4.24), lo que permite afirmar que los estudiantes evaluados tienen una actitud muy buena hacia el aprendizaje y el uso adecuado de las TIC.

La puntuación media en la prueba final es de XECODIES=37.14 sobre un máximo de 78 puntos, lo que equivale, en una escala de 0-10 puntos, a una puntuación muy cercana al aprobado (4.8). La prueba podría ser aplicada a estudiantes de niveles superiores para analizar las diferencias entre distintas poblaciones, así como su evolución en esta competencia a lo largo de la escolaridad.

La utilización del αordinal evidencia que las pruebas por separado (conocimiento, capacidad y actitud) y la prueba completa tienen una fiabilidad entre satisfactoria y muy satisfactoria, aunque se deberán revisar las pruebas de aquellas áreas (1 y 3 en el ámbito de conocimiento y capacidad) en las que los índices de fiabilidad fueron más bajos.

En relación con la validez, se trata de una prueba válida que responde a todas las competencias propuestas en el modelo DigComp. Los resultados del análisis factorial (AF) manifiestan la existencia de dos factores claramente diferenciados (1: conocimiento y capacidad, 2: actitud).

En definitiva, la prueba ECODIES presenta unas buenas propiedades psicométricas que permiten calificarla como un instrumento fiable y válido para medir la competencia digital.

Son muchos los instrumentos que se pueden encontrar en la literatura científica con el objeto de evaluar esta competencia en los estudiantes. La mayoría de ellos, presentan algunos límites como: (a) se basan en la autovaloración de los sujetos evaluados y, aunque válidos y fiables, los resultados y la conclusiones a las que se pueden llegar presentan sesgos, ya que están basadas en el aspecto subjetivo de las respuestas de los participantes, lo que no permite establecer conclusiones que vayan más allá de lo que los evaluados quieran manifestar; (b) sólo evalúan algunas dimensiones de la competencia digital; (c) falta de estudios psicométricos de los instrumentos (González-Segura et al., 2018; Valverde Berrocoso et al., 2012).

La principal aportación de este trabajo es el análisis de una prueba para evaluar la competencia digital de estudiantes de Educación Obligatoria (ECODIES). Un instrumento original y novedoso, que permite medir la competencia digital en todas sus dimensiones, de manera directa, mediante la reflexión sobre situaciones reales y la resolución de problemas. Esta prueba se pone al servicio de toda la comunidad científica y educativa (https://gredos.usal.es/handle/10366/139397) que quiera utilizarla para llevar a cabo un proceso de evaluación de la competencia digital del alumnado.

Declaraciones sobre datos abiertos, ética y conflicto de intereses

Se puede acceder a los datos de esta investigación si contacta con los autores. Los datos son propiedad de la Universidad de Salamanca y se darán a conocer con el permiso de la institución.

En este estudio los participantes fueron voluntarios y sus datos son anónimos y confidenciales. No hay conflicto de intereses potencial.

Agradecimientos

Artículo realizado en el marco del proyecto de investigación I+D denominado "Evaluación de las competencias digitales de los estudiantes de Educación Obligatoria y estudio de la incidencia de variables socio-familiares", desarrollado por el Grupo de Investigación-Innovación en Tecnología Educativa de la Universidad de Salamanca (GITE-USAL) y financiado por el Ministerio de Economía y Competitividad dentro del Programa Estatal de Fomento de la Investigación Científica y Técnica de Excelencia del gobierno de España (EVADISO, EDU2015-67975-C3-3-P, MINECO/FEDER).

Referencias

Agudo, A.A., García, E.G., & Martínez Heredia, N. (2020). Desafíos para una ciudadanía inclusiva: Competencia digital entre adultos mayores y jóvenes. Comunicacao Midia e Consumo, 17(48), 11-33. https://doi.org/10.18568/cmc.v17i48.2247

Alvarado Martínez, E. (2020). La formación tecno-pedagógica de los profesores universitarios de lengua extranjera. Revista Lengua y Cultura, 1(2), 58-63. https://doi.org/10.29057/lc.v1i2.5423

Armengol, C., Castro, D., Jariot, M., Massot, M., & Sala, J. (2011). El prácticum en el Espacio Europeo de Educación Superior (EEES): mapa de competencias del profesional de la educación. Revista de Educación, 354, 71-98. http://www.univnova.org/documentos/492.pdf

Basantes-Andrade, A.V., Cabezas-González, M., & Casillas-Martín, S. (2020). Digital Competences Relationship with Gender and Generation of University Professors. IJASEIT, International Journal on Advanced Science, Engineering and Information Technology, 10(1), 205-211. https://doi.org/10.1857/ijaseit.10.1.10806

Bonnes, C., Leiser, C., Schmidt‐Hertha, B., Rott, K.J., & Hochholdinger, S. (2020). The relationship between trainers’ media‐didactical competence and media‐didactical self‐efficacy, attitudes and use of digital media in training. International Journal of Training and Development, 24(1), 74-88. https://doi.org/10.1111/ijtd.12171

Cabezas, M., & Casillas, S. (2018). Social Educators: A Study of Digital Competence from a Gender Differences Perspective. Croatian Journal of Education-Hrvatski Casopis za Odgoj i obrazovanje, 20(1), 11-42. https://doi.org/10.15516/cje.v20i1.2632

Carretero, S., Vuorikari, R., & Punie, Y. (2017). DigComp 2.1. The digital competence framework for citizens. Publications Office of the European Union. https://doi.org/10.2760/38842

Casillas-Martín, S., Cabezas-González, M., & García-Peñalvo, F.J. (2020). Digital competence of early childhood education teachers: attitude, knowledge and use of ICT. European Journal of Teacher Education, 43(2), 210-223. https://doi.org/10.1080/02619768.2019.1681393

Casillas-Martín, S., Cabezas-González, M., Sanches-Ferreira, M., & Teixeira Diogo, F. L. (2018). Psychometric Study of a Questionnaire to Measure the Digital Competence of University Students (CODIEU). Education in the Knowledge Society, 19(3), 69-81. https://doi.org/10.14201/eks20181936981

Domínguez-Lara, S. (2018). Fiabilidad y alfa ordinal. Actas Urológicas Españolas, 42(2), 140-141. https://doi.org/10.1016/j.acuro.2017.07.002

Ferrari, A. (2013). DigComp: A framework for developing and understanding digital competence in Europe. Publications Office of the European Union. https://doi.org/10.2788/52966

Frailon, J., Schulz, W., Friedman, T., Ainley, J., & Gebhardt, E. (2013). International Computer and Information Literacy Study. Amsterdam: IEA Secretariat. https://doi.org/10.15478/uuid:b9cdd888-6665-4e9f-a21e-61569845ed5b

García-Valcárcel, A., Hernández, A., Basilotta, V., Cabezas-González, M., Casillas-Martín, S., González Rodero, L., Iglesias, A., Martín del Pozo, M., Mena Marcos, J.J., & Salvador Blanco, L. (2019). Modelo de indicadores para evaluar la competencia digital de los estudiantes tomando como referencia el modelo DigComp (INCODIES) [Universidad de Salamanca]. Repositorio Institucional GREDOS. https://gredos.usal.es/handle/10366/139409

García-Valcárcel, A., Casillas-Martín, S., & Basilotta, V. (2020). Validation of an Indicator Model (INCODIES) for Assessing Student Digital Competence in Basic Education. Journal of New Approaches in Educational Research, 9(1), 110-125. https://doi.org/10.7821/naer.2020.1.459

García-Valcárcel, A., Salvador Blanco, L., Casillas-Martín, S., & Basilotta, V. (2019). Evaluación de las competencias digitales sobre seguridad de los estudiantes de Educación Básica. Revista de Educación a Distancia, 19(61), 1-34. https://doi.org/10.6018/red/61/05

González-Segura, C.M., García-García, M., Menéndez-Domínguez, V.H. (2018). Análisis de la evaluación de competencias y su aplicación en un Sistema de Gestión del Aprendizaje. Un caso de estudio. RED. Revista de Educación a Distancia, 58(3), 1-20. http://dx.doi.org/10.6018/red/58/3

He, T., Huang, Q., Yu, X., & Li, S. (2020). Exploring students’ digital informal learning: the roles of digital competence and DTPB factors. Behaviour & Information Technology, published online, 1-11. https://doi.org/10.1080/0144929X.2020.1752800

Hea, T., Huanga, Q., Yub, X., & Li, S. (2020): Exploring students’ digital informal learning: the roles of digital competence and DTPB factors. Behaviour & Information Technology, published online. https://doi.org/10.1080/0144929X.2020.1752800

ISTE (2016). ISTE Standards for Students. A Practical Guide for Learning with Technology. Stanstebook.

Kaiser, H. F. (1974). An index of factorial simplicity. Psychometrika, 39, 32-36. https://doi.org/10.1007/BF02291575

Krumsvik, R. J. (2011). Digital competence in Norwegian teacher education and schools. Högre Utbildning, 1(1), 39-51. https://www.researchgate.net/publication/305360830_Digital_competence_in_the_Norwegian_teacher_education_and_school

Larionova, V., Brown, K., Bystrova, T., & Sinitsyn, E. (2018). Russian perspectives of online learning technologies in higher education: An empirical study of a MOOC. Research in Comparative and International Education, 13(1), 70-91. https://doi.org/10.1177/1745499918763420

Lores Gómez, B., Sánchez Thevenet, P., & García Bellido, M.R. (2019). La formación de la competencia digital en los docentes. Profesorado, Revista de Currículum y formación del profesorado, 24(4), 234-260. https://doi.org/10.30827/profesorado.v23i4.11720

Martínez, A., Cegarra, J.G., & Rubio, J.A. (2012). Aprendizaje basado en competencias: Una propuesta para la autoevaluación del docente. Profesorado, Revista de currículum y formación del profesorado, 16(2), 373-386. http://www.ugr.es/~recfpro/rev162COL5.pdf

McMillan, J.H., & Schumacher, S. (2010). Investigación educativa. Pearson Addison Wesley.

Mishra, P., & Koehler, M. (2006). Technological Pedagogical Content Knowledge: A Framework for Teacher Knowledge. State University. https://doi.org/10.1111/j.1467-9620.2006.00684.x

Moreno Rodríguez, M.D., Gabarda Méndez, V., & Rodríguez Martín, A.M. (2018). Alfabetización informacional y competencia digital en estudiantes de magisterio. Profesorado, Revista de currículum y formación del profesorado, 22(3), 253-270. http://dx.doi.org/10.30827/profesorado.v22i3.8001

Morales, P.; Urosa, B., & Blanco, A. (2003). Construcción de escalas de actitud tipo Likert: una guía práctica. Cuadernos de Estadística.

Nowak, B.M. (2019). The development of digital competence of students of teacher training studies-Polish cases. International Journal of Higher Education, 8(6), 262-266. https://doi.org/10.5430/ijhe.v8n6p262

Oliden, P. E., & Zumbo, B. D. (2008). Coeficientes de fiabilidad para escalas de respuesta categórica ordenada. Psicothema, 20(4), 896‐901. http://www.psicothema.com/psicothema.asp?id=3572

Otzen, T., & Manterola, C. (2017). Técnicas de Muestreo sobre una Población a Estudio. International Journal of Morphology, 35(1), 227-232. http://dx.doi.org/10.4067/S0717-95022017000100037

Pérez-Rodríguez, A., Delgado-Ponce, A., Marín-Mateos, P., & Romero-Rodríguez, L.M. (2019). Media Competence in Spanish Secondary School Students. Assessing Instrumental and Critical Thinking Skills in Digital Contexts. Educational Sciences: Theory and Practice, 19(3), 33-48. https://doi.org/10.12738/estp.2019.3.003

Punie, Y. (2017). European Framework for the Digital Competence of Educators (DigCompEdu). Publications Office of the European Union. https://doi.org/10.2760/159770

Terry, J., Davies, A., Williams, C., Tait, S., Condon, L. (2019). Improving the digital literacy competence of nursing and midwifery students: A qualitative study of the experiences of NICE student champions. Nurse Education in Practice, 34, 192-198. https://doi.org/10.1016/j.nepr.2018.11.016

Tobón, S., Pimienta, J.H., & García Fraile, J.A. (2010). Secuencias didácticas: Aprendizaje y evaluación de competencias. Pearson Educación.

Torres-Hernández, M., Pessoa, T., & Gallego-Arrufat, M.J. (2019). Intervención y evaluación con tecnologías de la competencia en seguridad digital. Digital Education Review, 35, 111-129. https://revistes.ub.edu/index.php/der/article/view/27399/pdf

Unión Europea (2018, 22 de mayo). Recomendación C 189 Relativa a las Competencias Clave Para el Aprendizaje Permanente. Diario Oficial de la Unión Europea, 4 de junio de 2018.

Valverde Berrocoso, J., Revuelta Domínguez, F.I., & Fernández Sánchez, M.R. (2012). Modelos de evaluación por competencias a través de un sistema de gestión de aprendizaje. Experiencias en la formación inicial del profesorado. Revista Iberoamericana de Educación, 60, 51-62. https://doi.org/10.35362/rie600443

Valverde Crespo, D., De Pro Bueno, A., & González Sánchez, J. (2018). La competencia informacional-digital en la enseñanza y aprendizaje de las ciencias en la educación secundaria obligatoria actual: una revisión teórica. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 15(2). 1-15. https://doi.org/10.25267/Rev_Eureka_ensen_divulg_cienc.2018.v15.i2.2105

Vuorikari, R., Punie, Y., Carretero, S, & Van den Brande, L. (2016). DigComp 2.0: The Digital Competence Framework for Citizens. Update Phase 1: The Conceptual Reference Model. Publication Office of the European Union. https://doi.org/10.2791/11517

Welch, S., & Comer, J. (1998). Quantitative methods for public administration: Techniques and applications. Brooks/Cole.

Xu, S., Yang, H. H., MacLeod, J., & Zhu, S. (2019). Social media competence and digital citizenship among college students. Convergence, 25(4), 735-752. https://doi.org/10.1177/1354856517751390

Zumbo, B. D., Gadermann, A. M., & Zeisser, C. (2007). Ordinal versions of coefficients alpha and theta for Likert rating scales. Journal of modern applied statistical methods, 6(1), 20-29. https://doi.org/10.22237/jmasm/1177992180

Notas de autor

* Casillas-Martín, Sonia (scasillasma@usal.es) 0000-0001-5304-534X Doctora en Pedagogía por la Universidad Pontificia de Salamanca. Profesora Contratada Doctora en el Departamento de Didáctica, Organización y Métodos de Investigación en la Facultad de Educación de la Universidad de Salamanca. Miembro del Grupo de Investigación-Innovación en Tecnología Educativa de la Universidad de Salamanca (GITE-USAL). Principales líneas de investigación: “Competencia digital”, “Innovación educativa”, “Aprendizaje colaborativo mediado por TIC”. Universidad de Salamanca. Facultad de Educación. Paseo de Canalejas, 169, 37008, Salamanca (España).
** Cabezas-González, Marcos (mcabezasgo@usal.es) 0000-0002-3743-5839 Doctor en Pedagogía por la Universidad Pontificia de Salamanca. Profesor Contratado Doctor en el Departamento de Didáctica, Organización y Métodos de Investigación en la Facultad de Educación de la Universidad de Salamanca. Miembro del Grupo de Investigación-Innovación en Tecnología Educativa de la Universidad de Salamanca (GITE-USAL). Principales líneas de investigación: “TIC aplicadas a la educación”, “Aprendizaje colaborativo mediado por TIC”, “Competencia digital”. Universidad de Salamanca. Facultad de Educación. Paseo de Canalejas, 169, 37008, Salamanca (España).
*** García-Valcárcel Muñoz-Repiso, Ana (anagv@usal.es) 0000-0003-0463-0192 Doctora en Ciencias de la Educación por la Universidad Pontificia de Comillas (Madrid). Catedrática de Tecnología Educativa en el Departamento de Didáctica, Organización y Métodos de Investigación en la Facultad de Educación de la Universidad de Salamanca. Directora del grupo de investigación GITE-USAL y Coordinadora del Máster en Tecnologías de la Información y Comunicación en la Educación que se imparte en la Facultad de Educación de la Universidad de Salamanca. Principales líneas de investigación: “TIC aplicadas a la educación”, “Aprendizaje colaborativo mediado por TIC”, “Competencia digital”. Universidad de Salamanca. Facultad de Educación. Paseo de Canalejas, 169, 37008, Salamanca (España).

mcabezasgo@usal.es

Información adicional

Cómo referenciar este artículo: Casillas-Martín, S., Cabezas-González, M., & García-Valcárcel, A. (2020). Análisis psicométrico de una prueba para evaluar la competencia digital de estudiantes de Educación Obligatoria. RELIEVE, 26(2), art. 2. http://doi.org/10.7203/relieve.26.2.17611

Enlace alternativo

HTML generado a partir de XML-JATS4R por