Servicios
Buscar
PDF
ePub
Descargas
Idiomas
P. Completa
CONSTRUCCIÓN DE UN INSTRUMENTO PARA MEDIR LA UTILIDAD PERCIBIDA DE LAS TIC USADAS EN LA DOCENCIA POR ESTUDIANTES DE ARQUITECTURA TÉCNICA
Dra. Victoria E. Garcia-Vera; Dra. Rosabel Roig-Vila;
Dra. Victoria E. Garcia-Vera; Dra. Rosabel Roig-Vila; Dr. Pedro Garcia
CONSTRUCCIÓN DE UN INSTRUMENTO PARA MEDIR LA UTILIDAD PERCIBIDA DE LAS TIC USADAS EN LA DOCENCIA POR ESTUDIANTES DE ARQUITECTURA TÉCNICA
CONSTRUCTION OF AN INSTRUMENT FOR MEASURING THE PERCEIVED USEFULNESS OF THE ICT USED WHEN TEACHING BY BUILDING ENGINEERING STUDENTS
Pixel-Bit. Revista de Medios y Educación, núm. 49, , 2016
Universidad de Sevilla
resúmenes
secciones
referencias
imágenes

Resumen: Se ha realizado una investigación acerca del uso del ordenador y de los objetos de aprendizaje que utilizan los estudiantes en una asignatura de Arquitectura Técnica de la Universidad de Alicante. Para ello, se ha creado un instrumento que analiza la utilidad percibida de los objetos de aprendizaje en la adquisición de las competencias y las actitudes de los estudiantes hacia el uso del ordenador. Los análisis realizados indican que el instrumento de medición elaborado es fiable y válido. La validez de contenido del instrumento se analizó a través del juicio de expertos (validez general del cuestionario = .912, p-valor = .000). La validez de constructo se estudió a través del análisis de su estructura interna, sometiendo a un análisis factorial los ítems de la versión definitiva del cuestionario (se identificaron cuatro factores que juntos explicaron el 45.65% de la varianza). La fiabilidad del instrumento se analizó calculando su consistencia interna por medio del coeficiente alpha de Cronbach (? para el total de la escala = .90).

Palabras clave Objetos de aprendizaje, construcción instrumento, estudiantes Arquitectura Técnica, actitudes, utilidad percibida.

Abstract: This paper aims to evaluate the learning objects used by the students enrolled in a Building Engineering subject of the University of Alicante. An instrument was created to achieve that aim which analyzes the perceived usefulness of learning objects when it comes to competence acquisition and students' attitudes towards computer use. The analyses performed suggest that the measuring instrument developed is reliable and valid. Content validity for this instrument was examined through expert judgment (questionnaire general validity = .912, p-value = .000). In turn, construct validity was studied through the examination of its internal structure, applying factor analysis to the items contained on the final questionnaire version (four factors were identified which jointly explained 45.65% of variance). As for instrument reliability, it was analyzed through a calculation of its internal consistency by means of Cronbach's alpha coefficient (? for the scale total = .90).

Keywords: Learning Objects, Instrument Construction, Building Engineering Students, Attitudes, Perceived Usefulness.

Carátula del artículo

CONSTRUCCIÓN DE UN INSTRUMENTO PARA MEDIR LA UTILIDAD PERCIBIDA DE LAS TIC USADAS EN LA DOCENCIA POR ESTUDIANTES DE ARQUITECTURA TÉCNICA

CONSTRUCTION OF AN INSTRUMENT FOR MEASURING THE PERCEIVED USEFULNESS OF THE ICT USED WHEN TEACHING BY BUILDING ENGINEERING STUDENTS

Dra. Victoria E. Garcia-Vera
Escuela Politécnica Superior de la Universidad de AlicanteEspaña
Dra. Rosabel Roig-Vila
Universidad AlicanteEspaña
Dr. Pedro Garcia
Escuela Politécnica Superior de la Universidad de AlicanteEspaña
Pixel-Bit. Revista de Medios y Educación, núm. 49, 2016
Universidad de Sevilla

Recepción: 30 Diciembre 2015

Aprobación: 29 Febrero 2016

1. Introducción.

Los objetos de aprendizaje (OA) son elementos de un tipo de educación asistida por ordenador, que está fundamentada en el concepto de programación orientada a objetos de la ciencia de la computación ( Wiley, 2000b ). Ralph W. Gerard (1967) fue uno de los pioneros en ver las ventajas de la utilización de los ordenadores como ayuda en la enseñanza, formando parte del movimiento, surgido en las décadas de los 60 y 70, de técnicos y científicos que preconizaban la utilización de los ordenadores como apoyo en distintos campos, como el Computer Aided Design (CAD), Computer Aid Manufacturing (CAM) y ComputerAided Learning (CAL). Gerard (1967) postulaba que el aprendizaje asistido por ordenador brinda la oportunidad a los estudiantes de aprender casi a su propia conveniencia, en cuanto a hora, lugar y ritmo. En la actualidad, esta característica del CAL, aprender en cualquier lugar y a cualquier hora, es uno de los paradigmas de la enseñanza online ( Bourne, Harris & Mayadas, 2005 ; Cohen y Ellis, 2004 ; Haag y Palais, 2002 ; Jordano & Castrillo, 2016 ; Latchman & Latchman, 2000 ; Lawton et al., 2012 ; Nóvoa, 2009 ; Pale, Miletic, Kostanjcar, Pandzic & Jeren, 2011 ; Rossiter, 2011 ; Splitt, 2003 ; Swain, 2003 ).

Uno de los primeros en utilizar el concepto de OA es precisamente Gerard (1967) . Los llama materiales para CAL (CAL materials), destacando que en los sistemas CAL las unidades curriculares pueden subdividirse en elementos más pequeños y combinarse, como piezas estandarizadas de un mecano, dentro de una gran variedad de programas formativos hechos a medida para cada alumno.

En suma, hace más de medio siglo ya se destacaba ( Gerard, 1967 ) que una de las grandes ventajas de los modelos educativos basados en las TIC, es que los recursos didácticos digitales que conforman un curso tienen la posibilidad de ser divididos en fragmentos, que pueden ser reutilizados por otros usuarios, ya sean profesores o alumnos. Este punto de vista es compartido por autores posteriores como Reigeluth y Nelson (1997) y Wiley (2000a , 2000b ), entre otros. La división de un recurso educativo (p. ej., un libro) en fragmentos más pequeños, permite alcanzar mayor eficacia en la enseñanza, puesto que no siempre el contenido completo del recurso (el libro completo) es relevante para los objetivos de un curso en particular. De hecho, esto es lo que hace el profesor cuando prepara el material didáctico a la medida de las necesidades de cada curso y a partir de fragmentos de otros recursos. Esto sugiere que sería conveniente, para mejorar la eficacia en la enseñanza, que los profesores pudieran tener acceso a recursos digitales, ya divididos en sus componentes más simples, con objeto de que puedan ser reutilizados fácilmente.

A estos recursos digitales se les llama actualmente objetos de aprendizaje (OA), learning object (LO) en la bibliografía inglesa. Este término fue introducido por primera vez por Wayne Hodgins en 1992 ( Martínez, Bonet, Cáceres, Fargueta & García, 2007 ). Los OA son recursos destinados a cambiar la forma y el fondo del aprendizaje ( Hodgins, 2000 ), y son considerados uno de los pilares del aprendizaje a través de Internet ( Roig, 2005 ).

Para implementar en el aula los OA tenemos que asegurarnos que estos sean de calidad. Además, deberemos asegurarnos que los estudiantes tengan actitudes positivas hacia el uso de las TIC en el aula, puesto que «no importa lo sofisticada y de cuánto es capaz la tecnología, su puesta en práctica eficaz depende de que los usuarios tengan una actitud positiva hacia ella», siendo las actitudes hacia el uso de los ordenadores un determinante crítico para el uso y aceptación de las TIC ( Olvera y Benítez, 2008, p. 199 ). Las actitudes definen los procesos de pensamiento, acción y predisposición al cambio ante determinados retos ( Richardson, 1996 ), por lo que las actitudes que mantienen las personas pueden ser determinantes a la hora de usar o no una tecnología.

2. Evaluación de la utilidad percibida de los objetos de aprendizaje.

Los OA son recursos de apoyo al aprendizaje, por lo que la falta de calidad de estos puede afectar al proceso de enseñanzaaprendizaje y, como consecuencia, al rendimiento de los estudiantes, lo que hace necesario establecer sistemas de evaluación de la calidad ( Paulsson & Naeve, 2006 ; Vidal, Segura & Prieto, 2008 ). No hay unanimidad sobre quién debe evaluar dichos OA. A continuación se presentan tres de los enfoques utilizados:

· A través de la retroalimentación (feedback) de los estudiantes sobre el impacto que ha tenido el OA en su aprendizaje ( Kay & Knaack, 2009 ; Sinclair, Joy, Yin & Hagan, 2013 ). La evaluación realizada por los estudiantes es considerada por algunos autores como más significativa que otras, puesto que la llevan a cabo los destinatarios del recurso ( Cabero, 2013 ).

· La evaluación del OA realizada por pares (peer evaluation) ( Sinclair et al., 2013 ).

· La evaluación del OA realizada tanto por estudiantes como docentes ( Ehlers, 2009 ), lo que asegura una amplia comunidad de revisores ( Larsen & Vincent, 2005 ).

Estos tres enfoques, para la evaluación de la calidad de los OA, pueden utilizarse para estudiar la utilidad de estos para la adquisición de las competencias, es decir, se puede preguntar a profesores, a alumnos o a ambos, si consideran que un OA en particular sirve para adquir una determinada competencia. En este estudio se utiliza la retroalimentación de los estudiantes para evaluar la utilidad percibida de los OA.

3. Objeto del estudio.

Este trabajo tiene como objetivo construir un instrumento que mida las actitudes de los estudiantes hacia el uso del ordenador y la utilidad percibida de los OA en la adquisición de las competencias de la asignatura Gestión económica; mediciones, presupuestos y tasaciones inmobiliarias del grado en Arquitectura Técnica de la Universidad de Alicante. Se considera necesario medir las actitudes hacia el uso del ordenador puesto que estas determinan la conducta de los individuos ( Ajzen & Fishbein, 1980 ). A partir de ahí, se realiza el estudio en torno a los OA, que quedan conformados, en este caso, por cada una de las colecciones en formato digital que forman una unidad temática de la asignatura: corpus teórico de la asignatura, ejemplos resueltos, vídeos didácticos, ejercicios autoevaluables y enlaces a páginas de interés.

4. Método.

Para llevar a cabo el estudio se ha construido el cuestionario «Percepciones y actitudes del estudiante hacia el uso del ordenador como apoyo a la docencia», cuyo proceso se ha estructurado en cuatro fases: (1) construcción del instrumento inicial en base a la revisión bibliográfica; (2) validación del instrumento inicial; (3) refinado del instrumento; y (4) análisis del instrumento final.

Tabla 1
Cuestionario inicial.

4.1. Fase 1: construcción del instrumento.

La construcción del cuestionario «Percepciones y actitudes del estudiante hacia el uso del ordenador como apoyo a la docencia» se basó en la revisión bibliográfica realizada. Dicho cuestionario estaba estructurado en cinco bloques, que se describen en la Tabla 1 . Los objetivos que se pretendían cubrir con este instrumento eran los siguientes:

· Conseguir información factual donde se incluyen los datos sociodemográficos.

· Conocer las percepciones y actitudes del estudiante hacia el uso del ordenador.

· Conocer la utilidad percibida de los OA en la adquisición de las competencias de la asignatura.

Para la redacción de los ítems que componen el bloque IV, que estudiaban las percepciones y actitudes del estudiante hacia el uso del ordenador, se tuvieron en cuenta otras escalas existentes: Computer attitude scale ( Loyd & Gressard, 1984 ), Attitude toward computer assisted instruction ( Allen, 1986 ), Attitudetoward-computer usage scale ( Popovich, Hyde & Zakrajsek, 1987 ), Computer attitude measure ( Kay, 1993 ), Computer attitude scale (Selwyn, 1996), Attitude towards computers instrument (ATCI) ( Shaft, Sharfman & Wu, 2003 ), e Instrument to measure student information and communication technology skills, experience and attitudes to e-learning ( Wilkinson, Robert & While, 2010 ).

El bloque V «Utilidad percibida de los objetos de aprendizaje en la adquisición de las competencias de la asignatura» estaba dividido en dos subbloques, el primero hacía referencia a los OA y el segundo a la adquisición de las competencias de la asignatura. Para enumerar dichas competencias se tuvo en cuenta la siguiente documentación: el RD 1393/2007 por el que se establece la ordenación de las enseñanzas universitarias oficiales; la Orden ECI/3855/ 2007 por la que se establecen los requisitos para la verificación de los títulos universitarios oficiales que habiliten para el ejercicio de la profesión de Arquitecto Técnico; el RD 1027/2011 por el que se establece el Marco Español de Cualificaciones para la Educación Superior; el Proyecto Tuning ( González & Wagenaar, 2003 ); el Libro Blanco del Título de Grado en Ingeniería de Edificación (ANECA, 2004); la Memoria para la solicitud de verificación del título de Grado en Ingeniería de Edificación de la Universidad de Alicante ( Universidad de Alicante, 2009 ); Subject benchmark statement: Engineering de la Quality Assurance Agency for Higher Education, 2010).

4.2. Fase 2: Valoración del instrumento.

La validación del instrumento hace referencia al grado en el que las conclusiones a las que se llega, sobre la base de puntuaciones obtenidas con dicho instrumento, son apropiadas, razonables y significativas para el estudio ( McMillan & Schumacher, 2005 ). A través del análisis de la validez, el investigador trata de asegurarse de que mide lo que pretende medir ( Alaminos & Castejón, 2006 ; Cardona, Chiner, Lattur, 2006 ). De esta forma, se tiene la seguridad de que la información y los resultados obtenidos conducen a conclusiones correctas ( Chiner, 2011 ). En este estudio se analizó la validez de contenido a través del juicio de expertos, con el apoyo del procedimiento desarrollado por Aiken (1980 , 1985 ).

La validez de contenido es el grado en que el instrumento presenta una muestra adecuada de los contenidos a los que se refiere, sin omisiones y sin desequilibrios ( Kerlinger & Lee, 2002 ). Una forma ampliamente utilizada para analizar la validez de contenido, es a través del juicio de expertos. En este trabajo se ha seguido el método descrito por Aiken (1980 , 1985 ) para el cálculo de un índice de validez y la significación estadística de este, a partir de las valoraciones realizadas por los jueces sobre el cuestionario.

Los especialistas que valoraron los cuestionarios fueron elegidos utilizando un muestreo no probabilístico intencionado ( Alaminos & Castejón, 2006 ; Cardona, 2002 ; Mcmillan & Schumacher, 2005 ), también llamado muestreo estratégico o de juicio, y su finalidad no es la representatividad estadística en sí, sino la información y la captación de variedad de opiniones sobre el tema en cuestión ( Cea, 2004 ). En este tipo de muestreo, la selección se hace sobre la base que se tiene acerca de la población, haciendo un juicio sobre qué sujetos deberían ser seleccionados para proporcionar la información más adecuada que responda al propósito del estudio ( Mcmillan & Schumacher, 2005 ).

Tabla 2
Valoración de los expertos del cuestionario.

El cuestionario trata dos aspectos claramente diferenciados. Por un lado, el uso del ordenador como apoyo al proceso de enseñanza-aprendizaje y, por otro lado, la adquisición de las competencias de la asignatura. Por ello, se optó por pedir opinión a dos grupos diferentes de jueces: 17 profesores universitarios especialistas en el uso de las TIC aplicadas a las Ciencias de la Educación y 10 profesores universitarios que imparten asignaturas equivalentes a Gestión económica; mediciones, presupuestos y tasaciones inmobiliarias en otras universidades españolas, es decir, especialistas en la materia.

A los jueces seleccionados se les pidió que valoraran los cinco bloques del cuestionario. Para ello, se les entregó una copia de este, una breve explicación sobre los objetivos que se pretendían conseguir con el instrumento e instrucciones sobre el procedimiento que debían seguir para valorarlo. Los dos primeros bloques del cuestionario fueron valorados solo en términos de idoneidad de los ítems. Para ello, los especialistas debían responder según una escala dicotómica, donde una respuesta afirmativa significaba que las preguntas eran idóneas y una respuesta negativa significaba que no lo eran. El resto de bloques, además de ser valorados en cuanto a idoneidad, lo fueron también respecto a corrección en la redacción de las preguntas. Ambos aspectos fueron valorados conforme a una escala Likert de cinco niveles (muy en desacuerdo, en desacuerdo, indeciso, de acuerdo, muy de acuerdo). Por último, los expertos valoraron de forma general el cuestionario, siguiendo una escala Likert de tres niveles (deficiente, regular, bueno); además de las valoraciones anteriores, realizaron los comentarios que estimaron oportunos acerca de cada uno de los bloques del cuestionario.

Una vez recogidas las valoraciones sobre el cuestionario, se calculó el índice de validez V propuesto por Aiken (1980 , 1985 ) para cada uno de los bloques. Este mide en una escala de 0 a 1 la validez de contenido del bloque, donde valores de V cercanos al 1 indican una validez de contenido alta. En la Tabla 2 se muestran los valores del índice de validez V obtenidos a partir de las puntuaciones de los expertos dada a cada uno de los bloques, junto con el p-valor correspondiente a dicho valor de V. A la vista de los resultados, se deduce que las puntuaciones obtenidas no son fruto del azar con una significación estadística menor o igual que .001 salvo el subbloque III.1 que tiene una significación de .015.

4.3. Fase 3: refinado del instrumento.

Aunque las puntuaciones del cuestionario fueron buenas, siguiendo la recomendación de los expertos realizadas en sus comentarios, se realizaron los siguientes cambios: (a) se revisó cuidadosamente la redacción de todo el cuestionario; (b) los subbloques III.1, III.2 y V.1, referidos a recursos electrónicos diferentes, se reestructuraron para que hiciesen referencia a los mismos seis recursos; y (c) las preguntas del bloque IV se desecharon, siendo sustituidas por el bloque de preguntas del instrumento propuesto por Wilkinson et al. (2010) , que hace referencia a las actitudes hacia el uso del ordenador en educación. Dicho bloque de preguntas es más completo que el inicialmente considerado y por otro lado, el instrumento está contrastado por los autores.

4.4. Fase 4: Análisis del instrumento final.

El análisis de la validez de constructo y la fiabilidad se realizó sobre el instrumento final. Para ello se utilizó la información recogida de la muestra. Dicha muestra estaba formada por 110 estudiantes, de los cuales 62 eran varones (56.4%) y 48 mujeres (43.6%), con edades oscilando entre 20 y 46 años (M = 24.05, DT = 4.52).

a) Validez de constructo

La validez de constructo se estudió a través del análisis de su estructura interna, tal y como proponen Kerlinger y Lee (2002) . Se entiende por validez de constructo del cuestionario, al grado en que un instrumento de medida cumple con las hipótesis que cabría esperar en un instrumento diseñado para un propósito determinado. Se trata de analizar la naturaleza del constructo o la característica que está siendo objeto de medida a través del instrumento ( Wallen & Fraenkel, 2001 ).

El procedimiento que se utilizó para explorar la validez de constructo del instrumento fue el análisis de su estructura interna. Para ello, los ítems de la versión definitiva del cuestionario fueron sometidos a un análisis factorial empleando como método de extracción el análisis de componentes principales (rotación varimax). Previamente se evaluó la adecuación de los datos al análisis factorial. El valor de KaiserMeyer-Oklin (KMO) obtenido fue de .72, superando el valor recomendado de .60 ( Kaiser, 1974 ), y la prueba de esfericidad de Barlett (Barlett, 1954) (÷2 = 3225.91, gl = 1035) alcanzó la significación estadística de .000, apoyando la idoneidad para proceder con el análisis de la matriz de correlaciones.

Tabla 3
Estructura factorial del cuestionario.

Se identificaron cuatro factores que juntos explicaron el 45.65% de la varianza:

· PAUO: percepciones y actitudes del estudiante hacia el uso del ordenador (9 ítems).

· UPRE: utilidad percibida de los recursos electrónicos (6 ítems).

· ACG: adquisición de las competencias genéricas (11 ítems).

· ACE: adquisición de las competencias específicas (20 ítems).

En la Tabla 3 se muestra la estructura factorial resultante, junto con la varianza explicada de cada factor.

* Al ser ítems de pregunta en negativo, el análisis se realizó invirtiendo los valores de la escala Likert.

PAUO: percepciones y actitudes del estudiante hacia el uso del ordenador; UPRE: utilidad percibida de los recursos electrónicos; ACG: adquisición de las competencias genéricas; ACE: adquisición de las competencias específicas. PAUO: percepciones y actitudes del estudiante hacia el uso del ordenador; UPRE: utilidad percibida de los recursos electrónicos; ACG: adquisición de las competencias genéricas;. ACE: adquisición de las competencias específicas.

b) Análisis de fiabilidad.

La fiabilidad hace referencia a que un instrumento mide algo con precisión o de forma consistente. El término fiabilidad (o confiabilidad) se puede enfocar de tres formas, en términos de: (a) estabilidad y predictibilidad, es decir, al medir en diversas ocasiones se observan iguales o similares resultados; (b) falta de distorsión, se refiere al grado en el que la medición concuerda consigo misma; o (c) ausencia relativa de errores de medición en el instrumento ( Kenlinger & Lee, 2002 ).

Para comprobar la fiabilidad del instrumento, se calculó su consistencia interna por medio del coeficiente alpha de Cronbach. Este es uno de los métodos más aplicados por los investigadores sociales. Con este coeficiente se examina la homogeneidad de los indicadores utilizados en la medición de un concepto, es decir, se indaga sobre si las preguntas relacionadas con una misma dimensión (o dominio del concepto) están interconectadas entre ellas ( Cea, 2004 ).

El instrumento obtuvo los índices de consistencia interna que se muestran en la Tabla 4 . Solo se calculó el coeficiente alpha de Cronbach de los bloque IV y V, descartándose los tres primeros bloques en este cálculo, puesto que están destinados a recabar información general acerca del alumnado de la asignatura. El coeficiente alpha de Cronbach se calculó independientemente para cada subbloque y para el total de la escala (á = .90). En cuanto a los valores de los subbloques, el valor más bajo lo obtuvo el subbloque V.1 Utilidad percibida de los recursos electrónicos (.62) y el más alto el subbloque V.2 Adquisición de las competencias específicas de la asignatura (.93). De acuerdo a Kerlinger y Lee (2002) se consideran aceptables, para medidas de actitud, valores del índice entre .60 y .85, lo que significa que cada uno de los subbloques del instrumento es fiable.

Tabla 4
Análisis de la fiabilidad del cuestionario.

5. Discusión y conclusiones.

Con el proceso expuesto se ha construido un instrumento que mide la utilidad percibida de los OA que se utilizan en la asignatura Gestión económica; mediciones, presupuestos y tasaciones inmobiliarias del grado en Arquitectura Técnica en la adquisición de las competencias. Además también se analizan las actitudes de los estudiantes hacia el uso del ordenador.

Los análisis realizados indican que el instrumento de medición elaborado es fiable y válido. La validez de contenido del instrumento se analizó a través del juicio de expertos, siguiendo el método descrito por Aiken (validez general del cuestionario = .912, p-valor = .000). La validez de constructo se estudió a través del análisis de su estructura interna, sometiendo a un análisis factorial los ítems de la versión definitiva del cuestionario (se identificaron cuatro factores que juntos explicaron el 45.65% de la varianza). La fiabilidad del instrumento se analizó calculando su consistencia interna por medio del coeficiente alpha de Cronbach (á para el total de la escala = .90).

Los instrumentos existentes analizan las actitudes hacia el uso del ordenador y la calidad de los OA de una forma genérica. El instrumento construido está centrado en el ámbito docente universitario, y mide la calidad de los OA a través de la precepción de los estudiantes, para ello mide la utilidad de los OA en la adquisición de las competencias pormenorizadas de una asignatura concreta.

El proceso de validación seguido en este trabajo indica que se ha conseguido un instrumento válido y fiable para estudiantes de Arquitectura Técnica, y proporciona una base para continuar con el refinado de un instrumento útil y contemporáneo.

Agradecimiento

Este trabajo ha sido realizado con las ayudas, del Vicerrectorado de Investigación, Desarrollo e Innovación de la Universidad de Alicante, destinadas a la formación de doctores Ref. UAFPU 2011-33487413B.

Agencia Nacional de Evaluación de la Calidad y Acreditación (ANECA). (2004). Libro blanco del título de grado en ingeniería de edificación. Recuperado de http://www.aneca.es/var/media/150380/ libroblanco_jun05_edificacion.pdf
Aiken, L. R. (1980). Content validity and reliability of single items or questionnaires. Educational and Psychological Measurement, 40, 955-959. doi: 10.1177/ 001316448004000419
Aiken, L. R. (1985). Three coefficients for analyzing the reliability and validity or ratings. Educational and Psychological Measurement, 45, 131-142. doi: 10.1177/ 0013164485451012
Ajzen, I. & Fishbein, M. (1980). Understanding attitudes and predicting behaviour. Englewood Cliffs, N.J: Pretice Hall.
Alaminos, A. & Castejón, J. L. (2006). Elaboración, análisis e interpretación de encuestas, cuestionarios y escalas de opinión. Alcoy: Marfil.
Allen, L. R. (1986). Measuring attitude toward computer assisted instruction. Computers in Nursing, 4(4), 144–151.
Barlett, M. S. (1954). A note on the multiplying factors for various chi square approximations. Journal of the Royal Statistical Society, 16(Series B), 296-298.
Bourne, J., Harris, D. & Mayadas, F. (2005). Online engineering education: learning anywhere, anytime. Journal of Engineering Education, 9(1), 131-146. doi: 10.1002/j.2168- 9830.2005.tb00834.x
Cabero, J. (2013). El diseño, la producción y la evaluación de TIC aplicadas a los procesos de enseñanza-aprendizaje. En J. Barroso & J. Cabero (Coords.), Nuevos escenarios digitales. Las tecnologías de la información y la comunicación aplicadas a la formación y desarrollo curricular (pp. 69- 83). Sevilla: Pirámide.
Cardona, M. C. (2002). Introducción a los métodos de investigación en educación. Madrid: EOS.
Cardona, M. C., Chiner, E. & Lattur, M. A. (2006). Diagnóstico psicopedagógico. Alicante: Editorial Club Universitario.
Cea, M. A. (2004). Métodos de encuesta. Teoría y práctica errores y mejora. Madrid: Síntesis.
Chiner, E. (2011). Las percepciones y actitudes del profesorado hacia la inclusión del alumnado con necesidades educativas especiales como indicadores del uso de prácticas educativas inclusivas en el aula (Tesis doctoral no publicada). Universidad de Alicante, España.
Cohen, M. S. & Ellis, T. J. (2004). Developing criteria for an on-line learning environment: from the student and faculty perspectives. Journal of Engineering Education, 93(2), 161-167. doi: 10.1002/j.2168- 9830.2004.tb00800.x
Ehlers U. D. (2009). Web 2.0 – e-learning 2.0 – quality 2.0? Quality for new learning cultures. Quality Assurance in Education, 17(3). 296-314. doi: 10.1108/ 09684880910970687
Gerard, R. W. (1967). Shaping the mind: computers in education. En G. P. Miller (Ed.), Applied Science and Technological Progress (pp. 207-228). Washington, DC: U.S. Government Printing Office.
González, J. & Wagenaar, R. (Eds.). (2003). Tuning educational structures in Europe. Informe final. Fase uno. Bilbao: Universidad de Deusto.
Haag, S. & Palais, J. C. (2002). Engineering online: Assessing innovative education. Journal of Engineering Education, 91(3), 285-290.
Hodgins, H. W. (2000). The future of learning objects. En D. A. Wiley (Ed.), The instructional use of learning objects: online version. Recuperado de http://reusability.org/ read/chapters/hodgins.doc
Jordano, M. & Castrillo, M. D. (2016). El aprendizaje de lenguas extranjeras mediante tecnología móvil en el contexto de la educación a distancia y combinada. RIED, 19(1), 25-40. doi: 10.5944/ried.19.1.15287
Kaiser, H. (1974). An index of factorial simplicity. Psychometrika, 39(1), 31-36. doi: 10.1007/BF02291575
Kay, R. H. (1993). An exploration of theoretical and practical foundations for assessing attitudes toward computers: the Computer Attitude Measure (CAM). Computers in human behavior, 9(4), 371-386. doi: 10.1016/0747-5632(93)90029-R
Kay, R. H. & Knaack, L. (2009). Assessing learning, quality and engagement in learning objects: the Learning Object Evaluation Scale for Students (LOES-S). Educational Technology Research and Development, 57(2), 147-168.
Kerlinger, F. N. & Lee, H. B. (2002). Investigación del comportamiento: métodos de investigación en ciencias sociales (4ª ed., Trads. L. E. Pineda e I. Mora). México, D. F.: McGraw-Hill.
Larsen, K. & Vincent-Lacrin, S. (2005). The impact of ICT on tertiary education: advances and promises. Recuperado de http:/ /oems.edu.np/Blogs/Article/upload/LarsenThe%20impact%20of%20ICT%20on%2 0tertiary%20education%20- %20AKKE[1].doc
Latchman, H. A. & Latchman, S. M. (2000). Bringing the classroom to students everywhere. Journal of EngineeringEducation, 89(4), 429-433. doi: 10.1002/j.2168-9830.2000.tb00548.x
Lawton, D., Vye, N., Bransford, J., Sanders, E., Richey, M., French, D. & Stephens, R. (2012). Online learning based on essential concepts and formative assessment. Journal of Engineering Education, 101(2), 244-287. doi: 10.1002/j.2168-9830.2012.tb00050.x
Loyd, B. & Gressard, C. (1984). Reliability and factorial validity of computer attitude scales. Educational and psychological measurement, 44(2), 501-505. doi: 10.1177/ 0013164484442033
Martínez, S., Bonet, P., Cáceres, P., Fargueta, F. & García, E. (Septiembre, 2007). Los objetos de aprendizaje como recurso de calidad para la docencia: criterios de validación de objetos en la Universidad Politécnica de Valencia. Comunicación presentada en el IV Simposio Pluridisciplinar sobre Diseño y Evaluación de Contenidos Educativos Reutilizables (SPDECE 2007), Universidad del País Vasco, Bilbao, España.
McMillan, J. H. & Schumacher, S. (2005). Investigación educativa. Una introducción Conceptual (5ª ed., Trad. J. Sánchez). Madrid: Pearson Educación.
Ministerio de Educación (2011). Real Decreto 1027/2011, de 15 de julio, por el que se establece el Marco Español de Cualificaciones para la Educación Superior. Boletín Oficial del Estado, 185, de 3 de agosto.
Ministerio de Educación y Ciencia. (2007). Orden ECI-3855-2007, de 27 de diciembre, por la que se establecen los requisitos para la verificación de los títulos universitarios oficiales que habiliten para el ejercicio de la profesión de Arquitecto Técnico. Boletín Oficial del Estado, 312, de 29 de diciembre.
Ministerio de Educación y Ciencia. (2007). Real Decreto 1393/2007, de 29 de octubre, por el que se establece la ordenación de las enseñanzas universitarias oficiales. Boletín Oficial del Estado, 260, de 30 de octubre.
Nóvoa, A. (2009). Educación 2021: para una historia del futuro. Revista iberoamericana de educación, 49, 181-199.
Olvera, M. & Benítez, B. (2008). Aproximación a las actitudes y percepciones de los usuarios ante las tecnologías de la información. El profesional de la información, 17(2), 199-204.
Pale, P., Miletic, I., Kostanjcar, Z., Pandzic, H. & Jeren, B. (2011). Development of Pyramidia: an integrative e-learning multimedia tool. International Journal of Electrical Engineering Education, 48(3), 264- 279. doi: 10.7227/IJEEE.48.3.5
Paulsson, F. & Naeve, A. (2006). Establishing technical quality criteria for learning objects. Recuperado de http:// www.frepa.org/wp/wp-content/files/ Paulsson-Establ-Tech-Qual_finalv1.pdf
Popovich, P. M., Hyde, L. R. & Zakrajsek, T. (1987). The development of the attitudes toward computer usage scale. Educational and psychological measurement, 47(1), 261- 269.
Quality Assurance Agency for Higher Education. (2010). Subject benchmark statement: Engineering. Recuperado de http:/ /www.qaa.ac.uk/Publications/ InformationAndGuidance/Pages/Subjectbenchmark-statement-Engineering-.aspx
Reigeluth, C. M. & Nelson, L. M. (1997). A new paradigm of ISD?. En R. C. Branch & B. B. Minor (Eds.), Educational media and technology yearbook (Vol. 22, pp. 24-35). Englewood, CO: Libraries Unlimited.
Richardson, V. (1996). The role of attitudes and beliefs in learning to teach. En J. Sikula (Ed.), Handbook of research on teacher education (2ª ed., pp. 102-119). Nueva York, NY: Macmillan.
Roig, R. (2005). Diseño de materiales curriculares electrónicos a través de objetos de aprendizaje. RED. Revista de Educación a Distancia [Número monográfico IV] Recuperado de http://www.um.es/ead/red/ M4/
Rossiter, J. A. (2011). Which technology can really enhance learning within engineering?. International Journal of Engineering Education, 48(3), 231-244.
Selwyn, N. (1997). Students´attitudes toward computers: validation of a computer attitude scale for 16-19 education. Computers & Education, 28(1), 35-41. doi: 10.1016/ S0360-1315(96)00035-8
Shaft, T. M., Sharfman, M. P. & Wu, W. W. (2003). Reliability assessment of the attitude towards computers instrument (ATCI). Computers in Human Behavior, 20, 661–689. doi: 10.1016/j.chb.2003.10.021
Sinclair, J., Joy, M., Yin, J. & Hagan, S. (2013). A practice-oriented review of learning objects. IEEE Transactions on learning technologies, 6(2), 177-192. doi: 10.1109/ TLT.2013.6
Splitt, F. G. (2003). The challenge to change: on realizing the new paradigm for engineering education. Journal of Engineering Education, 92(2), 181-187. doi: 10.1002/j.2168- 9830.2003.tb00756.x
Swain, P. H. (2003). Psychology of learning for instruction, 2nd edition / The art of changing the brain: enriching the practice of teaching by exploring the biology of learning. Journal of Engineering Education, 92(4), 283-286.
Universidad de Alicante (2009). Memoria para la solicitud de verificación del título de Grado en Ingeniería de Edificación de la Universidad de Alicante. Manuscrito inédito, Universidad de Alicante.
Vidal, C. L., Segura, A. A. & Prieto, M. E. (Octubre, 2008). Calidad en objetos de aprendizaje. Comunicación presentada en V Simposio Pluridisciplinar sobre Diseño y Evaluación de Contenidos Educativos Reutilizables (SPDECE), Universidad Pontificia de Salamaca, Salamanca.
Wallen, N. E. & Fraenkel, J. R. (2001). Educational research. A guide to the process (2ª ed.). Mahwah, NJ: Lawrence Erlbaum Associates.
Wiley, D. A. (2000a). Connecting learning objects to instructional design theory: a definition, a metaphor, and a taxonomy. En D. A. Wiley (Ed.), The instructional use of learning objects: online version. Recuperado de http://reusability.org/read/chapters/ wiley.doc
Wiley, D. A. (2000b). Learning object design and sequencing theory (Tesis doctoral no publicada). Department of Instructional Psychology and Technology. Brigham Young University, Provo, UT, Estados Unidos.
Wilkinson, A., Robert, J. & While A. E. (2010). Construction of an instrument to measure student information and communication technology skills, experience and attitudes to e-learning. Computers in Human Behavior, 26, 1369–1376.
Notas
Tabla 1
Cuestionario inicial.

Tabla 2
Valoración de los expertos del cuestionario.

Tabla 3
Estructura factorial del cuestionario.

Tabla 4
Análisis de la fiabilidad del cuestionario.

Buscar:
Contexto
Descargar
Todas
Imágenes
Visor XML-JATS4R. Desarrollado por Redalyc