Exploración de sistemas de evaluación formativa entre estudiantes universitarios en la provincia de Huesca
Exploration of Formative Assessment Systems among University Students in the Province of Huesca
Exploración de sistemas de evaluación formativa entre estudiantes universitarios en la provincia de Huesca
Apunts Educación Física y Deportes, vol. 33, núm. 127, pp. 52-58, 2017
Institut Nacional d'Educació Física de Catalunya
Recepción: 28 Octubre 2015
Aprobación: 20 Julio 2016
Resumen: Este estudio intenta explorar, desde la perspectiva de los estudiantes, la evaluación formativa vivenciada en la formación inicial de profesorado de educación física en la educación superior pública de la provincia de Huesca. Se aplicó un cuestionario a una muestra de futuros profesionales de último curso. El análisis de datos se realizó utilizando el paquete estadístico SPSS 17.0, se calcularon las medias, desviaciones típicas y frecuencias relativas de cada una de las respuestas. Los resultados indican que los estudiantes perciben una coherencia aceptable tanto entre la evaluación diseñada y la aplicada por el profesorado, como entre el sistema de evaluación formativa y el resto de elementos de sus programaciones. En cuanto a las capacidades cognitivas que reconocen activar en la evaluación, las y los estudiantes perciben discrepancias entre las que creen utilizar con mayor frecuencia (conocer), y las que consideran más adecuadas. Los instrumentos de evaluación más utilizados por el profesorado según los estudiantes, son los informes, aunque a escasa diferencia de los exámenes escritos, pero consideran más coherentes las pruebas prácticas. En conclusión, los estudiantes perciben coherencia entre lo planificado y lo diseñado por los profesores y el sistema de evaluación formativa que llevan a cabo, pero existe menos acuerdo en algunas de las actuaciones relacionadas con la evaluación desde el punto de vista de profesorado y estudiantado.
Palabras clave: Educación superior, enseñanza universitaria, formación inicial, evaluación formativa, percepciones del alumnado.
Abstract: This study explores from the perspective of the students the formative assessment experienced in the initial training of physical education teachers in public higher education in the province of Huesca. We used a questionnaire with a sample of future teachers in their last year. Data analysis was performed using the statistical package SPSS 17.0 and we calculated the means, standard deviations and relative frequencies of each of the responses. The results indicate that students perceive an acceptable consistency between the evaluations designed and applied by faculty and also between the formative assessment system and the rest of the elements of their programs. As for the cognitive abilities that they acknowledge activating in the evaluation, the students perceive discrepancies between those that they believe they use most frequently (knowing) and those that they consider most appropriate. The assessment instruments most used by the faculty according to the students are reports, albeit with little difference from written tests, but they consider practical tests to be more consistent. In conclusion, students perceive consistence between what is planned and designed by faculty and the formative assessment system they carry out, but there is less agreement in some of the actions related to evaluation from the point of view of faculty and students.
Keywords: Higher education, university teaching, initial teacher training, formative assessment, students’ perceptions.
Introducción
Los retos que se le plantean hoy a las instituciones de educación superior son numerosos y complejos, y la evaluación del aprendizaje de los estudiantes es uno de ellos. Las instituciones universitarias se esfuerzan para formar eficazmente a sus estudiantes, y predecir con la ayuda de los sistemas de evaluación de sus asignaturas, si aquellos a los que va a acreditar, serán capaces de provocar cambios que mejoren la sociedad, conseguirán hacer progresar el conocimiento, y posibilitarán el avance en el sector profesional. Un reto complejo, pero de orden prioritario, para la optimización de la enseñanza superior.
Sobre la evaluación formativa existe un gran número de teóricos defensores de que el efecto que se produce a partir de este tipo de evaluación podría llegar a ser más positivo para los futuros profesionales (Biggs, 2005; Boud & Falchikov, 2007; Carless, Joughin, & Mok, 2006; Falchikov, 2005; William, 2011). Emergen hoy muchos estudios que confirman la implantación de sistemas de evaluación formativa en la educación superior. En ellos se describen instrumentos y procedimientos, y se ofrecen resultados y efectos de estrategias utilizadas en la docencia universitaria (Fraile & Cornejo, 2012; López-Pastor, 2011; Lorente & Kirk, 2013); se analiza la credibilidad de la evaluación formativa (Buscá, Rivera, & Trigueros, 2012); se relaciona la evaluación formativa con el aprendizaje y las capacidades cognitivas de los alumnos (Muros & Luis-Pascual, 2012); se revisan los resultados académicos que obtienen los estudiantes que se acogen a estos sistemas de evaluación (Fraile, López-Pastor, Castejón, & Romero, 2013); se describen percepciones y opiniones de profesores y alumnos (Rivera, Trigueros, Moreno, & De la Torre, 2012), o se refieren al necesario desafío frente a las concepciones previas y tradicionales de los profesores (Gulikers, Harma, Biemans, & Wesselink, 2013).
Respecto a la investigación centrada en las percepciones de los estudiantes en torno a la evaluación en educación superior, se identifica la idea de que existen bastantes diferencias entre las opiniones y creencias de los estudiantes y profesores, en lo relacionado con los sistemas de evaluación. Los alumnos atribuyen a la evaluación en la educación superior, una función más de medición que de formación (Gutiérrez-García, Pérez- Pueyo, & Pérez-Gutiérrez, 2013; Gutiérrez-García, Pérez-Pueyo, Pérez-Gutiérrez, & Palacios-Picos, 2011; Navarro & Rueda, 2009; Rincón & González, 2010). Igualmente perciben que el profesorado para asegurar un proceso de aprendizaje adecuado dedica más tiempo a prepararse como expertos en la materia que imparte, que a centrarse en el proceso de evaluación, aunque reconocen una gran heterogeneidad en las concepciones y las prácticas de evaluación entre sus profesores (Navarro & Rueda 2009). Por otra parte, los estudiantes perciben que su implicación cognitiva en las diferentes pruebas de evaluación a las que se enfrentan es diferenciada en función del tipo de las mismas, de modo que resulta evidente que los sistemas de evaluación diseñados influyen directamente sobre los procesos de aprendizaje de los universitarios (Navaridas, 2002). Otra de las cuestiones interesantes es la constatación de las claras diferencias entre las percepciones de los estudiantes sobre los sistemas de evaluación vivenciados en la universidad, y las percepciones que los propios profesores tienen de su actuación en esos mismos procesos de evaluación. Las mayores disparidades se hacen visibles en las percepciones relativas a la opinión en torno a la coherencia de los programas con los sistemas de evaluación, a la utilización por parte de los profesores de la evaluación con fines formativos, a la presencia de capacidades cognitivas en la evaluación, y a las posibles causas en cuanto al desarrollo de evaluaciones inadecuadas (Gutiérrez-García et al., 2011); mientras que la diferencia de opinión es menor, aunque existente, en lo relativo a las pruebas de evaluación (Gutiérrez-García et al., 2011); y en cambio son muy similares las percepciones de alumnado y profesorado sobre los procesos de calificación (Gutiérrez-García et al., 2013). Por este motivo, se reconoce la necesidad y la importancia de interrogar al alumnado en las investigaciones, con el objeto de conocer mejor la realidad de lo que acontece en la evaluación en educación superior (Jahangiri, Mucciolo, Choi, & Spielman, 2008). En cuanto a la investigación centrada en las percepciones de los estudiantes en torno a la evaluación formativa en educación superior, se registran resultados que informan tanto sobre los beneficios para el aprendizaje de los estudiantes (Natriello, 1987), como sobre los problemas relacionados con la gestión de dichos sistemas (Hyland, 2013; Jiménez, Navarro, Pintor, & Souto, 2013; Natriello, 1987; William, 2011; Winchester & Winchester, 2012).
La finalidad de este estudio es ahondar en el conocimiento de las percepciones de los estudiantes sobre los sistemas de evaluación formativa vivenciados y compartir el conocimiento hallado para suscitar una mejor comprensión del fenómeno que incite al personal investigador a seguir avanzando en la mejora de los sistemas de evaluación formativa en la formación inicial del profesorado de educación física. Su objetivo es el de describir las percepciones de estudiantes universitarios de último curso, en torno a la evaluación formativa vivenciada en las dos titulaciones públicas de la provincia de Huesca, la de maestro especialidad Educación Física y la de grado en Ciencias de la Actividad Física y del Deporte (CAFDE).
Material y métodos
Los participantes en el estudio fueron estudiantes de dos centros de la Universidad de Zaragoza, pertenecientes a las titulaciones públicas de maestro de EF y grado en CAFDE. Todos ellos presentaron consentimiento informado para participar en la investigación. La muestra fue una población de 50 alumnos de último curso, y se obtuvo a partir de un muestreo no probabilístico deliberado (Hernández, 1998) por posibilidad de acceso a la muestra. La media de edad fue de 23,54 años y prácticamente dos terceras partes de los estudiantes fueron de género masculino (63,6%). El 92% fue alumnado del grado de CAFDE. Más del 80% de los estudiantes afirmó haber asistido al 80% de las sesiones de clase y el 56% declaró haber asistido a más del 90% de las sesiones; una asistencia “alta” a las sesiones de clase que nos ha permitido considerar que las opiniones recogidas pueden ser representativas.
El instrumento de recogida de información y delimitación de variables que se utilizó para el estudio fue un cuestionario elaborado ad hoc denominado “Estudio del sistema de evaluación en la formación inicial del profesorado de educación física”. Se utilizó una escala tipo Likert y cinco puntos de acuerdo. Constaba de cuatro cuestiones preliminares (género, edad, centro de estudios y porcentaje de asistencia a clase) y 10 preguntas con 63 ítems que se organizaban en los cuatro grupos de variables (Tabla 1).
Para realizar la validación del instrumento se siguieron las siguientes fases: (1) Búsqueda documental para identificar las variables y analizar instrumentos aplicados en investigaciones similares (Gutiérrez-García et al., 2011; Heine & Maddox, 2009; MacLellan, 2001); (2) Elaboración del pool inicial de ítems; (3) Revisión del pool por parte de expertos, en relación con los criterios de pertinencia o relevancia, intensidad y claridad; (4) Elaboración de un cuestionario provisional reduciendo los ítems tras las apreciaciones de los expertos; (5) Aplicación de un estudio piloto a alumnos de características similares a las que participaron en el estudio; (6) Vaciado de los datos; (7) Análisis de las características psicométricas. Se analizaron: (a) Validez: al partir de una revisión exhaustiva de investigaciones previas cuyo objetivo e instrumentos aplicados tuvieran un objeto de estudio similar, así como la prueba de jueces realizada con el pool inicial de ítems contribuyeron a la validez del contenido del instrumento; (b) Fiabilidad: los coeficientes Alfa de Cronbach calculados para la escala resultaron satisfactorios. Además, dado que la eliminación de cada uno de los ítems de la escala no suponía ningún incremento significativo en la fiabilidad, se decidió mantenerlos todos para los análisis posteriores; el valor obtenido fue 0,866.
La investigación se llevó a cabo en cuatro fases: (a) Preliminar: revisión bibliográfica; planteamiento del problema, objetivos y diseño metodológico; selección de los sujetos; (b) Elaboración y validación del instrumento tal como se ha descrito; (c) Recogida de datos: administración de los cuestionarios en el curso académico 2010/2011; (d) Análisis de los datos y redacción del informe; tratamiento estadístico de los datos y redacción del informe de datos. Los cuestionarios eran en formato papel y tenían un carácter anónimo.
Los datos se analizaron mediante el paquete estadístico SPSS 17.0. Se calcularon las medias, desviaciones típicas y las frecuencias relativas de cada una de las respuestas. Por errores del sistema se perdieron los datos de la pregunta 2 y por razones de espacio en este artículo se presentan los resultados de las tres primeras dimensiones (Tabla 1).
Resultados
La opinión de los alumnos en cuanto a si existe o no correspondencia entre los programas de las asignaturas y sus sistemas de evaluación, alcanza un valor medio de 2,74 puntos sobre 4 (DE = ,565), es decir, se sitúa próxima a la opción alta (fig. 1).
La coherencia entre el resto de elementos programáticos (finalidades, contenidos, competencias y metodología) y los procedimientos de evaluación, los alumnos la sitúan entre media y alta destacando los contenidos, 2,72, en los que las valoraciones alta y muy alta reúnen las opiniones de más de la mitad de los encuestados (Tabla 2). En relación con la percepción de los estudiantes sobre la presencia de capacidades cognitivas en los sistemas de evaluación vivenciados, las medias de las valoraciones de los alumnos para el 50% de los encuestados, recordar es una competencia cognitiva con una presencia muy alta en los sistemas de evaluación, mientras que aplicar se situaría en segunda posición, comprender en tercera y sintetizar y evaluar o valorar en los últimos puestos.
En cuanto a la percepción de los estudiantes sobre la importancia de las distintas capacidades cognitivas para la formación, a excepción de recordar, todas las medias sobrepasan el valor alta importancia, alcanzando dos de ellas, aplicar y comprender, valores próximos al máximo (3,76 sobre 4). En el extremo opuesto se encuentra recordar con la media más baja (2,3). (Tabla 3).
La frecuencia en la utilización de los trece instrumentos y procedimientos de evaluación propuestos, se distribuye en un amplio espectro que abarca desde el valor 0,36 de media en el caso de los exámenes orales hasta el 3,56 de los informes o trabajos. Estos últimos son muy utilizados pues la práctica totalidad de los encuestados estima su uso como alto o muy alto. De las seis modalidades de exámenes: tres (tipo test, preguntas abiertas y preguntas cortas) presentan medias relativamente altas (próximas al 3); en el extremo opuesto se sitúan el examen con documentos y el examen oral con valores por debajo de 1, siendo especialmente bajo este último caso, del que el 70% de los encuestados dicen que no se emplea nunca (Tabla 4).
Respecto a la coherencia de los instrumentos con el desarrollo de competencias para ser profesor, las prácticas de carácter físico obtienen la media más alta, 3,11 (DE = 0,832) y 3/4 partes del alumnado la consideran alta o muy alta. Otros cinco instrumentos se sitúan por encima de 2,5, por este orden: examen de preguntas abiertas (2,84), informes o trabajos escritos (2,80), control de la participación en el aula (2,78), observación del profesor en clase (2,71) y exámenes de preguntas cortas (2,71).
Discusión y conclusiones
Los estudiantes percibieron una correspondencia media y alta entre el sistema de evaluación programado y el aplicado. También situaron una coherencia entre media y alta entre los procedimientos de evaluación finalmente aplicados con el resto de los apartados del programa docente. Este dato fue algo superior a la resultante en el estudio de Ruiz-Gallardo, Ruiz y Ureña (2013) realizado en otras universidades públicas; las pequeñas diferencias entre estos dos estudios pueden deberse a que, aun tratándose de contextos formativos semejantes, las guías docentes o programas concretos no guardan homogeneidad entre universidades.
Concretando por apartados, el de contenidos fue considerado el más coherente con la evaluación. En el estudio de Lorente, Montilla y Romero (2013) se analizó el grado de definición de los elementos de los programas docentes universitarios y la coherencia entre ellos, concluyendo que el apartado de contenidos era el más definido, lo que nos induce a pensar que al ser el apartado que por referirse a la idiosincrasia de la materia y diferir claramente entre unas asignaturas y otras, sea más fácilmente reconocible y, al identificarlo mejor, lo puntúen más manteniendo, por tanto, una orientación tradicionalista. El resto de elementos programáticos obtienen valores más bajos, en línea con el análisis de programas de Lorente et al. (2013) y con la opinión de los alumnos del estudio comparativo profesores-alumnos de Ruiz-Gallardo et al. (2013), destacando en este último las discrepancias notables entre los dos colectivos mencionados; no obstante, estos autores recomiendan una constante retroalimentación para la detección de incoherencias y su corrección, afirmación con la que coincidimos plenamente.
Nuestros estudiantes consideran que se han activado más las capacidades de menor implicación cognitiva, es decir, las situadas en los puestos más bajos de la escala de Bloom (1979), concretamente la capacidad de recordar o conocer, es la que obtiene valores más altos, decreciendo el resto progresivamente. Este resultado concuerda con los estudios de Mintz y Tal (2014), Gutiérrez-García et al. (2013) y de Ruiz-Gallardo et al. (2013), en los que alumnado y profesorado coinciden en que aun habiendo presencia de habilidades cognitivas de orden superior en el proceso de enseñanza-aprendizaje, estas no aparecen reflejadas en la evaluación, y consideran que aunque el profesor “se esfuerza porque el sistema de evaluación sea poco memorístico y más aplicativo o reflexivo, al final el estudiante lo que percibe es que, como siempre, lo que tiene que hacer es estudiar, para básicamente, recordar” (p. 25). Todo ello nos plantea el reto de adecuar las propuestas formativas en educación universitaria a la adquisición de competencias cognitivas complejas, o por lo menos, a buscar un equilibrio entre todas o a poner en relieve las de orden superior (Biggs, 2005).
Este estudio muestra que el uso de instrumentos entre el profesorado es muy diferente; los informes o trabajos son los instrumentos más utilizados en opinión de nuestros estudiantes a una distancia considerable de los exámenes escritos (preguntas cortas, test, preguntas abiertas o preguntas cerradas) que ocupan los siguientes lugares. Esta opinión diverge de otros estudios en los que los alumnos sitúan los exámenes en primer lugar, (como el de Gutiérrez-García et al., 2013) en el que además los alumnos indican que el examen es usado siempre, o casi siempre, como único medio de calificación.
Los datos sobre informes o trabajos nos hacen ser optimistas, ya que se consideran instrumentos más proclives a la aplicación de una evaluación formativa. Sin embargo los exámenes, en su conjunto, son el segundo instrumento de evaluación más utilizado; pues bien a pesar de que Castejón, Capllonch, González y López-Pastor (2009) consideran que los exámenes pueden tener un carácter formativo, esta posición no parece ser mayoritaria en la literatura; por ejemplo, Navarro y Rueda (2009) y Rincón y González (2010), evidencian la creencia de los estudiantes de que los sistemas de evaluación se decantan más hacia la medición que hacia la formación, ya que las pruebas objetivas (se desprende que se refieren a exámenes) eran las protagonistas en los porcentajes de calificación. Además la naturaleza de un examen puede permitir a un estudiante tener buenos resultados aun obteniendo un aprendizaje superficial, como constatan Asikainen, Parpala, Virtanen y Lindlblom- Ylänne (2013).
Estas cuestiones conllevan la reflexión sobre la pertinencia y la coherencia de la aplicación de exámenes de corte tradicional en el actual contexto formativo; posiblemente lo más adecuado sea plantear una estudiada variedad de instrumentos, si como concluía el estudio de Navaridas (2002) los estudiantes utilizan estrategias cognitivas diferenciadas en función de las pruebas de evaluación a las que se enfrentan, pues en su estudio resultaba evidente que los sistemas de evaluación diseñados influyeron directamente sobre los procesos de aprendizaje de los universitarios. Por tanto, los profesores necesitan disponer de habilidades de evaluación suficientes para diseñar y gestionar los procedimientos de evaluación con el objetivo de conseguir estrategias cognitivas avanzadas en los estudiantes y como ratifica el estudio de Christoforidou, Kyriakides, Antoniou, & Creemers (2014) mejores resultados de aprendizaje para los estudiantes.
En cuanto a la percepción de utilidad de las mismas para su formación, en este caso orientada a las competencias profesionales docentes, los alumnos estiman que las prácticas de carácter físico como instrumento de evaluación son el mejor modo de identificar su competencia profesional, lo que respondería a una percepción de la profesión docente en EF, próxima a un conocimiento práctico de los contenidos de la materia tal y como expone Contreras (1998). Este dato apunta también a un deseo detectado en la formación inicial de disponer de recursos inmediatos para la aplicación en los distintos contextos profesionales, coincidente con lo que Marcelo (2009) identifica como la etapa de las preocupaciones por los cómo (cómo gestionar el grupo, cómo organizar el currículo, cómo evaluar, etc., más que los por qué y los cuándo.
Como conclusión decir que las percepciones de los estudiantes son de enorme interés al aportar una visión que se convierte en una oportunidad para mejorar los programas y la labor docente; desde su percepción se constata la necesidad de replantearse el tipo de capacidades cognitivas que los estudiantes universitarios deben activar en los sistemas de evaluación, ya que estos perciben que se manejan sobre todo las más sencillas, lo que no guarda relación con el nivel formativo superior; se evidencia que debe mejorarse la alineación entre evaluación y otros elementos programáticos: finalidades, contenidos, competencias y metodología; se identifican formas de evaluar del profesorado pero también de entender la profesión docente por parte de los estudiantes, que responden a modelos tradicionales y que convendría replantearse en el contexto formativo actual.
En relación a la prospectiva del estudio algunas propuestas serían: (1) Recabar información sobre las percepciones de nuestros estudiantes mediante otros procedimientos como la utilización de los relatos escritos de la evaluación del proyecto realizada por ellos en la línea de Rivera et al. (2012). (2) Ampliar nuestro análisis a la opinión de los profesores y egresados ya que en la revisión se observan estudios en los que se ponen de manifiesto discrepancias entre las percepciones de alumnos y profesores que sin duda aclararán nuestros objetivos de investigación.
Conflicto de intereses
Ninguno.
Agradecimientos
Al Proyecto de Investigación EDU 2010-19637 (subprograma EDUC), denominado “La evaluación en la formación inicial del profesorado de educación física” Plan nacional de proyectos I+D+i 2008-2011.
Referencias
Asikainen, H., Parpala, A., Virtanen, V. & Lindlblom-Ylänne, S. (2013). The relationship between student learning process, study success and the nature of assessment: A qualitative stady. Studies in Educational Evaluation, 39(4), 211-217. doi:10.1016/j.stueduc.2013.10.008
Bigss, J. (2005). Calidad del aprendizaje universitario. Madrid: Narcea. Bloom, B. (Ed.) (1979). Taxonomía de los objetivos de la educación. Clasificación de las Metas Educativas. Ámbito del conocimiento. Alcoy: Marfil.
Boud, D., & Falchikov, N. (2007). Rethinking Assessment in Higher Education.Learning for the long term. Londres: Routledge.
Buscá, F., Rivera, E. & Trigueros, C. (2012). La credibilitat del sistema d’avaluació formativa en la formació inicial del professorat d’educació física. Temps d’Educació (43), 167-184.
Carless, D., Joughin, G., & Mok, M. C. M. (2006). Learning-oriented assessment: principles and practice. Assessment & Evaluation in Higher Education (31), 395-398.
Castejón, F. J., Capllonch, M., González, N., & López-Pastor, V. M. (2009). Técnicas e instrumentos de evaluación. En V. M. López-Pastor (Ed.), Evaluación Formativa y Compartida en Educación Superior (pp. 65-92), Madrid: Narcea.
Christoforidou, M., Kyriakides, L., Antoniou, P., & Creemers, B. P. M. (2014). Searching for stages of teacher’s skills in assessment. Studies in Educational Evaluation, 40, 1-11. doi:10.1016/j.stueduc.2013.11.006
Contreras, O. R. (1998). Didáctica de la Educación Física. Un enfoque constructivista. Barcelona: INDE.
Falchikov, N. (2005). Improving Assessment Through Student Involvement. Practical solutions for aiding learning in higher and further education. Londres: Routledge.
Fraile, A., & Cornejo, P. (2012). La evaluación formativa en la enseñanza universitaria: una experiencia de innovación educativa con estudiantes de Educación Física. Revista de evaluación educativa, 5(1). Recuperado de http://revalue.mx/revista/index.php/revalue/issue/current
Fraile, A., López-Pastor, V. M., Castejón, F., & Romero, M. R. (2013). La evaluación formativa en docencia universitaria y rendimiento académico del alumnado. Revista Aula Abierta, 41(2), 23-34.
Gulikers, J. T. M., Harma, J. A., Biemans, R., & Wesselink, M. W. (2013). Aligning formative and summative assessments: A collaborative action research challenging conceptions. Studies in Educational Evaluation, 39(2), 116-124. doi:10.1016/j.stueduc.2013.03.001
Gutiérrez-García, C., Pérez-Pueyo, A., & Pérez-Gutiérrez, M. (2013). Percepciones de profesores, alumnos y egresados sobre los sistemas de evaluación en estudios universitarios de formación del profesorado de educación física. Ágora para la EF y el deporte (15), 130-151.
Gutiérrez-García, C., Pérez-Pueyo, A., Pérez-Gutiérrez, M., & Palacios-Picos, A. (2011). Percepciones de profesores y alumnos sobre la enseñanza, evaluación y desarrollo de competencias en estudios universitarios de formación de profesorado. Cultura y Educación: revista de teoría, investigación y práctica, 23(4), 499-514.
Heine, P., & Maddox, N. (2009). Student perceptions of the faculty evaluation process: An exploratory study of gender and class differences. Research in Higher Education Journal (3), 1-10.
Hernández, F. (1998). Conceptualización del proceso de la investigación educativa. En L. Buendía, P. Colás & F. Hernández (Eds.), Métodos de investigación en Psicopedagogía (pp. 1-60). Madrid: McGrawHill.
Hyland, K. (2013). Student perceptions of hidden messages in teacher written feedback. Studies in Educational Evaluation, 39(3), 180-187. doi:10.1016/j.stueduc.2013.06.003
Jahangiri, L., Mucciolo, T. V., Choi, M., & Spielman, A. I. (2008). Assessment of Teaching Effectiveness in U.S. Dental Schools and the Value of Triangulation. Journal of dental education, 72(6), 707-718.
Jiménez, F., Navarro, V., Pintor, P., & Souto, R. (2013). Innovación en las enseñanzas universitarias. En H. Marrero (Ed.). Innovación en las enseñanzas universitarias: experiencias presentadas en las III Jornadas de Innovación Educativa de la ULL (pp. 145-164). La Laguna: Universidad de La Laguna, Servicio de Publicaciones. Recuperado de http://dialnet.unirioja.es/servlet/libro?codigo=539770
López-Pastor, V. M. (2011). Best practices in Academic Assessment in Higher Education: a Case in Formative and Shared Assessment. Journal of Tecnology and Science Education, 1(2), 25-39. doi:10.3926/jotse.20
Lorente, E., & Kirk, D. (2013). Alternative democratic assessment in PETE: an action-research study exploring risks, challenges and solutions. Sport Education and Society, 18(1), 77-96. doi:10.1080/13573322.2012.713859
Lorente, E., Montilla, M. J., & Romero, M. R. (2013). Grado de definición y coherencia de los programas de expresión corporal en las titulaciones universitarias de educación física. REVALUE. Revista de evaluación educativa, 2(1), 21-39. Recuperado de http://revalue.mx/revista/index.php/revalue/article/view/47
MacLellan, E. (2001). Assessment for learning: the differing perceptions of tutors and students. Assessment and Evaluation in Higher Education, 26(4), 307-318.doi:10.1080/02602930120063466
Marcelo, C. (2009). Políticas de inserción a la docencia: de eslabón perdido a puente para el desarrollo profesional docente. En C. Marcelo (Ed.), El profesorado principiante. Inserción a la docencia (pp. 7-58). Barcelona: Octaedro.
Mintz, K., & Tal, T. (2014). Sustainability in higher education courses. Multiple learning outcomes. Studies in Educational Evaluation, 41, 113-123. doi:10.1016/j.stueduc.2013.11.003
Muros, B., & Luis-Pascual, J. C. (2012). Aprendizaje, capacidades cognitivas y evaluación formativa en formación inicial del profesorado. Revista de Ciencias de la Educación (230), 172-182.
Natriello, G. (1987). The impact of evaluation processes on students. Educational Psychologist, 22(2), 155-175. doi:10.1207/s15326985ep2202_4
Navaridas, F. (2002). La evaluación del aprendizaje y su influencia en el comportamiento estratégico del estudiante universitario. Contextos Educativos (5), 141-156. doi:10.18172/con.509
Navarro, G. I., & Rueda, M. (2009). La evaluación de los aprendizajes desde la perspectiva estudiantil, en dos carreras de Ciencias de la educación en México y Francia. Perfiles Educativos, 31(126), 30-55.
Rincón, B., & González, J. L. (2010). La voz de los estudiantes en el EEES: Valoraciones sobre la implantación de los ECTS en la UCLM. Revista Docencia e Investigación (20), 59-85.
Rivera, E., Trigueros, C., Moreno, A., & De la Torre, E. (2012). El papel de la autoevaluación en el proyecto interdisciplinar: formar docentes, formar personas. Una mirada desde la óptica de los estudiantes. Psychology Society & Educatión, 4(1), 13-28.
Ruiz-Gallardo, J. R., Ruiz, E., & Ureña, N. (2013). La evaluación en la formación inicial del profesorado: qué creemos hacer y qué perciben los alumnos. CCD. Cultura Ciencia Deporte, 8(22), 17-29. doi:10.12800/ccd.v8i22.220
William, D. (2011). What is assessment for learning? Studies in Educational Evaluation, 37(1), 3-14. doi:10.1016/j.stueduc.2011.03.001
Winchester, M. K., & Winchester, T. M. (2012). If you build it will they come? Exploring the student perspective of weekly student evaluations of teaching. Assessment & Evaluation in Higher Education, 37(6), 671-682. doi:10.1080/02602938.2011.563278
Notas de autor