Resumen: Estudios recientes revelan avances puntuales en algunas disfuncionalidades clásicas de la evaluación del aprendizaje universitario. Su desarrollo se vincula a la construcción de un nuevo paradigma evaluativo, ligado al Espacio Europeo de Educación Superior y caracterizado en cinco retos de mejora: continuidad sensible de la evaluación, orientación estratégica al aprendizaje, tareas e instrumentos para el desarrollo y acreditación de competencias, explicitación e interiorización de criterios y condiciones evaluativas y participación discente. Este trabajo contrasta la visión de los mismos en una muestra de estudiantes y profesorado de los Grados de Educación Infantil y Primaria. La indagación se ha realizado por medio de un cuestionario, basado en rúbricas que detallan distintos grados de aceptación y cumplimiento en cada uno de los retos. Los resultados revelan que los cinco se juzgan relevantes, sin que se produzcan discrepancias en la aceptación declarada por docentes y discentes. Las diferencias detectadas dentro del intervalo de confianza tienen un efecto de tamaño pequeño y hacen referencia al grado de cumplimiento percibido en tres retos en particular. Al tratar la Explicitación de la evaluación y su Continuidad sensible, el alumnado describe un cumplimiento significativamente inferior, asociado a una menor explotación de la funcionalidad pedagógica de la evaluación. Los estudiantes reconocen que la evaluación no solo se realiza al final, aunque tampoco creen que se desarrolle de manera sensible e integrada como afirma el profesorado. Asimismo, admiten disponer de información sobre las condiciones evaluativas, pero niegan la realización de tareas que contribuyan a su clarificación. Al valorar la participación discente en la evaluación, ambos sectores de la muestra reconocen una consecución insuficiente, aunque los promedios de respuesta del alumnado son significativamente menores. Estos resultados sugieren que a pesar de los avances advertidos en la forma, en el fondo la evaluación sigue representando una herramienta principalmente acreditativa.
Palabras clave:EvaluaciónEvaluación,Enseñanza SuperiorEnseñanza Superior,Evaluación formativaEvaluación formativa,Evaluación continuaEvaluación continua,AutoevaluaciónAutoevaluación,Evaluación por paresEvaluación por pares,CoevaluaciónCoevaluación.
Abstract: Recent studies reveal punctual advances in some of the classical malfunctions of the university learning assessment. Its development is linked to the construction of a new assessment paradigm, based on the European Higher Education Area and featured by five main improvement challenges: Sensitive continuity of the evaluation, Strategic orientation to learning, Tasks and instruments for competency development and accreditation, Transparency and deep understanding of the assessment criteria and Student participation. This paper contrasts the perception of these challenges in a sample of students and teachers involved in educational degrees. The inquiry was carried out by means of a questionnaire, based on rubrics which detail five acceptance and fulfilment levels in relation to each challenge. The results disclose that the five of them are considered important and there is no divergence in the acceptance declared by both teachers and students. The differences found in the confidence interval have a small effect and refer to the degree of compliance particularly noticed in three of the challenges. Students describe a significantly inferior fulfilment when addressing the transparency in assessment criteria and the sensitive continuity, connected to the lower use of the formative function of the assessment. Students recognise that the assessment does not only come at the end, but they do not think it is developed in a sensitive and integrated way, as teaching staff state. They also acknowledge having information about the assessment criteria, but they reject the carrying out of tasks focused on explaining the same. Both sectors of the sample recognise insufficient achievement in relation to the student participation, although the average from the students’ answers is significantly inferior. These results suggest that despite the advances observed on its form, the assessment still represents a mainly certifying tool.
Keywords: Assessment, Graduate Study, Formative evaluation, Continuous assessment, Self-assessment, Peer-assessment, Co-assessment.
Estudios
AVANCES Y LIMITACIONES EN LA EVALUACIÓN DEL APRENDIZAJE A PARTIR DEL PROCESO DE CONVERGENCIA. VISIÓN DOCENTE Y DISCENTE EN LOS GRADOS DE EDUCACIÓN INFANTIL Y PRIMARIA
ASSESSMENT PROGRESS AND LIMITATIONS AFTER THE CONVERGENCE PROCESS: STUDENT AND TEACHER PERCEPTION ON THE PRE-SERVICE TEACHER TRAINING

Recepción: 11 Octubre 2017
Aprobación: 17 Mayo 2018
La evaluación del aprendizaje universitario representa un foco clásico de atención dentro de la investigación educativa. Lejos de agotar su interés, la búsqueda de modelos didácticos acordes al paradigma formativo del Espacio Europeo de Educación Superior (EEES) ha desembocado en una nueva fase de efervescencia. Esta se hace patente en las dos últimas décadas, donde se aprecia un aumento reseñable del número de publicaciones centradas en la temática evaluativa (ver Figura 1).
Además de un interés creciente, esta evolución sugiere un cierto avance en la forma de realizar la evaluación. Así se constata al comparar las prácticas evaluativas descritas en el contexto universitario español antes de iniciarse el proceso de convergencia (1990-1999), en su construcción (2000-2009) o en la fase actual de revisión y consolidación (2010-2019).

Nota. La búsqueda se centra en dos bases de datos e incluye aquellos trabajos que lleven en el título el término Evaluation o Assessment. En la Web of Science se ha limitado la indagación a la categoría Education, educational research; en Scopus al área de las Ciencias Sociales. Consulta realizada el 24/04/2018.
Los diagnósticos efectuados en la fase previa del proceso de convergencia devuelven una imagen de la evaluación del aprendizaje negativa, repleta de síntomas de disfuncionalidad. Centrados en el punto de vista del alumnado (Fernández, 1989; Flórez, 1999), del profesorado (Rodríguez, 1998; Trillo y Porto, 1999) o en el contraste de ambos (Tejedor, 1999), sus conclusiones convergen en la descripción de una evaluación autocrática, final y acreditativa, poco explicitada y de escaso impacto formativo. Estas limitaciones se encuentran ampliamente referidas en la literatura específica, calificadas como patologías o esquizofrenias evaluativas (López, 2004). Fuera del ámbito nacional, también se produce gran concordancia al enumerar las principales limitaciones en las que se desarrolla la evaluación del aprendizaje universitario (Stiggins, 1999).
Avanzar en un nuevo paradigma formativo es incompatible con la persistencia de los modelos de evaluación tradicionales (Cano y Ion, 2012). Desde esa perspectiva, la apuesta por una formación universitaria centrada en el aprendizaje de competencias exige el desarrollo de nuevas prácticas evaluativas que la sustenten. Su revisión debe transitar sobre cinco grandes líneas de avance y mejora, derivadas de las demandas formativas del EEES:
La exploración de nuevas técnicas e instrumentos que aporten evidencias sobre el desarrollo de competencias, sin limitarse al dominio de contenidos aislados.
La explicitación de los aprendizajes a realizar y de las condiciones para su evaluación, de modo que se avance en prácticas evaluativas más transparentes, que contribuyan a la clarificación e interiorización de los indicadores de logro definidos.
La ampliación de los agentes intervinientes en la evaluación, de modo que el alumnado ejerza activamente el protagonismo que le corresponde en la formación y disponga de recursos para auto-regular su aprendizaje.
La explotación de la funcionalidad pedagógica de la evaluación, de modo que sirva de herramienta didáctica para el desarrollo y fortalecimiento del aprendizaje, no solo para su acreditación.
Unido a ello, el desarrollo de sistemas de evaluación continua, que proporcionen evidencias sobre el desarrollo de competencias en las distintas fases del proceso formativo, sin ejercer una presión excesiva que perjudique el aprendizaje.
Ampliamente representados en la literatura específica, los retos de mejora enumerados conectan con la superación de algunas de las disfuncionalidades más clásicas atribuidas a la evaluación. Aunque su formulación parta del proceso de convergencia, las orientaciones evaluativas resultantes guardan gran correspondencia con las definidas desde la perspectiva teórica de la evaluación para el aprendizaje (Palacios y López, 2013; Pereira, Flores, y Niklasson, 2016). Coincidiendo con su difusión, los estudios referidos a esta fase de construcción comienzan a mostrar ciertos cambios en la praxis evaluativa:
Se reduce el predominio de la evaluación final, reconocido por buena parte del profesorado en los primeros años de la década (Nieto, 2000; Pérez, Reyes, Palma, y Rafel, 2000). Los programas docentes y la normativa que regula su ejercicio en la universidad comienzan a definir la evaluación como un proceso continuo, presente en las distintas fases del ciclo formativo (Ibarra y Rodríguez, 2010; Padilla, Rodríguez, Gil, López, y Clarés, 2010). Asimismo, aumentan los estudios que recogen el compromiso práctico del profesorado en la articulación de sistemas de evaluación continua (Arribas, Carabias, y Monreal, 2010; Olmos y Rodríguez, 2010).
A medida que avanza la década, se detecta la proliferación de nuevas herramientas evaluativas, orientadas al desarrollo y acreditación de competencias (Buscà, Pintor, Martínez, y Peire, 2010; Ibarra y Rodríguez, 2010). Sin embargo, persiste el protagonismo del examen, típicamente centrado en tareas de evocación de contenidos, más que en su aplicación y transferencia (Cid-Sabucedo, Pérez-Abellás, y Zabalza, 2009).
Frente a falta de información acusada en la fase anterior (Fernández, 1989; Rodríguez, 1998), las programaciones docentes y la normativa evaluativa muestran un avance en la explicitación y transparencia de los criterios y condiciones que rigen la evaluación del aprendizaje (Ibarra y Rodríguez, 2010; Padilla et al., 2010).
Aunque la heteroevaluación docente sigue representando la principal modalidad evaluativa, se acusa un cierto avance en el desarrollo de prácticas evaluativas de autoevaluación y coevaluación (Álvarez, 2008; Bretones, 2008; Brew, Riley, & Walta, 2009).
Inmersos en la recta final de la fase de revisión y consolidación, la evaluación del aprendizaje permanece entre los grandes retos pedagógicos a superar. El número de publicaciones sobre el tema se sigue incrementando. Continúan apareciendo estudios que ahondan en los cambios iniciados en la fase anterior, especialmente en lo que concierne a la continuidad, la instrumentación, los agentes y la explicitación de la evaluación. Sin embargo, a pesar del avance constatado respecto a las dos últimas décadas, las áreas de mejora atribuidas a la evaluación siguen poniendo de manifiesto la necesidad de reforzar su funcionalidad pedagógica (Canabal y Margalef, 2017; Gutiérrez, Pérez, y Pérez, 2013; Hortigüela, Pérez, y Abella, 2015a; Villa, Campo, Arranz, Villa, y García, 2013). La aproximación al EEES parece haber propiciado cierta evolución pero, en esencia, la evaluación sigue presentándose como un elemento prioritariamente final y acreditativo, asociado usualmente a exámenes y sensaciones negativas.
Consolidando la tendencia iniciada en la década de la anterior, estudios recientes señalan la generalización de los sistemas de evaluación continua (Fraile, López, Castejón, y Romero, 2013; Hortigüela, Pérez, y López, 2015b). Sin embargo, existen indicios que llevan a pensar que el incremento en la frecuencia evaluativa se ha desarrollado al margen de su misión formativa (Hamodi y López, 2012; Hortigüela et al., 2015a; Villa et al., 2013). Esta circunstancia suscita en la literatura una inquietud creciente, ante los riesgos de incurrir en sistemas que hagan de la evaluación continua una sucesión de demandas acreditativas, poco sensibles con el proceso de construcción del aprendizaje discente (Monereo y Castelló, 2009; Sabirón y Arraiz, 2013).
Estudios desarrollados en esta última década revelan que estudiantes y profesorado admiten la diversidad metodológica en la práctica evaluativa, aunque no su aplicación normalizada (Gutiérrez, Pérez, Pérez, y Palacios, 2011; Martínez, Castejón, y Santos, 2012; Martínez-Mínguez y Flores, 2014; Pereira et al., 2016). Al igual que en la fase de construcción, el examen conserva su peso y presencia prioritaria en los sistemas evaluativos empleados (Gil-Flores, 2012). Le siguen los informes o trabajos escritos, que comparten la tendencia de centrar la evaluación en procesos de elaboración teórica, más que en capacidades cognitivas de orden superior (Asún, Romero, y Chivite, 2017; Christoforidou, Kyriakides, Antoniou, & Creemers, 2014).
La investigación específica pone de manifiesto discrepancias entre docentes y discentes a la hora de juzgar el grado de explicitación de las condiciones evaluativas (Gutiérrez et al., 2013; Martínez et al., 2012; Martínez-Mínguez y Flores, 2014). En términos generales se reconoce una correcta labor de difusión; incluso para el alumnado, que ostenta una visión más crítica de la realidad evaluativa, la claridad de la información destaca entre las mayores fortalezas (Gil-Flores, 2012). Sin embargo, el trabajo específico sobre los criterios de evaluación comunicados sigue sin figurar entre las prácticas habituales (Rodríguez, Ibarra, Gallego, López, y Quesada, 2012).
A pesar del desarrollo y proliferación experimentados en la década anterior, estudiantes y profesorado consideran que las fórmulas de evaluación participativa siguen representando una alternativa puntual y minoritaria (Gallardo-Fuentes, López-Pastor, y Carter, 2017; Gutiérrez et al., 2011; Rodríguez et al., 2012). Este predominio de la heteroevaluación docente se considera inconsistente con los planteamientos del EEES (Bretones, 2008; Ibarra y Rodríguez, 2010; Sayós, 2010) y tampoco contribuye a la autorregulación del aprendizaje (Brown, 2015; Hortigüela et al., 2015b).
En suma, los avances descritos señalan cambios puntuales en la práctica evaluativa, aunque en el fondo siguen siendo reconocibles los modelos de evaluación tradicional y sus clásicas limitaciones (Asún et al., 2017; Palacios y López, 2013). A pocos años de rebasar la fase de Revisión y consolidación, esta conclusión debería conducir a la detección de nuevas líneas de actuación para que el paradigma evaluativo en la universidad realmente consolide el paradigma de aprendizaje que subyace al EEES.
El trabajo presentado tiene por objeto contrastar el punto de vista que manifiestan alumnado y profesorado con respecto a la aceptación y el grado de cumplimiento de los principales retos evaluativos ligados al paradigma formativo del EEES (Continuidad sensible de la evaluación, Orientación estratégica al aprendizaje, Tareas e instrumentos para la evaluación de competencias, Explicitación e interiorización de criterios y Participación discente).
Su estudio se ha efectuado por medio de un diseño no experimental de finalidad descriptiva. Desarrollado en el marco institucional de la Universidad de Deusto (UD) y el centro adscrito Begoñako Andra Mari (BAM) de Bilbao, representa un estudio de caso focalizado en los Grados de Educación Infantil y Primaria. La población de referencia la conforman los estudiantes (N = 1693) y profesores (N = 67) adscritos a ambos centros y titulaciones.
Los datos presentados proceden de una muestra productora compuesta por 704 estudiantes y 51 docentes. Su selección se ha llevado a cabo por medio de un muestreo no probabilístico accidental, logrando una representación total del 76,5% en la población docente y del 41,5% en la del alumnado.
Desde un enfoque metodológico cuantitativo, el análisis atiende a la visión que manifiestan estudiantes y profesorado sobre el grado de aceptación y el cumplimiento en los cinco retos evaluativos destacados.
La aceptación de los retos se determina por medio de una escala ordinal, configurada en función del grado de importancia atribuida: 1 (Irrelevante), 2 (Poco relevante), 3 (Relevancia moderada), 4 (Relevante) y 5 (Muy relevante).
Para cuestionar el grado de cumplimiento percibido, por cada reto se ofrece una rúbrica con descriptores específicos para cinco niveles de logro: 1 (Inadecuado), 2 (Poco adecuado), 3 (Adecuado), 4 (Muy adecuado) y 5 (Excelente). La Tabla 1 resume su definición operativa, que parte del cuestionario para el diagnóstico de la competencia evaluativa presentado por Bilbao (2015). Dicha herramienta responde a un modelo teórico que delimita ocho dimensiones clave en la praxis evaluativa, desarrollas por medio de un sistema de 19 indicadores y sus respectivos descriptores de logro. Los cinco retos estudiados hacen referencia solo a tres de ellas (planificación estratégica, clarificación de criterios y condiciones, y evaluación participativa)1.

Para acceder a las valoraciones de ambos sectores de la muestra se han configurado dos cuestionarios paralelos. Su validez de contenido reposa sobre el modelo teórico en el que se basan, elaborado a partir de referencias actuales y relevantes, entre las que se incluye la consulta experta (Bilbao, 2015). Los datos relativos a la validez de estructura interna proceden de la aplicación completa de las herramientas y han sido verificados por medio de un análisis factorial exploratorio por componentes principales. Las soluciones factoriales resultantes reducen las ocho dimensiones del modelo teórico original en seis factores, que explican el 77,43% de la varianza en el cuestionario docente y el 61,36% en el del alumnado.
Entendida como consistencia interna, el Alfa de Cronbach revela una fiabilidad satisfactoria para ambos instrumentos, con puntuaciones superiores al .85 en ambas sub-escalas (aceptación y cumplimiento).
La información recopilada ha sido analizada por medio de estadísticos descriptivos y de inferencia bivariable. Por incumplimiento ostensible de los supuestos de normalidad, homocedasticidad y fortaleza de medida, se ha recurrido a técnicas estadísticas no paramétricas, ejecutadas por medio del programa SPSS (versión 23). Para contrastar la percepción de relevancia y cumplimiento de estudiantes y profesorado se ha aplicado la U de Mann Whitney, asumiendo un nivel de significación del 5% (p < .05). Para profundizar en las diferencias detectadas dentro del intervalo de confianza (IC = 95%), se han efectuado dos cálculos complementarios:
Tamaño del Efecto (TE) por medio de la r de Rosenthal, que permite discriminar discrepancias de magnitud pequeña (r < .1), media (.1 < r < .3) o grande (r > .5) (Rosenthal, 1991).
Prueba Chi-cuadrado y representación de tablas de contingencia, que permiten discriminar la concentración de estudiantes y profesorado en las diversas opciones de respuesta.
Analizados por medio de la U de Mann-Whitney, los promedios de importancia registrados no difieren significativamente (p > .05) entre estudiantes y profesorado. Las valoraciones producidas están muy próximas entre sí y denotan una buena aceptación de los retos evaluativos planteados. Los promedios de respuesta oscilan en torno al 4, lo que denota que se consideran aspectos Relevantes (ver Figura 2).

Los resultados representan el mismo patrón de respuesta en docentes y discentes. Para ambas fuentes la Continuidad sensible representa el indicador más importante, seguido de las Tares e Instrumentos puestos al servicio de la evaluación. En el extremo opuesto, la Evaluación participativa destaca como el menos relevante de los retos considerados. Salvo en la Orientación estratégica de la evaluación, los promedios de importancia más elevados se registran entre el alumnado.
Las valoraciones registradas al calificar el grado de consecución percibido en los retos son menores y más dispares (Figura 3). Salvo en las Tareas e instrumentos para la evaluación de competencias, el alumnado manifiesta una visión más crítica, que sitúa el cumplimiento por debajo de la media teórica (M < 3). En el sector docente, eso solo sucede al describir la Participación discente en la evaluación.

La U de Mann-Whitney revela diferencias estadísticamente significativas (p > .05) en tres de los indicadores considerados (ver Tabla 2), todas ellas sujetas a un tamaño de efecto pequeño.
La prueba Chi-cuadrado determina que docentes y discentes se sitúan en posiciones significativamente diferentes al describir el grado de Continuidad sensible (p = .008). En ambos casos, la alternativa más elegida es aquella que describe una práctica evaluativa muy adecuada (continua y de intensidad graduada), donde se concentra el 50% del profesorado participante y el 31,9% del alumnado (ver Tabla 3). Las diferencias principales se producen en las categorías inferiores, donde hay mayor proporción de estudiantes, y en la superior, donde la tendencia se invierte.


La prueba Chi-cuadrado revela percepciones significativamente diferentes entre ambas fuentes al describir el grado de cumplimiento asociado a la Explicitación e interiorización (p = .001) (Tabla 2). Desde la perspectiva docente la publicidad de la evaluación está adecuadamente garantizada (ver Tabla 4). Señalada por el 42% del profesorado, la explicitación escrita, junto a una presentación inicial y acciones de clarificación durante el curso representa la opción más elegida; otro 26% declara proporcionar además recursos de apoyo para facilitar al alumnado la apropiación de los logros requeridos. En cambio, el 15,5% de las/os estudiantes acusa un cumplimiento inadecuado del reto, afirmando disponer solo de la información explicitada en el programa y/o guía docente. La alternativa más señalada es aquella que agrega una presentación inicial del sistema de evaluación, donde se sitúa el 36,8% de la respuesta discente. El nivel de realización adecuado, caracterizado por la realización de acciones específicas de clarificación, se suscribe en menor medida (25%).

La Evaluación participativa representa el factor menos realizado para ambos sectores de la muestra. La prueba Chi-cuadrado no determina una concentración significativamente diferente de docentes y discentes en las cinco opciones de respuesta (p = .067) (Tabla 2). De ello se deduce que las diferencias captadas por medio de la U de Mann-Whitney afectan más a la intensidad de la apreciación, que a su dirección. Para el profesorado la consecución de este indicador no alcanza el nivel de lo adecuado (M = 2,34; s = 1,00). El 22% reconoce no realizar ninguna evaluación participativa, el 36% emplearla puntualmente y el 30% de forma limitada a lo largo del proceso. El promedio de respuesta discente es menor aún (M = 1,99; s = 1,06), debido a una mayor concentración de casos en la categoría de evaluación no participativa (cumplimiento inadecuado, 44%). El porcentaje de estudiantes que reconoce una participación puntual o una intervención limitada durante el proceso (corrección de tareas fundamentalmente) desciende al 26,8% y al 20,3%, respectivamente.
Las visiones puestas de manifiesto por estudiantes y profesorado toman distancia de las disfuncionalidades evaluativas clásicas, pero coinciden en determinar un evidente desajuste entre la importancia y el cumplimiento atribuido a los indicadores analizados. Su respuesta difiere de acuerdo a una tendencia, ampliamente reportada en estudios anteriores (Gutiérrez et al., 2011; Martínez-Mínguez y Flores, 2014; Tejedor, 1999; Romero, Castejón, y López, 2015), donde el alumnado ofrece mayores estimaciones sobre la importancia y puntuaciones menores al juzgar el grado de realización.
Dentro del patrón de respuesta descrito, las diferencias estadísticamente significativas detectadas son de tamaño pequeño y afectan únicamente al cumplimiento atribuido por ambas fuentes a los indicadores Evaluación participativa, Explicitación y clarificación y Continuidad sensible.
Para estudiantes y profesorado, la Evaluación participativa constituye el indicador menos relevante y menos llevado a cabo, configurando un área de mejora evidente, pero no prioritaria. A pesar de la vinculación natural de los Grados de Educación Infantil y Primaria con la capacitación evaluativa, predomina la heteroevaluación y ambas fuentes describen una intervención discente puntual, centrada principalmente en tareas de corrección durante el proceso formativo. Esta incidencia limitada de la evaluación participativa ya ha sido referida en otros estudios desarrollados en el ámbito específico de la formación básica del profesorado a nivel nacional (Arribas et al., 2010; Gutiérrez et al., 2013) e internacional (Gallardo-Fuentes y Carter, 2016; Gallardo-Fuentes et al., 2017). Representa una conclusión recurrente, incluso cuando estudiantes y profesorado reconocen beneficios pedagógicos y un mejor rendimiento al emplear formatos de evaluación participativa (Ibarra y Rodríguez, 2014; Romero et al., 2015). De acuerdo con las virtudes descritas en la literatura específica, esta tendencia conlleva el desaprovechamiento de una vía privilegiada para contribuir al desarrollo de la autonomía y la capacidad evaluativa del alumnado (Álvarez, 2008; Brown, 2015).
Confirmando la discrepancia constatada en estudios realizados en el mismo contexto formativo (Arribas et al., 2010; Gutiérrez et al., 2011; Martínez et al., 2012), el profesorado reconoce un desarrollo práctico significativamente mayor al juzgar el grado de Explicitación e interiorización de los criterios de evaluación. De acuerdo con la mejora de la transparencia evaluativa que acusan Padilla et al. (2010) e Ibarra y Rodríguez (2010), docentes y discentes admiten la satisfacción de un primer nivel informativo, caracterizado por la explicitación escrita de los criterios y condiciones de la evaluación al comienzo del curso. Las discrepancias se producen al cuestionar el desarrollo de acciones específicas para profundizar en su comprensión. Mientras que el profesorado afirma llevar a cabo actividades específicas para facilitar el recuerdo, comprensión y profundización de los criterios establecidos, las/os estudiantes describen un cumplimiento mínimo que va poco más allá de la explicitación inicial contemplada en los referentes normativos. Sin embargo, más que información, la literatura específica insiste en la necesidad de ofrecer al alumnado apoyos que le capaciten para entender el significado de los objetivos y evaluar su situación de partida y su progreso respecto a los mismos. Para ello caben alternativas diversas y complementarias. Junto al feedback y el empleo de rúbricas (Álvarez y Olivera-Smith, 2014; Cabanal y Margalef, 2017), las fórmulas de evaluación participativa mencionadas en el indicador anterior representan una vía preferente para reducir las dificultades de descodificación de los estándares de logro propios de la disciplina (Price, Handley, Miller, & O’Donovan, 2010; Sambell, 2013).
De acuerdo con Pérez et al. (2013) y Hortigüela et al. (2015b) la Continuidad de las demandas evaluativas representa un poderoso factor para favorecer la organización y regulación del aprendizaje. En la muestra estudiada destaca como el indicador más relevante para ambas fuentes, pero el nivel de cumplimiento constatado podría calificarse como literal, sin indicios que apunten a su verdadera explotación pedagógica. Así, estudiantes y profesorado reconocen realizar tareas evaluativas en las tres fases del proceso, aunque no se advierte una graduación deliberada ni coordinación de las mismas. De modo similar, existen estudios que constatan una sobrecarga final en sistemas de evaluación continua, particularmente desde el punto de vista discente (Hamodi y López, 2012; Romero et al., 2015). Estas conclusiones sugieren el predominio de una visión prioritariamente instrumental de la continuidad evaluativa, basada en el número de pruebas y su distribución en el tiempo. Por el momento poco representado en la investigación, permanece el reto de alcanzar una concepción más pedagógica, que incida en el impacto formativo de la sucesión de tareas evaluativas en la construcción del aprendizaje.
A pesar del avance que indican los resultados resumidos, el refuerzo de la misión pedagógica de la evaluación sigue representando un área mejorable pendiente de resolución. Existen evidencias de que el uso de la evaluación formativa se asocia a mejores resultados de aprendizaje (Brown, 2015; Fraile et al., 2013; Gallardo-Fuente y Carter, 2016) y estudiantes y profesorado coinciden en admitir su relevancia (Bilbao, 2015; Romero et al., 2015). Sin embargo, los cambios en el grado de explicitación, la continuidad, los agentes o los instrumentos de evaluación siguen más dirigidos a la acreditación de resultados que a la estimulación didáctica del proceso de construcción del aprendizaje.
De esta situación se concluye que la consolidación de un nuevo paradigma evaluativo excede la articulación de cambios parciales y puntuales, debiendo afectar a las convicciones profundas sobre la evaluación (Crossouard, 2010). Tales concepciones influyen significativamente en la forma de orientar y ejercer la evaluación, de modo que toda transformación de la praxis evaluativa debe partir de su comprensión y transformación (Hidalgo y Murillo, 2017).
A pesar de la fecunda línea de trabajo que se está consolidando en torno a ellas, la detección y modificación de las concepciones evaluativas representa una empresa compleja por su naturaleza implícita y su resistencia al cambio (Cruz, Pozo, Huarte, y Scheuer, 2006). La capacitación evaluativa inicial y permanente representa la alternativa de actuación más reseñada en ese camino (Cano y Ion, 2012; Ibarra y Rodríguez, 2010; López y Palacios, 2012; Stiggins, 1999), aunque dentro de un marco determinado de condiciones. Más que a incrementar el repertorio de técnicas e instrumentos, las iniciativas formativas deberían procurar la construcción de una imagen alternativa de la evaluación, que modifique las representaciones profundas que explican la prevalencia de su impronta acreditativa (Knight, 2005; Monereo y Castelló, 2009). Se trataría, en definitiva, de provocar las experiencias oportunas, para que el profesorado haga de la evaluación un recurso para regular la profundidad y calidad del aprendizaje discente (Asún et al., 2017). Desde esta perspectiva, Christoforidu et al. (2014) aportan que el alumnado de las/os docentes con mayor habilidad evaluativa obtienen mejores resultados de aprendizaje.
La superación profunda de los retos de mejora que persisten en la evaluación resulta especialmente necesaria en la formación básica de maestras/os y profesorado (López y Palacios, 2012; Palacios y López, 2013). Aunque también son afectadas por el contexto y las presiones socio-políticas, buena parte de las concepciones evaluativas derivan de los aprendizajes inconscientes sobre evaluación construidos en la etapa discente (Cruz et al., 2006; Prieto y Contreras, 2008). En consecuencia, este espacio representa un enclave estratégico para contribuir a la superación de las deficiencias clásicas y generar entre el futuro profesorado nuevas prácticas evaluativas que repercutan en otros niveles del sistema educativo.
Cómo referenciar este artículo: Bilbao Martínez, A. y Villa Sánchez, A. (2019). Avances y limitaciones en la evaluación del aprendizaje a partir del proceso de convergencia. Visión docente y discente en los grados de Educación Infantil y Primaria. Educación XX1, 22(1), 45-69, doi: 10.5944/educXX1.19976Bilbao Martínez, A. & Villa
How to reference this article: Bilbao Martínez, A. & Villa Sánchez, A. (2019). Avances y limitaciones en la evaluación del aprendizaje a partir del proceso de convergencia. Visión docente y discente en los grados de Educación Infantil y Primaria. Educación XX1. [Assessment progress and limitations after the convergence process: student and teacher perception on the pre-service teacher training]. Educación XX1, 22(1), 45-69, doi: 10.5944/educXX1.19976






