<?xml version="1.0" encoding="utf-8"?>
<!DOCTYPE article
  PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.0 20120330//EN" "http://jats.nlm.nih.gov/publishing/1.0/JATS-journalpublishing1.dtd">
<article article-type="research-article" dtd-version="1.0" specific-use="sps-1.8" xml:lang="es" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink">
    <front>
        <journal-meta>
            <journal-id journal-id-type="publisher-id">psed</journal-id>
            <journal-title-group>
                <journal-title>Psicología Educativa</journal-title>
                <abbrev-journal-title abbrev-type="publisher">Psicología Educativa</abbrev-journal-title>
            </journal-title-group>
            <issn pub-type="ppub">1135-755X</issn>
            <issn pub-type="epub">2174-0526</issn>
            <publisher>
           <publisher-name>Colegio Oficial de la Psicología de Madrid</publisher-name>
            </publisher>
        </journal-meta>
        <article-meta>
            <article-id pub-id-type="doi">10.5093/psed2025a12</article-id>
             <article-id pub-id-type="publisher-id">00008</article-id>
            <article-categories>
                <subj-group subj-group-type="heading">
                    <subject>research-article</subject>
                </subj-group>
            </article-categories>
            <title-group>
                <article-title>Propiedades Psicométricas de la Versión Española del Cuestionario de Creencias sobre la Evaluación por Pares</article-title>
                <trans-title-group xml:lang="en">
                    <trans-title>Psychometric properties of the Spanish version of the Beliefs about the Peer Feedback Questionnaire</trans-title>
                </trans-title-group>
            </title-group>
            <contrib-group>
                <contrib contrib-type="author">
                    <name>
                        <surname>Ruiz-Robledillo</surname>
                        <given-names>Nicolás</given-names>
                    </name>
                    <xref ref-type="aff" rid="aff01"/>
                </contrib>
                <contrib contrib-type="author">
                    <name>
                        <surname>Clement-Carbonell</surname>
                        <given-names>Violeta</given-names>
                    </name>
                    <xref ref-type="aff" rid="aff01b"/>
                    <xref ref-type="corresp" rid="c01"/>
                </contrib>
                <contrib contrib-type="author">
                    <name>
                        <surname>Ferrer-Cascales</surname>
                        <given-names>Rosario</given-names>
                    </name>
                    <xref ref-type="aff" rid="aff01"/>
                </contrib>
                <contrib contrib-type="author">
                    <name>
                        <surname>Costa-López</surname>
                        <given-names>Borja</given-names>
                    </name>
                    <xref ref-type="aff" rid="aff01"/>
                </contrib>
                <contrib contrib-type="author">
                    <name>
                        <surname>Alcocer-Bruno</surname>
                        <given-names>Cristian</given-names>
                    </name>
                    <xref ref-type="aff" rid="aff01"/>
                </contrib>
                <contrib contrib-type="author">
                    <name>
                        <surname>Vela-Bermejo</surname>
                        <given-names>Juan</given-names>
                    </name>
                    <xref ref-type="aff" rid="aff01"/>
                </contrib>
                <contrib contrib-type="author">
                    <name>
                        <surname>Albaladejo-Blázquez</surname>
                        <given-names>Natalia</given-names>
                    </name>
                    <xref ref-type="aff" rid="aff01"/>
                </contrib>
            </contrib-group>
            <aff id="aff01">
                <institution content-type="normalized">Universidad de Alicante</institution>
                <addr-line>
                    <named-content content-type="city">Alicante</named-content>
                </addr-line>
                <country country="ES">España</country>
                <institution content-type="original">Universidad de Alicante, España</institution>
            </aff>
            <aff id="aff01b">
                <institution content-type="normalized">Universidad de Alicante</institution>
                <addr-line>
                    <named-content content-type="city">Alicante</named-content>
                </addr-line>
                <country country="ES">España</country>
                <institution content-type="original">Universidad de Alicante, España</institution>
                 <email>violeta.clement@ua.es</email>
            </aff>
            <author-notes>
                <corresp id="c01"> Correspondencia: <email>violeta.clement@ua.es</email> (V. Clement-Carbonell). </corresp>
                <fn fn-type="conflict">
                    <label>Conflicto de Intereses</label>
                    <p>Los autores de este artículo declaran que no tienen ningún conflicto de intereses.</p>
                </fn>
            </author-notes>
       <!--<pub-date publication-format="electronic" date-type="pub">
                      <day>13</day>
                      <month>6</month>
                      <year>2025</year>
                  </pub-date>
                      <pub-date publication-format="electronic" date-type="collection">
                      <month>6</month>
                      <year></year>
                  </pub-date>-->
            <pub-date pub-type="epub-ppub">
            <month>06</month>
            <year>2025</year>
         </pub-date>  
            <volume>31</volume>
            <issue>2</issue>
            <fpage>141</fpage>
            <lpage>152</lpage>
            <history>
                <date date-type="received">
                    <day>08</day>
                    <month>03</month>
                    <year>2024</year>
                </date>
                <date date-type="accepted">
                    <day>11</day>
                    <month>02</month>
                    <year>2025</year>
                </date>
                <date date-type="pub">
                    <day>10</day>
                    <month>03</month>
                    <year>2025</year>
                </date>
            </history>
            <permissions>
                <license license-type="open-access" xlink:href="http://creativecommons.org/licenses/by-nc-nd/4.0/" xml:lang="es">
                    <license-p>Este es un artículo publicado en acceso abierto (<italic>Open Access</italic>) bajo la licencia <italic>Creative Commons Attribution Non-Commercial No Derivative</italic>, que permite su uso, distribución y reproducción en cualquier medio, sin restricciones siempre que sin fines comerciales, sin modificaciones y que el trabajo original sea debidamente citado.</license-p>
                </license>
            </permissions>
            <abstract>
                <title>RESUMEN</title>
                <p>La evaluación por pares, en la que el alumnado evalúa el trabajo de sus compañeros, potencia las habilidades personales y profesionales en educación. Sin embargo, faltan herramientas para analizar las creencias en esta práctica en España. El <italic>Beliefs about Peer Feedback Questionnaire</italic> (BPFQ) evalúa las creencias de los estudiantes universitarios con buenas propiedades psicométricas. Este estudio adapta el cuestionario al español y examina sus propiedades psicométricas, además de las diferencias entre áreas de conocimiento. En el estudio instrumental han participado 607 alumnos de la Universidad de Alicante. Los resultados confirman la estructura de cuatro dimensiones, además de un modelo bifactorial, que incluye tanto el factor general como las subescalas del cuestionario, y la consistencia interna del cuestionario en español. Estudiantes de Educación y Ciencias mostraron mayor aceptación de la evaluación por pares que los de Ciencias Sociales y Jurídicas. El BPFQ es válido y fiable para evaluar creencias estudiantiles sobre la revisión por pares, siendo útil para analizar la introducción de nuevos sistemas de evaluación de compañeros en la universidad.</p>
            </abstract>
            <trans-abstract xml:lang="en">
                <title>ABSTRACT</title>
                <p>Peer evaluation, in which students assess their peers’ work, promotes personal and professional skills in education. However, there is a lack of tools to analyze beliefs about this practice in Spain. The Beliefs about Peer Feedback Questionnaire (BPFQ) assesses attitudes and beliefs in university students with good psychometric properties. This study adapts the questionnaire to Spanish and examines its psychometric properties, as well as the differences between knowledge fields. A total of 607 students from the University of Alicante participated in this instrumental study. The results substantiated the four-dimensional structure and a bifactor model, consisting of both the general factor and the four subscales, and the internal consistency of the questionnaire in Spanish. Students from Education and Science showed greater acceptance of peer evaluation than students from Social and Legal Sciences. The BPFQ is a valid and reliable questionnaire for assessing student beliefs about peer review, being useful for evaluating the introduction of new peer review systems at the university.</p>
            </trans-abstract>
            <kwd-group xml:lang="es">
                <title>Palabras clave</title>
                <kwd>Evaluación por pares</kwd>
                <kwd>Alumnos universitarios</kwd>
                <kwd>Propiedades psicométricas</kwd>
                <kwd>Validación</kwd>
                <kwd>Cuestionario</kwd>
            </kwd-group>
            <kwd-group xml:lang="en">
                <title>Keywords</title>
                <kwd>Peer-feedback assessment</kwd>
                <kwd>University students</kwd>
                <kwd>Psychometric properties</kwd>
                <kwd>Validation</kwd>
                <kwd>Questionnaire</kwd>
            </kwd-group>
            <funding-group>
                <award-group>
                    <funding-source>Programa REDES</funding-source>
                    <award-id>5505</award-id>
                </award-group>
                <funding-statement>Financiación. Esta investigación ha sido financiada por el Programa de REDES-I3CE de Investigación en Docencia Universitaria (Programa REDES) del Vicerrectorado de Transformación digital y el Instituto de Ciencias de la Educación de la Universidad de Alicante (2021-2022). Ref.: (5505).</funding-statement>
            </funding-group>
            <counts>
                <fig-count count="1"/>
                <table-count count="7"/>
                <equation-count count="0"/>
                <ref-count count="72"/>
            </counts>
        </article-meta>
    </front>
    <body>
    <sec sec-type="intro">
        <title>Introducción</title>
        <p>La evaluación por pares es un enfoque educativo que se caracteriza por la retroalimentación, la comunicación, la reflexión y la colaboración entre compañeros (<xref ref-type="bibr" rid="B05">Boud, 1990</xref>; Boud et al., 1999; Darvishi et al., 2022). Estudios recientes señalan que la evaluación entre compañeros es un modelo de evaluación sustancial dentro del proceso de enseñanza-aprendizaje basado en la autorregulación del aprendizaje (<xref ref-type="bibr" rid="B19">Erkan et al., 2021</xref>; <xref ref-type="bibr" rid="B23">Filius et al., 2018</xref>). Las estrategias de aprendizaje entre iguales están en sintonía con la teoría moderna del aprendizaje cognitivo (<xref ref-type="bibr" rid="B04">Barkley et al., 2014</xref>), puesto que involucra a los alumnos en el proceso de evaluación (<xref ref-type="bibr" rid="B55">Schellekens et al., 2021</xref>), fomenta un enfoque de aprendizaje profundo (Pinheiro et al., 2023) y potencia algunas de las ideas clave de la motivación intrínseca, como la “gamificación” (del inglés <italic>gaming</italic>, juego) del aprendizaje, el reconocimiento y la cooperación, además de promover las habilidades metacognitivas y la autorreflexión (<xref ref-type="bibr" rid="B35">Hunzer, 2014</xref>; <xref ref-type="bibr" rid="B45">Nicol et al., 2014</xref>; <xref ref-type="bibr" rid="B53">Sadler, 1989</xref>). La evaluación por pares se puede utilizar en entornos académicos y profesionales como una estrategia para mejorar la participación del estudiantado en su propio aprendizaje (<xref ref-type="bibr" rid="B03">Ashenafi, 2017</xref>). De esta manera, en una actividad de evaluación por pares, el estudiantado asume la responsabilidad de evaluar el trabajo de sus compañeros, generando y recibiendo retroalimentación sobre un tema específico (<xref ref-type="bibr" rid="B06">Boud et al., 1999</xref>; <xref ref-type="bibr" rid="B10">Carlsson Hauff y Nilsson, 2022</xref>; <xref ref-type="bibr" rid="B60">Su y Huang, 2022</xref>). En este sentido, les permite considerar los resultados de aprendizaje de sus compañeros y reflexionar sobre su propio aprendizaje (<xref ref-type="bibr" rid="B36">Hwang et al., 2023</xref>). Este enfoque sitúa a los educadores como diseñadores de un entorno de retroalimentación y a los alumnos como agentes clave en este proceso (<xref ref-type="bibr" rid="B09">Carless, 2022</xref>).</p>
        <p>Se ha demostrado que la evaluación por pares potencia el desarrollo de la capacidad de juicio, la capacidad crítica y la autoconciencia en estudiantes, así como su conocimiento de los criterios de evaluación (<xref ref-type="bibr" rid="B21">Fang et al., 2021</xref>; <xref ref-type="bibr" rid="B65">van Blankenstein et al., 2024</xref>). En el contexto de la educación superior, la inclusión de la evaluación por pares ha supuesto una transformación del proceso de enseñanza-aprendizaje, al fomentar el cambio desde un enfoque individualista y dirigido por el equipo docente a un enfoque de evaluación más colaborativo y centrado en el estudiantado, en consonancia con los principios del constructivismo social (<xref ref-type="bibr" rid="B67">Vygotsky, 2012</xref>; <xref ref-type="bibr" rid="B38">Kasch et al., 2021</xref>). En este contexto de interacción y colaboración social, el estudiantado puede ampliar sus conocimientos, determinar sus fortalezas y debilidades y desarrollar habilidades personales y profesionales (<xref ref-type="bibr" rid="B15">Deneen y Hoo, 2021</xref>; <xref ref-type="bibr" rid="B63">Topping, 1998</xref>), evaluando la competencia profesional de sus compañeros. De hecho, numerosos estudios describen los diversos beneficios del aprendizaje que derivan de la participación de los estudiantes en la evaluación de sus compañeros (<xref ref-type="bibr" rid="B01">Alemdag y Yildirim, 2022</xref>; <xref ref-type="bibr" rid="B37">Ibarra-Sáiz et al., 2020</xref>). La revisión por pares sitúa al estudiantado como agente proactivo y reflexivo con su propio aprendizaje, lo que fomenta el pensamiento crítico y las habilidades cognitivas de orden superior (<xref ref-type="bibr" rid="B32">Hoo et al., 2022</xref>; <xref ref-type="bibr" rid="B37">Ibarra-Sáiz et al., 2020</xref>). Además, supone una ayuda en la identificación de los objetivos, cómo alcanzarlos, así como una guía para la mejora de su trabajo (<xref ref-type="bibr" rid="B08">Burgess y Mellis, 2015</xref>; <xref ref-type="bibr" rid="B14">Davis et al., 2022</xref>). </p>
        <p>Por otra parte, también se fomentan las habilidades de resolución de problemas al analizar el trabajo de los demás y tratar de identificar áreas de mejora aportando críticas constructivas (<xref ref-type="bibr" rid="B16">Dochy et al., 1999</xref>; <xref ref-type="bibr" rid="B55">Schellekens et al., 2021</xref>; <xref ref-type="bibr" rid="B57">Somervell, 1993</xref>). En el proceso, el estudiantado interactúa de manera significativa con sus iguales, con lo que se fomentan habilidades como la negociación y se contribuye a la formación de un entorno de aprendizaje más colaborativo y participativo (<xref ref-type="bibr" rid="B12">Cheng y Warren, 1997</xref>; <xref ref-type="bibr" rid="B43">Lerchenfeldt y Taylor, 2020</xref>). La literatura científica demuestra claramente que la evaluación por pares afecta al aprendizaje real, pero quizás el efecto es aún más acusado en el aprendizaje percibido (<xref ref-type="bibr" rid="B32">Hoo et al., 2022</xref>). Es más, como estrategia de aprendizaje colaborativo, la evaluación por pares ha demostrado ser de gran utilidad en contextos de educación superior, mostrando a su vez una eficacia diferencial en función del área de conocimiento o grado universitario cursado por el estudiantado (<xref ref-type="bibr" rid="B34">Huisman et al., 2020</xref>). Por este motivo, la investigación previa propone estudiar ese tipo de estrategias de evaluación por pares a través de la percepción del alumnado procedente de diferentes disciplinas universitarias (<xref ref-type="bibr" rid="B33">Huisman et al., 2018</xref>). </p>
        <p>A pesar de las ventajas de incluir la evaluación por pares y de que todo el personal docente e investigador universitario esté íntimamente familiarizado con este proceso asociado a la publicación científica, en el que otros profesionales evalúan críticamente los manuscritos y proporcionan comentarios que pueden utilizarse para mejorar el trabajo (<xref ref-type="bibr" rid="B02">Alqassab et al., 2023</xref>), no es habitual que el estudiantado universitario tenga la oportunidad de aprovecharse de un proceso formativo similar y de introducir mejoras en su trabajo antes de presentarlo para su evaluación final (<xref ref-type="bibr" rid="B72">Zong et al., 2023</xref>). La evaluación entre iguales tiende a ser ineficaz o a ser rechazada por los estudiantes si no tienen la adecuada capacidad de retroalimentación (<xref ref-type="bibr" rid="B29">Han y Xu, 2020</xref>). Por lo tanto, es importante preparar a los estudiantes para la evaluación por pares dotándolos de las competencias y disposiciones para superar los desafíos que puedan encontrar en este proceso (<xref ref-type="bibr" rid="B71">Zhan, 2021</xref>). Aunque investigaciones recientes hayan debatido acerca de la preparación de los estudiantes universitarios para afrontar la evaluación por pares, (<xref ref-type="bibr" rid="B09">Carless, 2022</xref>; <xref ref-type="bibr" rid="B68">Wood, 2021</xref>; <xref ref-type="bibr" rid="B70">Yu y Liu, 2021</xref>), las discusiones se han limitado a la perspectiva de los académicos y rara vez han considerado la perspectiva de los estudiantes (<xref ref-type="bibr" rid="B71">Zhan, 2021</xref>). </p>
        <p>A pesar de que en las encuestas de calidad de la enseñanza universitaria la retroalimentación es un aspecto vinculado positivamente a la satisfacción del estudiantado (<xref ref-type="bibr" rid="B20">Estriegana et al., 2024</xref>) y que la evidencia empírica demuestra sus múltiples beneficios, menos de un tercio considera que han recibido una valoración útil de forma regular (<xref ref-type="bibr" rid="B41">Krause et al., 2005</xref>). Varias investigaciones han hallado que las creencias y el punto de vista del alumnado sobre la evaluación colaborativa son factores determinantes de la aplicación satisfactoria de esta estrategia de evaluación en contextos universitarios (<xref ref-type="bibr" rid="B64">Tornwall et al., 2022</xref>). Se debe fundamentalmente a las preocupaciones relacionadas con la validez, la fiabilidad, el sesgo, la equidad y la objetividad de los criterios al evaluar el trabajo o recibir la evaluación de otra persona que se encuentra en el mismo nivel, por lo que se prefiere que la evaluación continúe siendo responsabilidad del equipo docente (<xref ref-type="bibr" rid="B10">Carlsson Hauff y Nilsson, 2022</xref>; <xref ref-type="bibr" rid="B25">Gaynor, 2020</xref>; <xref ref-type="bibr" rid="B46">Panadero y Alqassab, 2019</xref>; <xref ref-type="bibr" rid="B55">Schellekens et al., 2021</xref>). Conocer las creencias del estudiantado a cerca de esta modalidad de evaluación permitirá mejorar el conocimiento general sobre cómo percibe el estudiantado la evaluación por pares y el desarrollo de estrategias que mejoren su compromiso y así lograr una implementación satisfactoria de la misma (<xref ref-type="bibr" rid="B25">Gaynor, 2020</xref>; Huisman et al., 2018). </p>
        <p>A pesar de su importancia, la investigación sobre las creencias del estudiantado acerca de la revisión por pares es escasa. La mayoría de los estudios realizados hasta la fecha se han centrado en la evaluación sumativa entre pares, en particular la contribución individual a los proyectos de grupo, y en cuestiones relativas a la fiabilidad y validez de tales métodos de evaluación (<xref ref-type="bibr" rid="B39">Kaufman y Schunn, 2011</xref>; <xref ref-type="bibr" rid="B56">Shui Ng y Yu, 2021</xref>). En cambio, la percepción y las creencias del estudiantado a cerca de la evaluación por pares siguen siendo relativamente poco estudiadas, tal vez debido a la escasez de instrumentos de evaluación desarrollados para tal fin. Uno de los cuestionarios desarrollados recientemente para la evaluación de las creencias del estudiantado sobre la evaluación colaborativa es el <italic>Beliefs about Peer Feedback Questionnaire</italic> (BPFQ) (<xref ref-type="bibr" rid="B34">Huisman et al., 2020</xref>). Este instrumento de evaluación está compuesto por 10 ítems con una escala de respuesta tipo Likert de cinco opciones de respuesta (1 = <italic>totalmente en desacuerdo</italic>, 5 = <italic>totalmente de acuerdo</italic>) y tiene como objetivo evaluar las creencias del alumnado sobre la evaluación colaborativa mediante cuatro dimensiones: (1) la valoración de la retroalimentación por pares como método instructivo (VIM), (2) la confianza en la propia calidad de la retroalimentación por pares (CO), (3) la confianza en la calidad de la retroalimentación por pares recibida (CR) y (4) la valoración de la retroalimentación por pares como una habilidad esencial (VPS). Las puntuaciones en este cuestionario presentan propiedades psicométricas adecuadas, con una fiabilidad que oscila entre .67 y .76. Considerando la escasez de instrumentos válidos y fiables en español para evaluar las creencias del estudiantado sobre la retroalimentación por pares como estrategia de evaluación en el contexto universitario, y teniendo en cuenta las adecuadas propiedades psicométricas que presenta la versión original del BPFQ, el objetivo principal del presente trabajo es la adaptación transcultural del cuestionario al español, así como el análisis de sus propiedades psicométricas. Además, el estudio también tiene como objetivo analizar las posibles diferencias en las creencias hacia este tipo de evaluación entre el estudiantado de diferentes áreas de conocimiento.</p> </sec>
        <sec sec-type="methods">
            <title>Método</title>
            <sec>
                <title>Diseño</title>
                <p>Se realizó un estudio instrumental (<xref ref-type="bibr" rid="B11">Carretero-Dios y Pérez, 2007</xref>; <xref ref-type="bibr" rid="B24">García-Celay y León, 2005</xref>). La adaptación del instrumento BPFQ al español se llevó a cabo en dos fases. En la primera fase se desarrolló un proceso estándar para la validación lingüística del cuestionario al contexto español y a continuación, en la segunda fase, se determinó la equivalencia factorial de la versión española de BPFQ con el cuestionario original en inglés, evaluándose finalmente sus propiedades psicométricas.</p>
            </sec>
            <sec>
                <title>Fase I: Validación Lingüística</title>
                <p>El proceso de traducción-retrotraducción y de validación lingüística del BPFQ se llevó a cabo en cinco fases, como se indica en la Guía de Traducción y Adaptación de Tests (<xref ref-type="bibr" rid="B27">Gregoire, 2018</xref>; <xref ref-type="bibr" rid="B30">Hernández et al., 2020</xref>). Primero, dos traductores bilingües llevaron a cabo una traducción conceptual de la versión original del BPFQ al español. A continuación, se combinaron ambas traducciones para crear una única versión preliminar del cuestionario en español. En tercer lugar, dos nuevos traductores bilingües tradujeron la versión preliminar en español a la lengua original del cuestionario, creando una versión final en inglés. En el cuarto paso de este proceso, los dos últimos traductores compararon las dos versiones retro-traducidas con la original para comprobar la equivalencia lingüística, teniendo en cuenta las diferencias culturales. En quinto lugar, un comité formado por cuatro expertos españoles en evaluación educativa analizó la versión final al español asegurando la precisión cultural y lingüística del cuestionario traducido. Las posibles discrepancias fueron resueltas consultando los diferentes pasos llevados a cabo en el proceso. Finalmente, este comité no consideró necesario modificar ningún ítem y la evaluación general de la versión española del instrumento fue positiva. </p>
            </sec>
            <sec>
                <title>Fase II: Evaluación de las Propiedades Psicométricas</title>
                <sec>
                    <title><italic>Participantes</italic></title>
                    <p>La muestra de este estudio estaba constituida por 607 estudiantes de la Universidad de Alicante, España. Los criterios de inclusión para participar en el estudio fueron: (1) ser estudiante en la Universidad de Alicante, tanto en estudios de Grado como de Postgrado, (2) ser capaz de leer y completar los cuestionarios por sí mismo y (3) haber firmado el consentimiento informado para participar en el estudio. No hubo restricciones en cuanto a la especialidad académica. De los 607 estudiantes, el 75.95% eran mujeres, con una edad media de 21.59 años (<italic>DT</italic> = 6.96). Alrededor del 11% pertenecía al área de conocimiento de Ciencias (<italic>n</italic> = 67), el 70.51% eran estudiantes de Ciencias Sociales y Jurídicas (<italic>n</italic> = 428) y el 18.45% del área de Educación (<italic>n</italic> = 112).</p>
                </sec>
                <sec>
                    <title><italic>Instrumentos</italic></title>
                    <p><bold>Cuestionario Sociodemográfico <italic>ad hoc</italic>.</bold> Se elaboró un cuestionario sociodemográfico para recopilar información sobre la edad de las personas participantes (en años), el sexo (hombre/mujer), el nivel educativo alcanzado (grado/posgrado) y el área de conocimiento al que pertenecen sus estudios. </p>
                    <p><bold>Beliefs about Peer-Feedback Questionnaire (BPFQ).</bold> Se trata de un cuestionario autoinformado compuesto por 10 ítems que se utiliza para evaluar las creencias del estudiantado sobre la evaluación por pares como estrategia en el contexto universitario (<xref ref-type="bibr" rid="B34">Huisman et al., 2020</xref>). Concretamente, esta herramienta se divide en cuatro dimensiones: (1) valoración de la retroalimentación por pares como método instructivo (VIM; ítems 1-3), (2) confianza en la propia calidad de la retroalimentación por pares (CO; ítems 4-5), (3) confianza en la calidad de la retroalimentación por pares recibida (CR; ítems 6-7) y (4) valoración de la retroalimentación por pares como una habilidad esencial (VPS; ítems 8-10). Todos los ítems se responden a través de una escala Likert de 5 puntos; para las escalas VIM y VPS, las etiquetas van de 1 (<italic>totalmente en desacuerdo</italic>) a 5 (<italic>totalmente de acuerdo</italic>); para las escalas CO y CR, las etiquetas van de 1 (<italic>en absoluto aplicable a mí</italic>) a 5 (<italic>totalmente aplicable a mí</italic>). El ítem 3, “La retroalimentación únicamente debe ser proporcionada por el personal docente”, se considera inverso. Puntuaciones elevadas indican creencias positivas y unas puntuaciones más bajas representan unas creencias negativas sobre la evaluación por pares. Las propiedades psicométricas del BPFQ fueron originalmente analizadas utilizando una muestra de 340 estudiantes en Holanda (<xref ref-type="bibr" rid="B34">Huisman et al., 2020</xref>). Los resultados del análisis de componentes principales revelaron bajos valores en las comunalidades (.624-.718), por lo que los ítems fueron correctamente distribuidos en cuatro dimensiones. Asimismo, un análisis factorial confirmatorio sugirió la idoneidad de las cuatro dimensiones en el cuestionario (<xref ref-type="bibr" rid="B34">Huisman et al., 2020</xref>). Las puntuaciones del cuestionario original también presentaron una adecuada fiabilidad, con valores de alfa de Cronbach que oscilan entre .67 y .76. </p>
                </sec>
                <sec>
                    <title><italic>Procedimiento</italic></title>
                    <p>En primer lugar se contactó con el profesorado de diferentes titulaciones de la Universidad de Alicante para informarles del propósito de la investigación e invitarles a participar. Dicho profesorado seleccionó las clases que iban a participar explicando al estudiantado el objetivo de la investigación. Así, administraron el protocolo de evaluación, que incluye el consentimiento informado, el cuestionario sociodemográfico y la versión española del BPFQ. Los estudiantes dispusieron de un tiempo estimado de entre 10 y 20 minutos, suficiente para la cumplimentación de la evaluación. La participación fue anónima y voluntaria y no recibieron remuneración económica alguna. Se administró y cumplimentó un total de 607 cuestionarios. </p>
                    <p>El estudio fue aprobado por el Comité de Ética de la Universidad de Alicante (UA-2022-02-16) y para su desarrollo se siguieron las recomendaciones éticas recogidas en los Principios Éticos para Investigaciones Médicas (Declaration of Helsinki;<xref ref-type="bibr" rid="B69"> World Medical Association, 2013</xref>). Se informó a todas las personas que participaron sobre el objetivo del estudio y la confidencialidad de los datos recogidos, firmando el consentimiento informado previamente a su participación, explicando que su autorización podía ser revocada o cancelada en cualquier momento según su propia voluntad.</p>
                </sec>
                <sec>
                    <title><italic>Análisis de Datos</italic></title>
                    <p>Se calcularon estadísticos descriptivos, como media, desviación típica, rango, percentiles 25 y 75, además del efecto suelo/techo de los ítems. Para la interpretación del efecto suelo/techo se consideró significativo el 15% o más de participantes que mostraran puntuaciones altas (efecto techo) o puntuaciones bajas (efecto suelo) (<xref ref-type="bibr" rid="B28">Gulledge et al., 2019</xref>). </p>
                    <p>Se calcularon correlaciones bivariadas de Pearson entre los ítems del test y entre las cuatro subescalas y el factor general del cuestionario para comprobar la colinealidad entre dimensiones y la propia utilidad de las mismas. Para la interpretación de estas correlaciones, según <xref ref-type="bibr" rid="B31">Hernández-Lalinde et al. (2018)</xref>, se considerarían correlaciones nulas los valores iguales o menores a .10, débiles entre .11 y .30, moderadas entre .31 y .50 y correlaciones fuertes cuando los valores son iguales o mayores a .51. </p>
                    <p>El análisis factorial confirmatorio se llevó a cabo con el programa R (<xref ref-type="bibr" rid="B07">Browne y Cudeck, 1992</xref>; <xref ref-type="bibr" rid="B18">Epskamp et al., 2019</xref>; Green y Yang, 2009; <xref ref-type="bibr" rid="B40">Kline, 2015</xref>; <xref ref-type="bibr" rid="B51">Rosseel et al., 2012</xref>;<xref ref-type="bibr" rid="B62"> The R Project for Statistical Computing, 2021</xref>), utilizando el método más robusto de máxima probabilidad (ML) para lidiar con la distribución no normal de los datos de esta muestra (<xref ref-type="bibr" rid="B54">Satorra y Bentler, 1994</xref>). Concretamente, se realizaron tres AFC, el primero compuesto por un único factor general del cuestionario, el segundo siguiendo la estructura factorial del cuestionario original y su adaptación española de <xref ref-type="bibr" rid="B52">Ruiz-Robledillo et al. (2022)</xref>, que consta de cuatro factores: VIM, CO, CR y VPS, y el tercero formado por un modelo bifactorial en el que se incluyen tanto el factor general del cuestionario como sus cuatro subescalas. El ajuste del modelo se consideró satisfactorio si χ<sup>2</sup><sub>S-B</sub> era no significativo (<italic>p</italic> &gt; .05), el índice de ajuste (CFI) era .90 o superior, la raíz del error cuadrático medio (RMSEA) se encontraba entre .05 y .08, y el índice de la raíz cuadrada media residual estandarizada (SRMR) era .08 o menor (<xref ref-type="bibr" rid="B07">Browne y Cudeck, 1992</xref>; <xref ref-type="bibr" rid="B26">Green y Yang, 2009</xref>; <xref ref-type="bibr" rid="B40">Kline, 2015</xref>).</p>
                    <p>También se calculó la consistencia interna de la puntuación total del test con los indicadores alfa de Cronbach (α) y omega de McDonald (ω) en R (<xref ref-type="bibr" rid="B62">The R Project for Statistical Computing, 2021</xref>). A pesar de que el α de Cronbach es el coeficiente más común para evaluar y estimar la consistencia interna omega (ω) (<xref ref-type="bibr" rid="B44">McDonald, 1999</xref>) está basada en un modelo factorial que no se sustenta en los supuestos de equivalencia tau (es decir, unidimensionalidad, igualdad de varianzas y covarianzas de las puntuaciones esperadas para los ítems) (<xref ref-type="bibr" rid="B50">Rodriguez et al., 2016</xref>). Según <xref ref-type="bibr" rid="B61">Taber (2018)</xref>, en Ciencias de la Educación valores de alfa de Cronbach entre .67 y .87 podrían considerarse también razonables. Consideramos los α de Cronbach de .60 o inferiores como bajos, entre .60 y .70 como aceptables y .70 o superiores como buenos (<xref ref-type="bibr" rid="B42">Leary, 2008</xref>). Para ω, consideramos los valores de .60 o inferiores como bajos, entre .60 y .70 como aceptables y .70 o superior como buenos (<xref ref-type="bibr" rid="B44">McDonald, 1999</xref>). Además, para analizar la fiabilidad del modelo bifactorial se calcularon los indicadores de omega jerárquico de McDonald tanto para el factor único general (ω<sub>H</sub>) como para las subescalas (ω<sub>HS</sub>; <xref ref-type="bibr" rid="B44">McDonald, 1999</xref>). El estimador de ω<sub>H</sub> representa la proporción de varianza de la puntuación total del BPFQ explicado por el factor general, controlando a los factores específicos. Asimismo, el valor de ω<sub>HS</sub> muestra la proporción de varianza explicada por las subescalas del BPFQ, controlando el factor general del cuestionario (<xref ref-type="bibr" rid="B50">Rodriguez et al., 2016</xref>). Para la interpretación de los indicadores de consistencia interna relacionados con el modelo bifactorial, se establece que cuanto mayores son los valores de ω<sub>H</sub> la interpretación del cuestionario se debe a las puntuaciones totales del factor general del BPFQ; de esta manera, cuanto mayores sean los valores de ω<sub>HS</sub> más se debe la interpretación del cuestionario a las puntuaciones totales de las subescalas del BPFQ. Asimismo, se calcularon los indicadores relacionados con el porcentaje de correlaciones no contaminadas (PUC) por la multidimensionalidad, donde los valores &gt; .80 son considerados adecuados, así como los indicadores asociados con la varianza común explicada que se debe al factor general, mostrando favorablemente la unidimensionalidad con valores &gt; .60, cuando el PUC refleja también valores elevados &gt; .80 y el indicador de consistencia interna del modelo bifactorial &gt; .70 (<xref ref-type="bibr" rid="B49">Reise et al., 2013</xref>; <xref ref-type="bibr" rid="B50">Rodriguez et al., 2016</xref>). También se calcularon los porcentajes de la varianza verdadera de cada ítem que es explicada por el factor general del instrumento (ECV-I), en el que valores mayores a .80 muestran una influencia significativa del factor general (<xref ref-type="bibr" rid="B58">Stucky y Edelen, 2015</xref>; <xref ref-type="bibr" rid="B59">Stucky et al., 2013</xref>). Los cálculos fueron realizados con el módulo IndicesBifactor.xls (<xref ref-type="bibr" rid="B17">Domínguez-Lara y Rodríguez, 2017</xref>).</p>
                    <p>Asimismo, se analizaron las diferencias entre las áreas de conocimiento a las que pertenecen el estudiantado evaluado (Ciencias, Educación y Ciencias Sociales y Jurídicas). Para la elección de la prueba de contraste de hipótesis más idónea, se comprobaron los supuestos estadísticos de normalidad, independencia y homocedasticidad (<xref ref-type="bibr" rid="B22">Field, 2009</xref>). Los supuestos estadísticos no se cumplieron para la muestra de estudio, por lo que se aplicó la prueba no paramétrica H de Kruskal-Wallis (ver <xref ref-type="table" rid="t07">Tabla 7</xref>), en la que se determinaron diferencias estadísticamente significativas cuando <italic>p</italic> &lt; .05. Además, se realizaron pruebas <italic>post hoc</italic> a través de la prueba <italic>U</italic> de Mann-Whitney y se utilizó también la corrección de Bonferroni para prevenir el error tipo 1. Además, se calcularon los tamaños del efecto para conocer la magnitud de esas diferencias. Se consideró un tamaño del efecto pequeño cuando <italic>r</italic><sub>bis</sub> &lt; .30, mediano cuando <italic>r</italic><sub>bis</sub> = .30-.50 y grande cuando <italic>r</italic><sub>bis</sub> &gt; .50 (<xref ref-type="bibr" rid="B22">Field, 2009</xref>). Estos análisis se llevaron a cabo con el programa Jamovi versión 1.6.23. </p>
                    <p><table-wrap id="t07">
                        <label>Tabla 7</label>
                        <caption>
                            <title>Pruebas <italic>post-hoc</italic>. Prueba <italic>U</italic> de Mann-Whitney para dos muestras independientes</title>
                        </caption>
                        <graphic xlink:href="1135-755X-psed-31-2-0141-gt07.jpg"/>
                        <table-wrap-foot>
                            <fn>
                                <p><italic>Nota</italic>. VIM = valoración de la retroalimentación por pares como método instructivo; CO = confianza en la propia calidad de la retroalimentación por pares; CR = confianza en la calidad de la retroalimentación por pares recibida; VPS = valoración de la retroalimentación por pares como una habilidad esencial; <italic>r</italic><sub>bis</sub> = rango biserial de Glass como indicador del tamaño del efecto para la <italic>U</italic> de Mann Whitney, prueba no paramétrica para el análisis de diferencias entre diferentes muestras.</p>
                            </fn>
                        </table-wrap-foot>
                    </table-wrap></p>
                </sec>
            </sec>
        </sec>
        <sec sec-type="results">
            <title>Resultados</title>
            <sec>
                <title>Análisis Descriptivo de los Ítems </title>
                <p>En relación a los análisis descriptivos, se calculó la media, desviación típica, rango y percentil de cada uno de los ítems del BPFQ. Se utilizó una escala de respuesta tipo de Likert de 5 opciones, y se observó un efecto techo en tres de los diez ítems. Los resultados se muestran en la <xref ref-type="table" rid="t01">Tabla 1</xref>. </p>
                <p><table-wrap id="t01">
                    <label>Tabla 1</label>
                    <caption>
                        <title>Análisis descriptivo de los ítems del BPFQ</title>
                    </caption>
                    <graphic xlink:href="1135-755X-psed-31-2-0141-gt01.jpg"/>
                    <table-wrap-foot>
                        <fn>
                            <p><italic>Nota</italic>. VIM = valoración de la retroalimentación por pares como método instructivo; CO = confianza en la propia calidad de la retroalimentación por pares; CR = confianza en la calidad de la retroalimentación por pares recibida; VPS = valoración de la retroalimentación por pares como una habilidad esencial; BPFQ = Beliefs in Peer Feedback Questionnaire; R = rango, <italic>M</italic> = media, <italic>DE</italic> = desviación estándar, P25 = percentil 25, P75 = percentil 75.</p>
                        </fn>
                    </table-wrap-foot>
                </table-wrap></p>
            </sec>
            <sec>
                <title>Análisis Correlacional entre los Ítems, las Dimensiones y el Factor General del Cuestionario </title>
                <p>En cuanto a las correlaciones bivariadas de Pearson entre los ítems del cuestionario, la relación existente entre los ítems dentro de una misma dimensión es más fuerte, siendo la correlación más débil entre ítems pertenecientes a diferentes dimensiones (<xref ref-type="table" rid="t02">Tabla 2</xref>). </p>
                <p><table-wrap id="t02">
                    <label>Tabla 2</label>
                    <caption>
                            <title>Correlaciones Bivariadas de Pearson entre los Items del BPFQ.</title>
                        </caption>
                    <graphic xlink:href="1135-755X-psed-31-2-0141-gt02.jpg"/>
                    <table-wrap-foot>
                        <fn>
                            <p><italic>Nota</italic>. VIM = valoración de la retroalimentación por pares como método instructivo; CO = confianza en la propia calidad de la retroalimentación por pares; CR = confianza en la calidad de la retroalimentación por pares recibida; VPS = valoración de la retroalimentación por pares como una habilidad esencial; BPFQ GF = Beliefs in Peer Feedback Questionnaire General Factor.</p>
                            <p>***<italic>p</italic> &lt; .001.</p>
                        </fn>
                    </table-wrap-foot>
                </table-wrap></p>
                <p>En relación a las correlaciones entre las subescalas del BPFQ, la dimensión VIM presenta correlaciones positivas, moderadas y significativas con CO (<italic>r</italic> = .319***), CR (<italic>r</italic> = .427***) y VPS (<italic>r</italic> = .480***). Asimismo, CO presenta una correlación positiva, fuerte y significativa con CR (<italic>r</italic> = .528***) y positiva, moderada y significativa con VPS (<italic>r</italic> = .427***). Por último, CR y VPS también presentan una correlación positiva, moderada y significativa (<italic>r</italic> = .486***). Finalmente, el factor general del cuestionario correlaciona de forma positiva, fuerte y significativa con el resto de subescalas: VIM (<italic>r</italic> = .675***), CO (<italic>r</italic> = .691***), CR (<italic>r</italic> = .772***) y VPS (<italic>r</italic> = .817***).</p>
            </sec>
            <sec>
                <title>Análisis Factorial Confirmatorio </title>
                <p>Se llevaron a cabo tres análisis factoriales confirmatorios (AFC) para comprobar si la versión española del BPFQ cumplía con la estructura factorial del cuestionario original. El primer AFC está compuesto por un único factor general. Los valores de ajuste del modelo no son satisfactorios, χ<sup>2</sup>(35) = 964.342, CFI = .688, TLI = .599, RMSEA = .209, SRMR = .099, 95% IC (.198, .221). Atendiendo a la versión original de <xref ref-type="bibr" rid="B34">Huisman et al. (2020)</xref>, se realizó un segundo AFC compuesto por cuatro dimensiones. Los resultados corresponden a un modelo tetrafactorial: (1) valoración de la retroalimentación por pares como método instructivo (VIM), (2) confianza en la propia calidad de la retroalimentación por pares (CO), (3) confianza en la calidad de la retroalimentación por pares recibida (CR) y la (4) valoración de la retroalimentación por pares como una habilidad esencial (VPS). Los datos muestran un ajuste satisfactorio del modelo de cuatro factores idéntico al original, χ<sup>2</sup>(29) = 85.939, CFI = .980, TLI = .970, RMSEA = .057, SRMR = .026, 95% IC (.043, .071). Un tercer AFC se llevó a cabo con un modelo bifactorial, en el que se incluye tanto el factor general del cuestionario como sus subescalas. Los valores de ajuste para este modelo son satisfactorios, siendo χ<sup>2</sup>(15) = 25.129, CFI = .997, TLI = .990, RMSEA = .033, SRMR = .012, 95% IC (.003, .055). La <xref ref-type="table" rid="t03">Tabla 3</xref> indica los valores de PUC, ECV y ECV-I como indicadores de específicos del modelo bifactorial. El 68% de la varianza en los ítems se debe al factor general (ω<sub>H</sub> = .823). Los valores de PUC = .822 y ECV = .678 indican la influencia significativa del factor general. Además, el aporte de los factores específicos no es significativo, pues los valores ECV-I superan el .60 en su mayoría (<xref ref-type="table" rid="t03">Tabla 3</xref>).</p>
                <p><table-wrap id="t03">
                    <label>Tabla 3</label>
                    <caption>
                        <title>Indicadores específicos del modelo bifactorial</title>
                    </caption>
                    <graphic xlink:href="1135-755X-psed-31-2-0141-gt03.jpg"/>
                    <table-wrap-foot>
                        <fn>
                            <p><italic>Nota</italic>. PUC = porcentaje de correlaciones no contaminadas; ECV = varianza común explicada; ECV-I = porcentaje de varianza verdadera de cada ítem explicada por el factor general.</p>
                        </fn>
                    </table-wrap-foot>
                </table-wrap></p>
                <p>Por otro lado, las cargas factoriales de la estructura de cuatro factores exceden el valor de .40, demostrando un rango desde .594 hasta .799, salvo el ítem 3 (VIM3), que tiene una carga factorial de .385 (<xref ref-type="fig" rid="f01">Figura 1</xref>). Sin embargo, por motivos teóricos y metodológicos, se decidió mantener todos los ítems del test.</p>
                <fig id="f01">
                    <label>Figura 1</label>
                    <caption>
                        <title>Cargas factoriales del modelo bifactorial compuesto por el factor general y los cuatro factores de la versión española del BPFQ (<italic>N</italic> = 607).</title>
                    </caption>
                    <graphic xlink:href="1135-755X-psed-31-2-0141-gf01.jpg"/>
                    <attrib>VIM = valoración de la retroalimentación por pares como método instructivo: It1, It2, e It3; CO = confianza en la propia calidad de la retroalimentación por pares: It4, e It5; CR = confianza en la calidad de la retroalimentación por pares recibida: It6, e It7; VPS = valoración de la retroalimentación por pares como una habilidad esencial: It8, It9, e It10. ***p &lt; .001.</attrib>
                </fig>
                <p><table-wrap id="t04">
                    <label>Tabla 4</label>
                    <caption>
                        <title>Características psicométricas de la versión española del BPFQ</title>
                    </caption>
                    <graphic xlink:href="1135-755X-psed-31-2-0141-gt04.jpg"/>
                    <table-wrap-foot>
                        <fn>
                            <p><italic>Nota</italic>. VIM = valoración de la retroalimentación por pares como método instructivo; CO = confianza en la propia calidad de la retroalimentación por pares; CR = confianza en la calidad de la retroalimentación por pares recibida; VPS = valoración de la retroalimentación por pares como una habilidad esencial; BPFQ = <italic>Beliefs in Peer Feedback Questionnaire</italic>; r<sub>it</sub>c = correlación del ítem con el total del test.</p>
                        </fn>
                    </table-wrap-foot>
                </table-wrap></p>
            </sec>
            <sec>
                <title>Fiabilidad</title>
                <p>Todos los valores de correlación ítem-resto del test como indicador de discriminación de los ítems se encuentran por encima de .30, excepto el ítem 3 (<italic>r</italic><sub>it</sub>c = .293) (<xref ref-type="table" rid="t04">Tabla 4</xref>). El valor del coeficiente de consistencia interna de fiabilidad para el factor general se encuentra por encima de .80 (siendo α = .862, 95% IC [.845, .878] y ω = .857, 95% IC [.840, .874]). Además, tan solo este indicador de fiabilidad general aumentaría ligeramente en caso de eliminar el ítem 3 (“La retroalimentación únicamente debe ser proporcionada por el personal docente”). </p>
                <p>Además, se obtuvieron los valores de fiabilidad a través del coeficiente de consistencia interna alfa de Cronbach y omega de McDonald para cada dimensión del instrumento BPFQ, siendo todos ellos adecuados (<xref ref-type="table" rid="t05">Tabla 5</xref>). En relación a los valores de Omega Jerárquico, el factor general explica alrededor de un 87% de la varianza total del cuestionario, controlando a las subescalas. Además, las subescalas CR y VPS parecen explicar más de un 84% de la varianza total del cuestionario que, con respecto a las otras dos dimensiones, controlando el factor general (<xref ref-type="table" rid="t05">Tabla 5</xref>). A pesar de la influencia significativa del factor general, los valores de ω<sub>HS</sub> de los factores específicos son adecuados (&gt; .40). </p>
                <p><table-wrap id="t05">
                    <label>Tabla 5</label>
                    <caption>
                        <title> Coeficientes de consistencia interna de fiabilidad para las dimensiones del BPFQ</title>
                    </caption>
                    <graphic xlink:href="1135-755X-psed-31-2-0141-gt05.jpg"/>
                    <table-wrap-foot>
                        <fn>
                            <p><italic>Nota</italic>. VIM = valoración de la retroalimentación por pares como método instructivo; CO = confianza en la propia calidad de la retroalimentación por pares; CR = confianza en la calidad de la retroalimentación por pares recibida; VPS = valoración de la retroalimentación por pares como una habilidad esencial; FG BPFQ = <italic>Factor General del Beliefs in Peer Feedback</italic> Questionnaire; IC = Intervalo de confianza.</p>
                        </fn>
                    </table-wrap-foot>
                </table-wrap></p>
            </sec>
            <sec>
                <title>Diferencias en BPFQ según el Área de Conocimiento</title>
                <p>En las <xref ref-type="table" rid="t06">Tablas 6</xref> y <xref ref-type="table" rid="t07">7</xref> se recogen los resultados obtenidos de las pruebas no paramétricas para comprobar las diferencias existentes entre las áreas de conocimiento. Se encontraron diferencias estadísticamente significativas en todas las dimensiones del cuestionario adaptado al español entre, al menos, dos de los grupos pertenecientes a las áreas de conocimiento del estudiantado. Concretamente, en las áreas de Ciencias y Ciencias Sociales y Jurídicas se hallaron diferencias estadísticamente significativas en todas las dimensiones, presentando puntuaciones más altas el área de Ciencias (<xref ref-type="table" rid="t06">Tablas 6</xref> y <xref ref-type="table" rid="t07">7</xref>). Por último, también se encontraron diferencias estadísticamente significativas en todas las dimensiones del cuestionario en las áreas de Educación y Ciencias Sociales y Jurídicas, mostrando una mayor puntuación en todas las dimensiones el área de Educación (<xref ref-type="table" rid="t06">Tabla 6</xref>).</p>
                <p><table-wrap id="t06">
                    <label>Tabla 6</label>
                    <caption>
                        <title>Prueba H de Kruskal-Wallis. Diferencias en el BPFQ entre áreas de conocimiento (Ciencias, Educación y Ciencias Sociales y Jurídicas)</title>
                    </caption>
                    <graphic xlink:href="1135-755X-psed-31-2-0141-gt06.jpg"/>
                    <table-wrap-foot>
                        <fn>
                            <p><italic>Nota</italic>. VIM = valoración de la retroalimentación por pares como método instructivo; CO = confianza en la propia calidad de la retroalimentación por pares; CR = confianza en la calidad de la retroalimentación por pares recibida; VPS = valoración de la retroalimentación por pares como una habilidad esencial; BPFQ = <italic>Beliefs in Peer Feedback Questionnaire</italic>.</p>
                        </fn>
                    </table-wrap-foot>
                </table-wrap></p>
            </sec>
        </sec>
        <sec sec-type="discussion">
            <title>Discusión</title>
            <p>A pesar de que la literatura científica previa ha demostrado que la evaluación por pares juega un rol esencial en el aprendizaje y aporta grandes beneficios a los estudiantes, como son la capacidad autorreflexiva (<xref ref-type="bibr" rid="B10">Carlsson Hauff y Nilsson, 2022</xref>; <xref ref-type="bibr" rid="B55">Schellekens et al., 2021</xref>), la inclusión de este tipo de metodologías en el contexto universitario sigue siendo relativamente escasa, entre otras razones por la falta de instrumentos específicos para la evaluación de su aceptación por parte de los estudiantes (<xref ref-type="bibr" rid="B66">van Popta et al., 2017</xref>). En este contexto cabe destacar la necesidad de disponer de herramientas de evaluación válidas y fiables (<xref ref-type="bibr" rid="B48">Ramos, 2018</xref>) para identificar las creencias del estudiantado acerca de este tipo de evaluación, así como generalizar su inclusión generalizada en el contexto universitario a la vista de los beneficios que aporta. A ello se debe que el presente estudio haya tenido como objetivo adaptar transculturalmente el cuestionario elaborado por <xref ref-type="bibr" rid="B34">Huisman et al. (2020)</xref>, <italic>Beliefs about Peer-Feedback Questionnaire</italic> (BPFQ), que evalua las creencias sobre la evaluación por pares entre los estudiantes. Además, se han analizado sus propiedades psicométricas y las posibles diferencias en estas creencias entre el estudiantado de diferentes áreas de conocimiento.</p>
            <p>Los análisis correlacionales entre los ítems, las subescalas y el factor general del BPFQ han demostrado también un potencial de discriminación entre sí, además de presentar validez de contenido en las dimensiones, al mostrar correlaciones más elevadas los ítems que pertenecen a las mismas dimensiones. Asimismo, las correlaciones entre las dimensiones parecen ir en la misma dirección que en la versión original del cuestionario (<xref ref-type="bibr" rid="B34">Huisman et al., 2020</xref>). De hecho, estas subescalas también presentan correlaciones elevadas y positivas con el factor general del cuestionario, lo que podría significar validez de constructo y unidad del instrumento para evaluar las creencias sobre la evaluación por pares en el estudiantado universitario español. </p>
            <p>En relación a los análisis factoriales confirmatorios, los resultados muestran un claro índice de ajuste de la estructura factorial del cuestionario en español, de acuerdo con el análisis factorial confirmatorio, replicando la estructura original de la misma propuesta por <xref ref-type="bibr" rid="B34">Huisman et al. (2020)</xref>. De hecho, este estudio ha revelado un ajuste muy satisfactorio de una estructura compuesta por cuatro factores, así como una gran precisión del instrumento a través de los indicadores de consistencia interna y fiabilidad para todas las dimensiones y el factor general en las puntuaciones de la versión española del BPFQ. Sin embargo, el que mejores indicadores de ajuste presenta es el modelo bifactorial, que incluye tanto el factor general del cuestionario como las subescalas. Sin embargo, cabe destacar también la influencia significativa del factor general en los ítems que componen cada dimensión, obtenida a raíz de los valores PUC y ECV (<xref ref-type="bibr" rid="B49">Reise et al., 2013</xref>). Para el estudiantado universitario, el factor general del BPFQ explica su percepción de la evaluación por pares y refuerza su evaluación a través de puntuaciones directas para la medida del constructo general. De hecho, las puntuaciones de la versión española también permiten que sea interpretado el constructo no solo a través de su factor general sino a través de las cuatro dimensiones que replica de la versión original del cuestionario: (1) valoración de la retroalimentación por pares como método instructivo (VIM), (2) confianza en la propia calidad de la retroalimentación por pares (CO), (3) confianza en la calidad de la retroalimentación por pares recibida (CR) y (4) valoración de la retroalimentación por pares como una habilidad esencial (VPS). Estos resultados son coherentes con la versión original propuesta por <xref ref-type="bibr" rid="B34">Huisman et al. (2020)</xref>. </p>
            <p>Con respecto a los indicadores de fiabilidad obtenidos en las puntuaciones de la versión española, tanto el factor general del BPFQ como el de cada subescala son adecuados para la muestra de estudiantado universitario, por lo que parece que el instrumento tiene una buena precisión a la hora de evaluar el constructo en cuestión. De hecho, los indicadores de fiabilidad mostrados a través de los coeficientes de consistencia interna, alfa de Cronbach y omega de McDonald, tanto del factor general como de cada subescala, son similares a los del cuestionario original (<xref ref-type="bibr" rid="B34">Huisman et al., 2020</xref>). Además, el cálculo de los valores de omega de McDonald jerárquico también indica que el constructo del cuestionario también puede ser interpretable a través de las puntuaciones del factor general, con independencia de las subescalas, y viceversa. </p>
            <p>Respecto a las diferencias en las creencias respecto a la evaluación por pares en función del área de conocimiento, se han observado diferencias estadísticamente significativas en el estudiantado. Concretamente, aunque las diferencias de las puntuaciones entre el estudiantado de Ciencias de la Educación no sean significativas, siendo las de los primeros más elevadas en las dimensiones VIM y VPS, el estudiantado del área de Educación es el grupo que alcanza puntuaciones significativamente más elevadas que con respecto al grupo de Ciencias Sociales en todas las dimensiones del cuestionario. Por tanto, de acuerdo con nuestros resultados, el estudiantado de Educación parece valorar más positivamente la evaluación por pares. Estos resultados además son congruentes con el estudio de <xref ref-type="bibr" rid="B34">Huisman et al. (2020)</xref>, en el que el estudiantado de Ciencias Sociales y Educación presenta puntuaciones dispares, siendo las de este último las más elevadas. Entre los estudios realizados hasta la fecha en relación a la evaluación por pares, la mayor parte se han llevado a cabo en el área de Educación, ya que parece ser de gran interés para la mejora de los procesos de toma de decisiones, construcción de conocimiento y juicios evaluativos del área (<xref ref-type="bibr" rid="B66">van Popta et al., 2017</xref>). Esto podría explicarse por la percepción de los estudiantes de la autoevaluación y su conocimiento de la misma, que indica que podría influir en la percepción del valor que se otorga a las evaluaciones recibidas del propio trabajo (<xref ref-type="bibr" rid="B10">Carlsson Hauff y Nilsson, 2022</xref>). Por otra parte, la creencia de los estudiantes sobre la falta de formación y experiencia de sus compañeros en la materia y en la realización de este tipo de evaluaciones (<xref ref-type="bibr" rid="B29">Han y Xu, 2020</xref>; <xref ref-type="bibr" rid="B71">Zhan, 2021</xref>) podría explicar las puntuaciones más bajas en los estudiantes de las áreas de conocimiento de Ciencias y Ciencias Jurídicas en comparación con los de Educación. Estos últimos estarían más formados en sistemas de evaluación novedosos y alternativos como parte de los contenidos propios de su formación y más abiertos a nuevas prácticas educativas, por lo que es más probable que perciban a sus compañeros como más capaces de realizar este tipo de evaluaciones y, por tanto, les concedan mayor valor. Este proceso dentro del aprendizaje puede motivar al estudiantado a desarrollar las habilidades asociadas al juicio valorativo y de interacción social de los estudiantes, que puede influir directamente en la calidad de su rendimiento académico (<xref ref-type="bibr" rid="B32">Hoo et al., 2022</xref>; <xref ref-type="bibr" rid="B66">van Popta et al., 2017</xref>). Teniendo en cuenta todos los resultados mencionados, nuestra investigación sugiere que el cuestionario autoinformado para la evaluación de las creencias sobre la retroalimentación por pares en el estudiantado universitario es rápido, adecuado y fiable para una medida general y de cada una de las subescalas relacionadas con estas creencias. </p>
            <sec>
                <title>Fortalezas, Limitaciones y Líneas Futuras de Investigación</title>
                <p>En cuanto a las fortalezas, en este estudio contamos con estudiantado de diferentes áreas de conocimiento, lo cual nos puede proporcionar información valiosa acerca de la utilidad que tiene este tipo de metodologías en el proceso de enseñanza-aprendizaje en diferentes áreas dentro de la universidad. Además, proporcionar este cuestionario a la comunidad científica y universitaria podría contribuir al fomento del conocimiento en estas áreas, así como a ampliar el concepto relacionado con diversos aspectos de la evaluación por pares y la influencia en las creencias que el estudiantado tiene sobre el mismo. Asimismo, la elaboración y adaptación de este tipo de instrumentos podría facilitar el formato de evaluación de estas creencias y cómo influye en la interacción entre el estudiantado (<xref ref-type="bibr" rid="B34">Huisman et al., 2020</xref>). Sin embargo, existen diversas limitaciones asociadas al presente estudio. En cuanto a la estructura del cuestionario, a pesar de que presenta adecuados indicadores de fiabilidad, sería interesante analizar en futuros estudios la validez interna del instrumento a través del cálculo de la validez discriminante y convergente. Otra de las limitaciones hace referencia al pequeño tamaño de la muestra, que podría plantear problemas a la hora de generalizar resultados de este estudio. Además, el estudiantado tiene una mala experiencia en relación a esta metodología de evaluación, lo que podría suponer un sesgo de respuesta si no la conocen, por lo que, aunque se encuentren en un nivel de educación superior, el conocimiento que poseen es muy escueto, lo que implica interpretar los resultados con cautela. Por tanto, en futuros estudios sería interesante la creación de grupos focales para acercarse aún más al alumnado y precisar la información relativa a esta metodología de evaluación por pares con objeto de incrementar el conocimiento del estudiante al respecto y mejorar la fiabilidad de los hallazgos de futuras investigaciones, así como la validez del constructo en cuestión. Además, en futuras investigaciones se podrían calcular las diferencias entre las diversas áreas de conocimiento con el objetivo de comprobar el nivel de creencias sobre esta metodología en el estudiantado. </p>
                <p>En conclusión, podemos afirmar que las puntuaciones de la versión española del BPFQ son válidas y fiables para evaluar las creencias acerca de la evaluación por pares en estudiantado universitario al replicar la mayoría de las propiedades psicométricas encontradas en la versión original: (I) una estructura factorial con un factor general sobre creencias acerca de la evaluación por pares y cuatro dimensiones específicas y (II) una adecuada consistencia interna del cuestionario en general. Asimismo, el estudio también presenta un modelo bifactorial que muestra indicadores de ajuste satisfactorios, a través de los cuales se puede afirmar que el constructo que evalúa este cuestionario para la versión en español puede ser interpretado tanto a través de las puntuaciones del factor general con independencia de las subescalas y viceversa. Además, los resultados también avalan que el estudiantado del área de Educación es el que más positivamente valora la evaluación por pares, por lo que este instrumento resulta de gran utilidad a la hora de introducir nuevas estrategias en el aprendizaje colaborativo de los estudiantes. De este modo, el fomento y la facilidad para evaluar la percepción de los estudiantes sobre la evaluación por pares repercute positivamente en la mejora del proceso de enseñanza-aprendizaje en este nivel educativo, construyendo así un conocimiento sobre los juicios valorativos y potenciando las habilidades de interacción entre estudiantes y su calidad de vida académica. </p>
            </sec>
        </sec>
        <sec>
            <title>Extended Summary</title>
            <p>Peer assessment, characterized by feedback, communication, reflection, and collaboration among peers, has emerged as a prominent educational approach (<xref ref-type="bibr" rid="B13">Darvishi et al., 2022</xref>). Recent studies have suggested that peer-feedback assessment is considered as an essential assessment model within the teaching-learning process based on the learning self-regulation (<xref ref-type="bibr" rid="B19">Erkan et al., 2021</xref>; <xref ref-type="bibr" rid="B23">Filius et al., 2018</xref>). Aligned with modern cognitive learning theory, peer learning strategies engage students in the assessment process, fostering deep learning approaches and intrinsic motivation (<xref ref-type="bibr" rid="B04">Barkley et al., 2014</xref>; <xref ref-type="bibr" rid="B47">Pinheiro et al., 2023</xref>). This collaborative approach not only enhances student engagement but also facilitates judgment skills, critical abilities, and self-awareness (<xref ref-type="bibr" rid="B21">Fang et al., 2021</xref>).</p>
            <p>In higher education, integrating peer assessment changes the teaching-learning process from a teacher-led to a collaborative, student-centered approach, in line with social constructivism principles (<xref ref-type="bibr" rid="B38">Kasch et al., 2021</xref>; <xref ref-type="bibr" rid="B67">Vygotsky, 2012</xref>). Students benefit by expanding their knowledge, identifying strengths and weaknesses, and developing personal and professional skills (<xref ref-type="bibr" rid="B15">Deneen y Hoo, 2021</xref>). Despite its benefits, research on students’ beliefs toward peer assessment remains limited, needing valid and reliable assessment tools (<xref ref-type="bibr" rid="B34">Huisman et al., 2020</xref>; <xref ref-type="bibr" rid="B39">Kaufman y Schunn, 2011</xref>).</p>
            <p>The Beliefs about Peer Feedback Questionnaire (BPFQ) addresses this gap, assessing students’ attitudes about collaborative assessment (<xref ref-type="bibr" rid="B34">Huisman et al., 2020</xref>). This study aims to cross-culturally adapt the BPFQ into Spanish and analyze its psychometric properties, considering potential differences in beliefs among students from different fields of study.</p>
            <sec>
                <title>Method</title>
                <sec>
                    <title><italic>Study Design</italic></title>
                    <p>An instrumental study was conducted to adapt the BPFQ into Spanish and evaluate its psychometric properties. The adaptation took place in two phases: linguistic validation and psychometric properties evaluation.</p>
                </sec>
                <sec>
                    <title><italic>Phase I: Linguistic Validation</italic></title>
                    <p>The process of translating and validating the BPFQ involved five phases. Initially, two bilingual translators translated the questionnaire into Spanish, which was then combined into a preliminary version. Subsequently, two other translators translated this version back into English, resulting in a final English version. Linguistic equivalence was checked in the fourth step, and a committee of Spanish experts reviewed the final Spanish version for cultural and linguistic accuracy. Discrepancies were resolved through consultation, resulting in a positively evaluated Spanish version without any item modifications.</p>
                </sec>
                <sec>
                    <title><italic>Phase II: Psychometric Properties Evaluation</italic></title>
                    <p>Participants. A total of 607 students participated from the University of Alicante, Spain. The sample represented diverse academic specializations.</p>
                    <p>Instruments. The BPFQ, comprising four dimensions, assessed students’ beliefs about peer assessment. A sociodemographic questionnaire gathered additional information.</p>
                </sec>
                <sec>
                    <title><italic>Procedure</italic></title>
                    <p>Faculty members from various programs at the University of Alicante were contacted and briefed about the research. They selected participating classes and explained the study to students. Participants received information about the study’s purpose, and data confidentiality. The assessment, including informed consent, a sociodemographic questionnaire, and the Spanish BPFQ, was administered. Participation was voluntary, anonymous, and uncompensated. Ethics approval was obtained from the University of Alicante Ethics Committee (UA-2022-02-16), adhering to the <xref ref-type="bibr" rid="B69">World Medical Association’s (2013)</xref> Declaration of Helsinki. </p>
                </sec>
                <sec>
                    <title><italic>Data Analysis</italic></title>
                    <p>Descriptive analyses were firstly carried out to examine the performance of the test. Pearson’s bivariate correlations were performed among confirmatory factor analysis verified the questionnaire’s factorial structure. Internal consistency was assessed using Cronbach’s alpha and McDonald’s omega. Differences between fields of study were analyzed using the Kruskal-Wallis test.</p>
                </sec>
            </sec>
            <sec>
                <title>Results</title>
                <sec>
                    <title><italic>Descriptive Item Analysis</italic></title>
                    <p>Descriptive analyses calculated means, standard deviations, ranges, and percentiles for each BPFQ item. A 5-point Likert scale was used, with a ceiling effect observed in three of the ten items (<xref ref-type="table" rid="t01">Table 1</xref>).</p>
                </sec>
                <sec>
                    <title><italic>Correlation Analysis among Items, Subscales, and the General Factor of the BPFQ</italic></title>
                    <p>Stronger correlations were found among the items which belonged to the same dimension. Positive, moderate, and significant correlations were also found among dimensions of the questionnaire. Moreover, the general factor of the BPFQ was strongly, positively, and significantly correlated to all the dimensions (<xref ref-type="table" rid="t02">Table 2</xref>). </p>
                </sec>
                <sec>
                    <title><italic>Confirmatory Factor Analysis</italic></title>
                    <p>Three confirmatory factor analyses were performed. The bifactor model showed the best fit indicators and it verified a structure composed of both the general factor and the subscales of the Spanish version of the BPFQ (<xref ref-type="bibr" rid="B52">Ruiz-Robledillo et al., 2022</xref>), and the original questionnaire (<xref ref-type="bibr" rid="B34">Huisman et al., 2020</xref>). These subscales were: (1) valuing peer feedback as an instructional method (VIM), (2) confidence in one’s own quality of peer feedback (CO), (3) confidence in the quality of received peer feedback (CR), and (4) valuing peer feedback as an essential skill (VPS). Data indicated the best satisfactory fit for the bifactor model, χ<sup>2</sup>(15) = 25.129, CFI = .997, TLI = .990, RMSEA = .033, SRMR = .012, 95% CI [.003, .055] (<xref ref-type="fig" rid="f01">Figure 1</xref>). For theoretical and methodological reasons, all test items were retained.</p>
                </sec>
                <sec>
                    <title><italic>Reliability</italic></title>
                    <p>Item-total correlations as indicators of discrimination were above .30 for all items except item 3 (<italic>r</italic><sub>it</sub>c = .293) (<xref ref-type="table" rid="t03">Table 3</xref>). The coefficient of internal consistency reliability for the overall factor exceeded .80 (α = .862, 95% CI [.845, .878], and ω = .857, 95% CI [.840, .874]). Additionally, only the general reliability index would slightly increase upon removing item 3 (“Feedback should only be provided by teaching staff”). Regarding the hierarchical omega values, the general factor questionnaire scores explained more than the 80% of the construct without the influence of the subscales, and vice versa (<xref ref-type="table" rid="t04">Table 4</xref>). </p>
                </sec>
                <sec>
                    <title><italic>Differences in BPFQ by Field of Study</italic></title>
                    <p>Results of non-parametric tests assessing differences between fields of study are presented in <xref ref-type="table" rid="t05">Table 5</xref>. Statistically significant differences were found in all dimensions of the Spanish-adapted questionnaire across at least two student field groups. Specifically, between Science and Social Sciences and Law, significant differences were observed in all dimensions, with higher scores in the Science field (<xref ref-type="table" rid="t05">Tables 5</xref> and <xref ref-type="table" rid="t06">6</xref>). Lastly, significant differences were also found in all questionnaire dimensions between Education and Social Sciences and Law, with higher scores in all dimensions in the Education field (<xref ref-type="table" rid="t05">Table 5</xref>).</p>
                </sec>
            </sec>
            <sec>
                <title>Discussion</title>
                <p>This paper discusses the shortage of peer assessment in university contexts despite its recognized benefits, attributing this partly to the lack of appropriate assessment tools. To address this gap, the study aimed to adapt and validate the Beliefs about Peer-Feedback Questionnaire (BPFQ) for assessing student beliefs towards peer assessment. Results showed that the Spanish version of the BPFQ replicated the original structure and demonstrated good psychometric properties, including factorial structure, internal consistency, and reliability. However, the best fit is for a bifactor model, in which both the general factor and the subscales are included. Significant differences in beliefs about peer assessment were found among students from different fields, with those in education valuing it more positively. This is in line with previous research highlighting the importance of education in peer assessment. The study acknowledges strengths such as its diverse sample but also recognizes limitations like a small sample size and students’ limited experience with peer assessment, suggesting the need for cautious interpretation. Despite limitations, the BPFQ is deemed a reliable instrument for evaluating beliefs about peer assessment, particularly among Education students. This supports its utility in enhancing collaborative learning strategies. </p>
                <p>The study concludes by emphasizing the positive impact of assessing student perceptions of peer assessment on teaching and learning process, highlighting the importance of understanding evaluative judgments and improving student interaction skills. Future research directions include exploring peer assessment methodologies further through focus groups to refine understanding and improve the reliability and validity of research findings. Overall, the study contributes to the advancement of peer assessment practices in higher education, facilitating knowledge enhancement and promoting more effective teaching and learning environments.</p>
            </sec>
        </sec>
    </body>
    <back>
            <fn-group>
                <fn fn-type="financial-disclosure">
                    <label>Financiación</label>
                    <p>Esta investigación ha sido financiada por el Programa de REDES-I3CE de Investigación en Docencia Universitaria (Programa REDES) del Vicerrectorado de Transformación digital y el Instituto de Ciencias de la Educación de la Universidad de Alicante (2021-2022). Ref.: (5505).</p>
                </fn>
                <fn fn-type="other">
                    <p>
                        <bold>Para citar este artículo:</bold> Ruiz-Robledillo, N., Clement-Carbonell, V., Ferrer-Cascales, R., Costa-López, B., Alcocer-Bruno, C., Vela-Bermejo, J. y Albaladejo-Blázquez, N. (2025). Propiedades psicométricas de la versión Española del cuestionario de creencias sobre la evaluación por pares. <italic>Psicología Educativa, 31</italic>(2), 141-152. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.5093/psed2025a12">https://doi.org/10.5093/psed2025a12</ext-link>
                    </p>
                </fn>
            </fn-group>
            <ref-list>
                <title>Referencias</title>
                <ref id="B01">
                    <mixed-citation>Alemdag, E. y Yildirim, Z. (2022). Effectiveness of online regulation scaffolds on peer feedback provision and uptake: A mixed methods study. <italic>Computers &amp; Education, 188,</italic> Article 104574. https://doi.org/10.1016/j.compedu.2022.104574</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Alemdag</surname>
                                <given-names>E.</given-names>
                            </name>
                            <name>
                                <surname>Yildirim</surname>
                                <given-names>Z.</given-names>
                            </name>
                        </person-group>
                        <year>2022</year>
                        <article-title>Effectiveness of online regulation scaffolds on peer feedback provision and uptake: A mixed methods study</article-title>
                        <source>Computers &amp; Education</source>
                        <volume>188</volume>
                        <fpage>104574</fpage>
                        <lpage>104574</lpage>
                        <pub-id pub-id-type="doi">10.1016/j.compedu.2022.104574</pub-id>
                    </element-citation>
                </ref>
                <ref id="B02">
                    <mixed-citation>Alqassab, M., Strijbos, J.-W., Panadero, E., Ruiz, J. F., Warrens, M. y To, J. (2023). A Systematic review of peer assessment design elements. <italic>Educational Psychology Review, 35</italic>(1), Article 18. https://doi.org/10.1007/s10648-023-09723-7</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Alqassab</surname>
                                <given-names>M</given-names>
                            </name>
                            <name>
                                <surname>Strijbos</surname>
                                <given-names>J.-W</given-names>
                            </name>
                            <name>
                                <surname>Panadero</surname>
                                <given-names>E</given-names>
                            </name>
                            <name>
                                <surname>Ruiz</surname>
                                <given-names>J. F</given-names>
                            </name>
                            <name>
                                <surname>Warrens</surname>
                                <given-names>M</given-names>
                            </name>
                            <name>
                                <surname>To</surname>
                                <given-names>J</given-names>
                            </name>
                        </person-group>
                        <year>2023</year>
                        <article-title>A Systematic review of peer assessment design elements</article-title>
                        <source>Educational Psychology Review</source>
                        <volume>35</volume>
                        <issue>1</issue>
                        <comment>Article 18</comment>
                        <pub-id pub-id-type="doi">10.1007/s10648-023-09723-7</pub-id>
                    </element-citation>
                </ref>
                <ref id="B03">
                    <mixed-citation>Ashenafi, M. M. (2017). Peer-assessment in higher education - twenty-first century practices, challenges and the way forward. <italic>Assessment &amp; Evaluation in Higher Education, 42</italic>(2), 226-251. https://doi.org/10.1080/02602938.2015.1100711</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Ashenafi</surname>
                                <given-names>M. M</given-names>
                            </name>
                        </person-group>
                        <year>2017</year>
                        <article-title>Peer-assessment in higher education - twenty-first century practices, challenges and the way forward</article-title>
                        <source>Assessment &amp; Evaluation in Higher Education</source>
                        <volume>42</volume>
                        <issue>2</issue>
                        <fpage>226</fpage>
                        <lpage>251</lpage>
                        <pub-id pub-id-type="doi">10.1080/02602938.2015.1100711</pub-id>
                    </element-citation>
                </ref>
                <ref id="B04">
                    <mixed-citation>Barkley, E. F., Cross, K. P. y Major, C. H. (2014). <italic>Collaborative learning techniques: A handbook for college faculty.</italic> John Wiley &amp; Sons.</mixed-citation>
                    <element-citation publication-type="book">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Barkley</surname>
                                <given-names>E. F</given-names>
                            </name>
                            <name>
                                <surname>Cross</surname>
                                <given-names>K. P.</given-names>
                            </name>
                            <name>
                                <surname>Major</surname>
                                <given-names>C. H.</given-names>
                            </name>
                        </person-group>
                        <year>2014</year>
                        <source>Collaborative learning techniques: A handbook for college faculty</source>
                        <publisher-name>John Wiley &amp; Sons</publisher-name>
                    </element-citation>
                </ref>
                <ref id="B05">
                    <mixed-citation>Boud, D. (1990). Assessment and the promotion of academic values. <italic>Studies in Higher Education, 15</italic>(1), 101-111. https://doi.org/10.1080/03075079012331377621</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Boud</surname>
                                <given-names>D.</given-names>
                            </name>
                        </person-group>
                        <year>1990</year>
                        <article-title>Assessment and the promotion of academic values</article-title>
                        <source>Studies in Higher Education</source>
                        <volume>15</volume>
                        <issue>1</issue>
                        <fpage>101</fpage>
                        <lpage>111</lpage>
                        <pub-id pub-id-type="doi">10.1080/03075079012331377621</pub-id>
                    </element-citation>
                </ref>
                <ref id="B06">
                    <mixed-citation>Boud, D., Cohen, R. y Sampson, J. (1999). Peer learning and assessment. <italic>Assessment &amp; Evaluation in Higher Education, 24</italic>(4), 413-426. https://doi.org/10.1080/0260293990240405</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Boud</surname>
                                <given-names>D</given-names>
                            </name>
                            <name>
                                <surname>Cohen</surname>
                                <given-names>R.</given-names>
                            </name>
                            <name>
                                <surname>Sampson</surname>
                                <given-names>J.</given-names>
                            </name>
                        </person-group>
                        <year>1999</year>
                        <article-title>Peer learning and assessment</article-title>
                        <source>Assessment &amp; Evaluation in Higher Education</source>
                        <volume>24</volume>
                        <issue>4</issue>
                        <fpage>413</fpage>
                        <lpage>426</lpage>
                        <pub-id pub-id-type="doi">10.1080/0260293990240405</pub-id>
                    </element-citation>
                </ref>
                <ref id="B07">
                    <mixed-citation>Browne, M. W. y Cudeck, R. (1992). Alternative ways of assessing model fit. <italic>Sociological Methods &amp; Research, 21</italic>(2), 230-258. https://doi.org/10.1177/0049124192021002005</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Browne</surname>
                                <given-names>M. W.</given-names>
                            </name>
                            <name>
                                <surname>Cudeck</surname>
                                <given-names>R.</given-names>
                            </name>
                        </person-group>
                        <year>1992</year>
                        <article-title>Alternative ways of assessing model fit</article-title>
                        <source>Sociological Methods &amp; Research</source>
                        <volume>21</volume>
                        <issue>2</issue>
                        <fpage>230</fpage>
                        <lpage>258</lpage>
                        <pub-id pub-id-type="doi">10.1177/0049124192021002005</pub-id>
                    </element-citation>
                </ref>
                <ref id="B08">
                    <mixed-citation>Burgess, A. y Mellis, C. (2015). Feedback and assessment for clinical placements: Achieving the right balance. <italic>Advances in Medical Education and Practice, 6</italic>, 373-381. https://doi.org/10.2147/AMEP.S77890</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Burgess</surname>
                                <given-names>A</given-names>
                            </name>
                            <name>
                                <surname>Mellis</surname>
                                <given-names>C</given-names>
                            </name>
                        </person-group>
                        <year>2015</year>
                        <article-title>Feedback and assessment for clinical placements: Achieving the right balance</article-title>
                        <source>Advances in Medical Education and Practice</source>
                        <volume>6</volume>
                        <fpage>373</fpage>
                        <lpage>381</lpage>
                        <pub-id pub-id-type="doi">10.2147/AMEP.S77890</pub-id>
                    </element-citation>
                </ref>
                <ref id="B09">
                    <mixed-citation>Carless, D. (2022). From teacher transmission of information to student feedback literacy: Activating the learner role in feedback processes. <italic>Active Learning in Higher Education, 23</italic>(2), 143-153. https://doi.org/10.1177/1469787420945845</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Carless</surname>
                                <given-names>D.</given-names>
                            </name>
                        </person-group>
                        <year>2022</year>
                        <article-title>From teacher transmission of information to student feedback literacy: Activating the learner role in feedback processes</article-title>
                        <source>Active Learning in Higher Education</source>
                        <volume>23</volume>
                        <issue>2</issue>
                        <fpage>143</fpage>
                        <lpage>153</lpage>
                        <pub-id pub-id-type="doi">10.1177/1469787420945845</pub-id>
                    </element-citation>
                </ref>
                <ref id="B10">
                    <mixed-citation>Carlsson Hauff, J. y Nilsson, J. (2022). Students’ experience of making and receiving peer assessment: The effect of self-assessed knowledge and trust. <italic>Assessment &amp; Evaluation in Higher Education, 47</italic>(6), 959-971. https://doi.org/10.1080/02602938.2021.1970713</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Carlsson Hauff</surname>
                                <given-names>J.</given-names>
                            </name>
                            <name>
                                <surname>Nilsson</surname>
                                <given-names>J.</given-names>
                            </name>
                        </person-group>
                        <year>2022</year>
                        <article-title>Students’ experience of making and receiving peer assessment: The effect of self-assessed knowledge and trust</article-title>
                        <source>Assessment &amp; Evaluation in Higher Education</source>
                        <volume>47</volume>
                        <issue>6</issue>
                        <fpage>959</fpage>
                        <lpage>971</lpage>
                        <pub-id pub-id-type="doi">10.1080/02602938.2021.1970713</pub-id>
                    </element-citation>
                </ref>
                <ref id="B11">
                    <mixed-citation>Carretero-Dios, H. y Pérez, C. (2007). Standards for the development and review of instrumental studies: Considerations about test selection in psychological research. <italic>International Journal of Clinical and Health Psychology, 7</italic>(3), 863-882.</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Carretero-Dios</surname>
                                <given-names>H.</given-names>
                            </name>
                            <name>
                                <surname>Pérez</surname>
                                <given-names>C.</given-names>
                            </name>
                        </person-group>
                        <year>2007</year>
                        <article-title>Standards for the development and review of instrumental studies: Considerations about test selection in psychological research</article-title>
                        <source>International Journal of Clinical and Health Psychology</source>
                        <volume>7</volume>
                        <issue>3</issue>
                        <fpage>863</fpage>
                        <lpage>882</lpage>
                    </element-citation>
                </ref>
                <ref id="B12">
                    <mixed-citation>Cheng, W. y Warren, M. (1997). Having second thoughts: Student perceptions before and after a peer assessment exercise. <italic>Studies in Higher Education, 22</italic>(2), 233-239. https://doi.org/10.1080/03075079712331381064</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Cheng</surname>
                                <given-names>W</given-names>
                            </name>
                            <name>
                                <surname>Warren</surname>
                                <given-names>M</given-names>
                            </name>
                        </person-group>
                        <year>1997</year>
                        <article-title>Having second thoughts: Student perceptions before and after a peer assessment exercise</article-title>
                        <source>Studies in Higher Education</source>
                        <volume>22</volume>
                        <issue>2</issue>
                        <fpage>233</fpage>
                        <lpage>239</lpage>
                        <pub-id pub-id-type="doi">10.1080/03075079712331381064</pub-id>
                    </element-citation>
                </ref>
                <ref id="B13">
                    <mixed-citation>Darvishi, A., Khosravi, H., Sadiq, S. y Gaševi, D. (2022). Incorporating AI and learning analytics to build trustworthy peer assessment systems. <italic>British Journal of Educational Technology, 53</italic>(4), 844-875. https://doi.org/10.1111/bjet.13233</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Darvishi</surname>
                                <given-names>A</given-names>
                            </name>
                            <name>
                                <surname>Khosravi</surname>
                                <given-names>H</given-names>
                            </name>
                            <name>
                                <surname>Sadiq</surname>
                                <given-names>S.</given-names>
                            </name>
                            <name>
                                <surname>Gaševi</surname>
                                <given-names>D.</given-names>
                            </name>
                        </person-group>
                        <year>2022</year>
                        <article-title>Incorporating AI and learning analytics to build trustworthy peer assessment systems</article-title>
                        <source>British Journal of Educational Technology</source>
                        <volume>53</volume>
                        <issue>4</issue>
                        <fpage>844</fpage>
                        <lpage>875</lpage>
                        <pub-id pub-id-type="doi">10.1111/bjet.13233</pub-id>
                    </element-citation>
                </ref>
                <ref id="B14">
                    <mixed-citation>Davis, S., Duane, B., Loxley, A. y Quigley, D. (2022). The evaluation of an evidence-based model of feedback implemented on an undergraduate dental clinical learning environment. <italic>BMC Medical Education, 22</italic>(1), Article 588. https://doi.org/10.1186/s12909-022-03630-1</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Davis</surname>
                                <given-names>S</given-names>
                            </name>
                            <name>
                                <surname>Duane</surname>
                                <given-names>B</given-names>
                            </name>
                            <name>
                                <surname>Loxley</surname>
                                <given-names>A.</given-names>
                            </name>
                            <name>
                                <surname>Quigley</surname>
                                <given-names>D.</given-names>
                            </name>
                        </person-group>
                        <year>2022</year>
                        <article-title>The evaluation of an evidence-based model of feedback implemented on an undergraduate dental clinical learning environment</article-title>
                        <source>BMC Medical Education</source>
                        <volume>22</volume>
                        <issue>1</issue>
                        <fpage>588</fpage>
                        <lpage>588</lpage>
                        <pub-id pub-id-type="doi">10.1186/s12909-022-03630-1</pub-id>
                    </element-citation>
                </ref>
                <ref id="B15">
                    <mixed-citation>Deneen, C. C. y Hoo, H.-T. (2021). Connecting teacher and student assessment literacy with self-evaluation and peer feedback. <italic>Assessment &amp; Evaluation in Higher Education, 0</italic>(0), 1-13. https://doi.org/10.1080/02602938.2021.1967284</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Deneen</surname>
                                <given-names>C. C.</given-names>
                            </name>
                            <name>
                                <surname>Hoo</surname>
                                <given-names>H.-T.</given-names>
                            </name>
                        </person-group>
                        <year>2021</year>
                        <article-title>Connecting teacher and student assessment literacy with self-evaluation and peer feedback</article-title>
                        <source>Assessment &amp; Evaluation in Higher Education</source>
                        <volume>0</volume>
                        <issue>0</issue>
                        <fpage>1</fpage>
                        <lpage>13</lpage>
                        <pub-id pub-id-type="doi">10.1080/02602938.2021.1967284</pub-id>
                    </element-citation>
                </ref>
                <ref id="B16">
                    <mixed-citation>Dochy, F., Segers, M. y Sluijsmans, D. (1999). The use of self-, peer and co-assessment in higher education: A review. <italic>Studies in Higher Education, 24</italic>(3), 331-350. https://doi.org/10.1080/03075079912331379935</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Dochy</surname>
                                <given-names>F</given-names>
                            </name>
                            <name>
                                <surname>Segers</surname>
                                <given-names>M</given-names>
                            </name>
                            <name>
                                <surname>Sluijsmans</surname>
                                <given-names>D</given-names>
                            </name>
                        </person-group>
                        <year>1999</year>
                        <article-title>The use of self-, peer and co-assessment in higher education: A review</article-title>
                        <source>Studies in Higher Education</source>
                        <volume>24</volume>
                        <issue>3</issue>
                        <fpage>331</fpage>
                        <lpage>350</lpage>
                        <pub-id pub-id-type="doi">10.1080/03075079912331379935</pub-id>
                    </element-citation>
                </ref>
                <ref id="B17">
                    <mixed-citation>Domínguez-Lara, S. y Rodríguez, A. (2017). Statistical indices from bifactor models. <italic>Interacciones, 3</italic>(2), 59-65. https://doi.org/10.24016/2017.v3n2.51</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Domínguez-Lara</surname>
                                <given-names>S.</given-names>
                            </name>
                            <name>
                                <surname>Rodríguez</surname>
                                <given-names>A.</given-names>
                            </name>
                        </person-group>
                        <year>2017</year>
                        <article-title>Statistical indices from bifactor models</article-title>
                        <source>Interacciones</source>
                        <volume>3</volume>
                        <issue>2</issue>
                        <fpage>59</fpage>
                        <lpage>65</lpage>
                        <pub-id pub-id-type="doi">10.24016/2017.v3n2.51</pub-id>
                    </element-citation>
                </ref>
                <ref id="B18">
                    <mixed-citation>Epskamp, S., Stuber, S., Nak, J., Veenman, M. y Jorgensen, T. D. (2019). semPlot: Path diagrams and visual analysis of various SEM packages’ output (Version 1.1. 2). [Computer software].</mixed-citation>
                    <element-citation publication-type="book">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Epskamp</surname>
                                <given-names>S</given-names>
                            </name>
                            <name>
                                <surname>Stuber</surname>
                                <given-names>S</given-names>
                            </name>
                            <name>
                                <surname>Nak</surname>
                                <given-names>J</given-names>
                            </name>
                            <name>
                                <surname>Veenman</surname>
                                <given-names>M.</given-names>
                            </name>
                            <name>
                                <surname>Jorgensen</surname>
                                <given-names>T. D.</given-names>
                            </name>
                        </person-group>
                        <year>2019</year>
                        <source>semPlot: Path diagrams and visual analysis of various SEM packages’ output</source>
                        <comment>Version 1.1. 2</comment>
                        <comment>Computer software</comment>
                    </element-citation>
                </ref>
                <ref id="B19">
                    <mixed-citation>Erkan, E., Dimitriadis, Y. y Gaševi, E. (2021). A collaborative learning approach to dialogic peer feedback: A theoretical framework. <italic>Assessment &amp; Evaluation in Higher Education, 46</italic>(4), 586-600. https://doi.org/10.1080/02602938.2020.1786497</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Erkan</surname>
                                <given-names>E</given-names>
                            </name>
                            <name>
                                <surname>Dimitriadis</surname>
                                <given-names>Y.</given-names>
                            </name>
                            <name>
                                <surname>Gaševi</surname>
                                <given-names>E.</given-names>
                            </name>
                        </person-group>
                        <year>2021</year>
                        <article-title>A collaborative learning approach to dialogic peer feedback: A theoretical framework</article-title>
                        <source>Assessment &amp; Evaluation in Higher Education</source>
                        <volume>46</volume>
                        <issue>4</issue>
                        <fpage>586</fpage>
                        <lpage>600</lpage>
                        <pub-id pub-id-type="doi">10.1080/02602938.2020.1786497</pub-id>
                    </element-citation>
                </ref>
                <ref id="B20">
                    <mixed-citation>Estriegana, R., Teixeira, A. M., Robina-Ramirez, R., Medina-Merodio, J.-A. y Otón, S. (2024). Impact of communication and relationships on student satisfaction and acceptance of self- and peer-assessment. <italic>Education and Information Technologies, 29,</italic> 14715-14731. https://doi.org/10.1007/s10639-023-12276-5</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Estriegana</surname>
                                <given-names>R</given-names>
                            </name>
                            <name>
                                <surname>Teixeira</surname>
                                <given-names>A. M</given-names>
                            </name>
                            <name>
                                <surname>Robina-Ramirez</surname>
                                <given-names>R</given-names>
                            </name>
                            <name>
                                <surname>Medina-Merodio</surname>
                                <given-names>J.-A.</given-names>
                            </name>
                            <name>
                                <surname>Otón</surname>
                                <given-names>S.</given-names>
                            </name>
                        </person-group>
                        <year>2024</year>
                        <article-title>Impact of communication and relationships on student satisfaction and acceptance of self- and peer-assessment</article-title>
                        <source>Education and Information Technologies</source>
                        <volume>29</volume>
                        <fpage>14715</fpage>
                        <lpage>14731</lpage>
                        <pub-id pub-id-type="doi">10.1007/s10639-023-12276-5</pub-id>
                    </element-citation>
                </ref>
                <ref id="B21">
                    <mixed-citation>Fang, J.-W., Chang, S.-C., Hwang, G.-J. y Yang, G. (2021). An online collaborative peer-assessment approach to strengthening pre-service teachers’ digital content development competence and higher-order thinking tendency. <italic>Educational Technology Research and Development, 69</italic>(2), 1155-1181. https://doi.org/10.1007/s11423-021-09990-7</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Fang</surname>
                                <given-names>J.-W</given-names>
                            </name>
                            <name>
                                <surname>Chang</surname>
                                <given-names>S.-C</given-names>
                            </name>
                            <name>
                                <surname>Hwang</surname>
                                <given-names>G.-J</given-names>
                            </name>
                            <name>
                                <surname>Yang</surname>
                                <given-names>G</given-names>
                            </name>
                        </person-group>
                        <year>2021</year>
                        <article-title>An online collaborative peer-assessment approach to strengthening pre-service teachers’ digital content development competence and higher-order thinking tendency</article-title>
                        <source>Educational Technology Research and Development</source>
                        <volume>69</volume>
                        <issue>2</issue>
                        <fpage>1155</fpage>
                        <lpage>1181</lpage>
                        <pub-id pub-id-type="doi">10.1007/s11423-021-09990-7</pub-id>
                    </element-citation>
                </ref>
                <ref id="B22">
                    <mixed-citation>Field, A. (2009). <italic>Discovering statistics using SPSS.</italic> SAGE Publications.</mixed-citation>
                    <element-citation publication-type="book">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Field</surname>
                                <given-names>A</given-names>
                            </name>
                        </person-group>
                        <year>2009</year>
                        <source>Discovering statistics using SPSS</source>
                        <publisher-name>SAGE Publications</publisher-name>
                    </element-citation>
                </ref>
                <ref id="B23">
                    <mixed-citation>Filius, R. M., de Kleijn, R. A., Uijl, S. G., Prins, F. J., van Rijen, H. V. y Grobbee, D. E. (2018). Strengthening dialogic peer feedback aiming for deep learning in SPOCs.<italic> Computers &amp; Education, 125,</italic> 86-100. https://doi.org/10.1016/j.compedu.2018.06.004</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Filius</surname>
                                <given-names>R. M</given-names>
                            </name>
                            <name>
                                <surname>de Kleijn</surname>
                                <given-names>R. A</given-names>
                            </name>
                            <name>
                                <surname>Uijl</surname>
                                <given-names>S. G</given-names>
                            </name>
                            <name>
                                <surname>Prins</surname>
                                <given-names>F. J</given-names>
                            </name>
                            <name>
                                <surname>van Rijen</surname>
                                <given-names>H. V</given-names>
                            </name>
                            <name>
                                <surname>Grobbee</surname>
                                <given-names>D. E</given-names>
                            </name>
                        </person-group>
                        <year>2018</year>
                        <article-title>Strengthening dialogic peer feedback aiming for deep learning in SPOCs</article-title>
                        <source>Computers &amp; Education</source>
                        <volume>125</volume>
                        <fpage>86</fpage>
                        <lpage>100</lpage>
                        <pub-id pub-id-type="doi">10.1016/j.compedu.2018.06.004</pub-id>
                    </element-citation>
                </ref>
                <ref id="B24">
                    <mixed-citation>García-Celay, I. M. y León, O. G. (2005). Sistema de clasificación del método en los informes de investigación en Psicología. <italic>International Journal of Clinical and Health Psychology, 5</italic>(1), 115-127.</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>García-Celay</surname>
                                <given-names>I. M.</given-names>
                            </name>
                            <name>
                                <surname>y León</surname>
                                <given-names>O. G.</given-names>
                            </name>
                        </person-group>
                        <year>2005</year>
                        <article-title>Sistema de clasificación del método en los informes de investigación en Psicología</article-title>
                        <source>International Journal of Clinical and Health Psychology</source>
                        <volume>5</volume>
                        <issue>1</issue>
                        <fpage>115</fpage>
                        <lpage>127</lpage>
                    </element-citation>
                </ref>
                <ref id="B25">
                    <mixed-citation>Gaynor, J. W. (2020). Peer review in the classroom: Student perceptions, peer feedback quality and the role of assessment. <italic>Assessment &amp; Evaluation in Higher Education, 45</italic>(5), 758-775. https://doi.org/10.1080/02602938.2019.1697424</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Gaynor</surname>
                                <given-names>J. W.</given-names>
                            </name>
                        </person-group>
                        <year>2020</year>
                        <article-title>Peer review in the classroom: Student perceptions, peer feedback quality and the role of assessment</article-title>
                        <source>Assessment &amp; Evaluation in Higher Education</source>
                        <volume>45</volume>
                        <issue>5</issue>
                        <fpage>758</fpage>
                        <lpage>775</lpage>
                        <pub-id pub-id-type="doi">10.1080/02602938.2019.1697424</pub-id>
                    </element-citation>
                </ref>
                <ref id="B26">
                    <mixed-citation>Green, S. B. y Yang, Y. (2009). Commentary on coefficient alpha: A cautionary tale. <italic>Psychometrika, 74</italic>(1), 121-135. https://doi.org/10.1007/s11336-008-9098-4</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Green</surname>
                                <given-names>S. B.</given-names>
                            </name>
                            <name>
                                <surname>Yang</surname>
                                <given-names>Y.</given-names>
                            </name>
                        </person-group>
                        <year>2009</year>
                        <article-title>Commentary on coefficient alpha: A cautionary tale</article-title>
                        <source>Psychometrika</source>
                        <volume>74</volume>
                        <issue>1</issue>
                        <fpage>121</fpage>
                        <lpage>135</lpage>
                        <pub-id pub-id-type="doi">10.1007/s11336-008-9098-4</pub-id>
                    </element-citation>
                </ref>
                <ref id="B27">
                    <mixed-citation>Gregoire, J. (2018). ITC guidelines for translating and adapting tests (2 ed.). <italic>International Journal of Testing, 18</italic>(2), 101-134. https://doi.org/10.1080/15305058.2017.1398166</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Gregoire</surname>
                                <given-names>J.</given-names>
                            </name>
                        </person-group>
                        <year>2018</year>
                        <article-title>ITC guidelines for translating and adapting tests</article-title>
                        <edition>2 ed.</edition>
                        <source>International Journal of Testing</source>
                        <volume>18</volume>
                        <issue>2</issue>
                        <fpage>101</fpage>
                        <lpage>134</lpage>
                        <pub-id pub-id-type="doi">10.1080/15305058.2017.1398166</pub-id>
                    </element-citation>
                </ref>
                <ref id="B28">
                    <mixed-citation>Gulledge, C. M., Smith, D. G., Ziedas, A., Muh, S. J., Moutzouros, V. y Makhni, E. C. (2019). Floor and ceiling effects, time to completion, and question burden of PROMIS CAT domains among shoulder and knee patients undergoing nonoperative and operative treatment. <italic>JBJS Open Access, 4</italic>(4), Article e0015. https://doi.org/10.2106/JBJS.OA.19.00015</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Gulledge</surname>
                                <given-names>C. M</given-names>
                            </name>
                            <name>
                                <surname>Smith</surname>
                                <given-names>D. G</given-names>
                            </name>
                            <name>
                                <surname>Ziedas</surname>
                                <given-names>A</given-names>
                            </name>
                            <name>
                                <surname>Muh</surname>
                                <given-names>S. J</given-names>
                            </name>
                            <name>
                                <surname>Moutzouros</surname>
                                <given-names>V</given-names>
                            </name>
                            <name>
                                <surname>Makhni</surname>
                                <given-names>E. C</given-names>
                            </name>
                        </person-group>
                        <year>2019</year>
                        <article-title>Floor and ceiling effects, time to completion, and question burden of PROMIS CAT domains among shoulder and knee patients undergoing nonoperative and operative treatment</article-title>
                        <source>JBJS Open Access</source>
                        <volume>4</volume>
                        <issue>4</issue>
                        <comment>Article e0015</comment>
                        <pub-id pub-id-type="doi">10.2106/JBJS.OA.19.00015</pub-id>
                    </element-citation>
                </ref>
                <ref id="B29">
                    <mixed-citation>Han, Y. y Xu, Y. (2020). The development of student feedback literacy: The influences of teacher feedback on peer feedback. <italic>Assessment &amp; Evaluation in Higher Education, 45</italic>(5), 680-696. https://doi.org/10.1080/02602938.2019.1689545</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Han</surname>
                                <given-names>Y</given-names>
                            </name>
                            <name>
                                <surname>Xu</surname>
                                <given-names>Y</given-names>
                            </name>
                        </person-group>
                        <year>2020</year>
                        <article-title>The development of student feedback literacy: The influences of teacher feedback on peer feedback</article-title>
                        <source>Assessment &amp; Evaluation in Higher Education</source>
                        <volume>45</volume>
                        <issue>5</issue>
                        <fpage>680</fpage>
                        <lpage>696</lpage>
                        <pub-id pub-id-type="doi">10.1080/02602938.2019.1689545</pub-id>
                    </element-citation>
                </ref>
                <ref id="B30">
                    <mixed-citation>Hernández, A., Hidalgo, M. D., Hambleton, R. K. y Gómez-Benito, J. (2020). International Test Commission guidelines for test adaptation: A criterion checklist. <italic>Psicothema, 32</italic>(3), 390-398. https://doi.org/10.7334/psicothema2019.306</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Hernández</surname>
                                <given-names>A</given-names>
                            </name>
                            <name>
                                <surname>Hidalgo</surname>
                                <given-names>M. D</given-names>
                            </name>
                            <name>
                                <surname>Hambleton</surname>
                                <given-names>R. K.</given-names>
                            </name>
                            <name>
                                <surname>Gómez-Benito</surname>
                                <given-names>J.</given-names>
                            </name>
                        </person-group>
                        <year>2020</year>
                        <article-title>International Test Commission guidelines for test adaptation: A criterion checklist</article-title>
                        <source>Psicothema</source>
                        <volume>32</volume>
                        <issue>3</issue>
                        <fpage>390</fpage>
                        <lpage>398</lpage>
                        <pub-id pub-id-type="doi">10.7334/psicothema2019.306</pub-id>
                    </element-citation>
                </ref>
                <ref id="B31">
                    <mixed-citation>Hernández-Lalinde, J. D., Espinosa Castro, J. F., Peñaloza Tarazona, M. E., Fernández González, J. E., Chacón Rangel, J. G., Toloza Sierra, C. A., Arenas Torrado, M. K., Carrillo Sierra, S. M. y Bermúdez Pirela, V. J. (2018). Sobre el uso adecuado del coeficiente de correlación de Pearson: definición, propiedades y suposiciones. <italic>AVFP Archivos Venezolanos de Farmacología y Terapéutica, 37</italic>(5). http://saber.ucv.ve/ojs/index.php/rev_aavft/article/view/16160</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Hernández-Lalinde</surname>
                                <given-names>J. D</given-names>
                            </name>
                            <name>
                                <surname>Espinosa Castro</surname>
                                <given-names>J. F</given-names>
                            </name>
                            <name>
                                <surname>Peñaloza Tarazona</surname>
                                <given-names>M. E</given-names>
                            </name>
                            <name>
                                <surname>Fernández González</surname>
                                <given-names>J. E</given-names>
                            </name>
                            <name>
                                <surname>Chacón Rangel</surname>
                                <given-names>J. G</given-names>
                            </name>
                            <name>
                                <surname>Toloza Sierra</surname>
                                <given-names>C. A</given-names>
                            </name>
                            <name>
                                <surname>Arenas Torrado</surname>
                                <given-names>M. K</given-names>
                            </name>
                            <name>
                                <surname>Carrillo Sierra</surname>
                                <given-names>S. M</given-names>
                            </name>
                            <name>
                                <surname>Bermúdez Pirela</surname>
                                <given-names>V. J</given-names>
                            </name>
                        </person-group>
                        <year>2018</year>
                        <article-title>Sobre el uso adecuado del coeficiente de correlación de Pearson: definición, propiedades y suposiciones</article-title>
                        <source>AVFP Archivos Venezolanos de Farmacología y Terapéutica</source>
                        <volume>37</volume>
                        <issue>5</issue>
                        <ext-link ext-link-type="uri" xlink:href="http://saber.ucv.ve/ojs/index.php/rev_aavft/article/view/16160">http://saber.ucv.ve/ojs/index.php/rev_aavft/article/view/16160</ext-link>
                    </element-citation>
                </ref>
                <ref id="B32">
                    <mixed-citation>Hoo, H.-T., Deneen, C. y Boud, D. (2022). Developing student feedback literacy through self and peer assessment interventions. <italic>Assessment &amp; Evaluation in Higher Education, 47</italic>(3), 444-457. https://doi.org/10.1080/02602938.2021.1925871</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Hoo</surname>
                                <given-names>H.-T</given-names>
                            </name>
                            <name>
                                <surname>Deneen</surname>
                                <given-names>C</given-names>
                            </name>
                            <name>
                                <surname>Boud</surname>
                                <given-names>D</given-names>
                            </name>
                        </person-group>
                        <year>2022</year>
                        <article-title>Developing student feedback literacy through self and peer assessment interventions</article-title>
                        <source>Assessment &amp; Evaluation in Higher Education</source>
                        <volume>47</volume>
                        <issue>3</issue>
                        <fpage>444</fpage>
                        <lpage>457</lpage>
                        <pub-id pub-id-type="doi">10.1080/02602938.2021.1925871</pub-id>
                    </element-citation>
                </ref>
                <ref id="B33">
                    <mixed-citation>Huisman, B., Saab, N., van Driel, J. y van den Broek, P. (2018). Peer feedback on academic writing: Undergraduate students’ peer feedback role, peer feedback perceptions and essay performance. <italic>Assessment &amp; Evaluation in Higher Education, 43</italic>(6), 955-968. https://doi.org/10.1080/02602938.2018.1424318</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Huisman</surname>
                                <given-names>B</given-names>
                            </name>
                            <name>
                                <surname>Saab</surname>
                                <given-names>N</given-names>
                            </name>
                            <name>
                                <surname>van Driel</surname>
                                <given-names>J.</given-names>
                            </name>
                            <name>
                                <surname>van den Broek</surname>
                                <given-names>P.</given-names>
                            </name>
                        </person-group>
                        <year>2018</year>
                        <article-title>Peer feedback on academic writing: Undergraduate students’ peer feedback role, peer feedback perceptions and essay performance</article-title>
                        <source>Assessment &amp; Evaluation in Higher Education</source>
                        <volume>43</volume>
                        <issue>6</issue>
                        <fpage>955</fpage>
                        <lpage>968</lpage>
                        <pub-id pub-id-type="doi">10.1080/02602938.2018.1424318</pub-id>
                    </element-citation>
                </ref>
                <ref id="B34">
                    <mixed-citation>Huisman, B., Saab, N., van Driel, J. y van den Broek, P. (2020). A questionnaire to assess students’ beliefs about peer-feedback. <italic>Innovations in Education and Teaching International, 57</italic>(3), 328-338. https://doi.org/10.1080/14703297.2019.1630294</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Huisman</surname>
                                <given-names>B</given-names>
                            </name>
                            <name>
                                <surname>Saab</surname>
                                <given-names>N</given-names>
                            </name>
                            <name>
                                <surname>van Driel</surname>
                                <given-names>J.</given-names>
                            </name>
                            <name>
                                <surname>van den Broek</surname>
                                <given-names>P.</given-names>
                            </name>
                        </person-group>
                        <year>2020</year>
                        <article-title>A questionnaire to assess students’ beliefs about peer-feedback</article-title>
                        <source>Innovations in Education and Teaching International</source>
                        <volume>57</volume>
                        <issue>3</issue>
                        <fpage>328</fpage>
                        <lpage>338</lpage>
                        <pub-id pub-id-type="doi">10.1080/14703297.2019.1630294</pub-id>
                    </element-citation>
                </ref>
                <ref id="B35">
                    <mixed-citation>Hunzer, K. M. (2014). <italic>Collaborative learning and writing: Essays on using small groups in teaching English and composition.</italic> McFarland.</mixed-citation>
                    <element-citation publication-type="book">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Hunzer</surname>
                                <given-names>K. M.</given-names>
                            </name>
                        </person-group>
                        <year>2014</year>
                        <source>Collaborative learning and writing: Essays on using small groups in teaching English and composition</source>
                        <publisher-name>McFarland</publisher-name>
                    </element-citation>
                </ref>
                <ref id="B36">
                    <mixed-citation>Hwang, G.-J., Zou, D. y Wu, Y.-X. (2023). Learning by storytelling and critiquing: A peer assessment-enhanced digital storytelling approach to promoting young students’ information literacy, self-efficacy, and critical thinking awareness. <italic>Educational Technology Research and Development, 71</italic>(3), 1079-1103. https://doi.org/10.1007/s11423-022-10184-y</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Hwang</surname>
                                <given-names>G.-J</given-names>
                            </name>
                            <name>
                                <surname>Zou</surname>
                                <given-names>D</given-names>
                            </name>
                            <name>
                                <surname>Wu</surname>
                                <given-names>Y.-X</given-names>
                            </name>
                        </person-group>
                        <year>2023</year>
                        <article-title>Learning by storytelling and critiquing: A peer assessment-enhanced digital storytelling approach to promoting young students’ information literacy, self-efficacy, and critical thinking awareness</article-title>
                        <source>Educational Technology Research and Development</source>
                        <volume>71</volume>
                        <issue>3</issue>
                        <fpage>1079</fpage>
                        <lpage>1103</lpage>
                        <pub-id pub-id-type="doi">10.1007/s11423-022-10184-y</pub-id>
                    </element-citation>
                </ref>
                <ref id="B37">
                    <mixed-citation>Ibarra-Sáiz, M. S., Rodríguez-Gómez, G. y Boud, D. (2020). Developing student competence through peer assessment: The role of feedback, self-regulation and evaluative judgement. <italic>Higher Education, 80</italic>(1), 137-156. https://doi.org/10.1007/s10734-019-00469-2</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Ibarra-Sáiz</surname>
                                <given-names>M. S</given-names>
                            </name>
                            <name>
                                <surname>Rodríguez-Gómez</surname>
                                <given-names>G.</given-names>
                            </name>
                            <name>
                                <surname>Boud</surname>
                                <given-names>D.</given-names>
                            </name>
                        </person-group>
                        <year>2020</year>
                        <article-title>Developing student competence through peer assessment: The role of feedback, self-regulation and evaluative judgement</article-title>
                        <source>Higher Education</source>
                        <volume>80</volume>
                        <issue>1</issue>
                        <fpage>137</fpage>
                        <lpage>156</lpage>
                        <pub-id pub-id-type="doi">10.1007/s10734-019-00469-2</pub-id>
                    </element-citation>
                </ref>
                <ref id="B38">
                    <mixed-citation>Kasch, J., van Rosmalen, P., Löhr, A., Klemke, R., Antonaci, A. y Kalz, M. (2021). Students’ perceptions of the peer-feedback experience in MOOCs. <italic>Distance Education, 42</italic>(1), 145-163. https://doi.org/10.1080/01587919.2020.1869522</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Kasch</surname>
                                <given-names>J</given-names>
                            </name>
                            <name>
                                <surname>van Rosmalen</surname>
                                <given-names>P</given-names>
                            </name>
                            <name>
                                <surname>Löhr</surname>
                                <given-names>A</given-names>
                            </name>
                            <name>
                                <surname>Klemke</surname>
                                <given-names>R</given-names>
                            </name>
                            <name>
                                <surname>Antonaci</surname>
                                <given-names>A</given-names>
                            </name>
                            <name>
                                <surname>Kalz</surname>
                                <given-names>M</given-names>
                            </name>
                        </person-group>
                        <year>2021</year>
                        <article-title>Students’ perceptions of the peer-feedback experience in MOOCs</article-title>
                        <source>Distance Education</source>
                        <volume>42</volume>
                        <issue>1</issue>
                        <fpage>145</fpage>
                        <lpage>163</lpage>
                        <pub-id pub-id-type="doi">10.1080/01587919.2020.1869522</pub-id>
                    </element-citation>
                </ref>
                <ref id="B39">
                    <mixed-citation>Kaufman, J. H. y Schunn, C. D. (2011). Students’ perceptions about peer assessment for writing: Their origin and impact on revision work. <italic>Instructional Science, 39</italic>(3), 387-406. https://doi.org/10.1007/s11251-010-9133-6</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Kaufman</surname>
                                <given-names>J. H.</given-names>
                            </name>
                            <name>
                                <surname>Schunn</surname>
                                <given-names>C. D.</given-names>
                            </name>
                        </person-group>
                        <year>2011</year>
                        <article-title>Students’ perceptions about peer assessment for writing: Their origin and impact on revision work</article-title>
                        <source>Instructional Science</source>
                        <volume>39</volume>
                        <issue>3</issue>
                        <fpage>387</fpage>
                        <lpage>406</lpage>
                        <pub-id pub-id-type="doi">10.1007/s11251-010-9133-6</pub-id>
                    </element-citation>
                </ref>
                <ref id="B40">
                    <mixed-citation>Kline, R. B. (2015). <italic>Principles and practice of structural equation modeling</italic> (4ª ed.). Guilford Publications.</mixed-citation>
                    <element-citation publication-type="book">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Kline</surname>
                                <given-names>R. B.</given-names>
                            </name>
                        </person-group>
                        <year>2015</year>
                        <source>Principles and practice of structural equation modeling</source>
                        <edition>4ª ed.</edition>
                        <publisher-name>Guilford Publications</publisher-name>
                    </element-citation>
                </ref>
                <ref id="B41">
                    <mixed-citation>Krause, K.-L., Hartley, R., James, R. y McInnis, C. (2005). <italic>The first year experience in Australian universities: Findings from a decade of national studies.</italic></mixed-citation>
                    <element-citation publication-type="book">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Krause</surname>
                                <given-names>K.-L</given-names>
                            </name>
                            <name>
                                <surname>Hartley</surname>
                                <given-names>R</given-names>
                            </name>
                            <name>
                                <surname>James</surname>
                                <given-names>R.</given-names>
                            </name>
                            <name>
                                <surname>McInnis</surname>
                                <given-names>C.</given-names>
                            </name>
                        </person-group>
                        <year>2005</year>
                        <source>The first year experience in Australian universities: Findings from a decade of national studies</source>
                    </element-citation>
                </ref>
                <ref id="B42">
                    <mixed-citation>Leary, M. R. (2008). <italic>Introduction to behavioral research methods</italic> (5ª ed.) Pearson.</mixed-citation>
                    <element-citation publication-type="book">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Leary</surname>
                                <given-names>M. R.</given-names>
                            </name>
                        </person-group>
                        <year>2008</year>
                        <source>Introduction to behavioral research methods</source>
                        <edition>5ª ed.</edition>
                        <publisher-name>Pearson</publisher-name>
                    </element-citation>
                </ref>
                <ref id="B43">
                    <mixed-citation>Lerchenfeldt, S. y Taylor, T. A. H. (2020). Best practices in peer assessment: Training tomorrow’s physicians to obtain and provide quality feedback. <italic>Advances in Medical Education and Practice, 11,</italic> 571-578. https://doi.org/10.2147/AMEP.S250761</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Lerchenfeldt</surname>
                                <given-names>S.</given-names>
                            </name>
                            <name>
                                <surname>Taylor</surname>
                                <given-names>T. A. H.</given-names>
                            </name>
                        </person-group>
                        <year>2020</year>
                        <article-title>Best practices in peer assessment: Training tomorrow’s physicians to obtain and provide quality feedback</article-title>
                        <source>Advances in Medical Education and Practice</source>
                        <volume>11</volume>
                        <fpage>571</fpage>
                        <lpage>578</lpage>
                        <pub-id pub-id-type="doi">10.2147/AMEP.S250761</pub-id>
                    </element-citation>
                </ref>
                <ref id="B44">
                    <mixed-citation>McDonald, R. P. (1999). <italic>Test theory: A unified treatment.</italic> Psychology Press. https://doi.org/10.4324/9781410601087</mixed-citation>
                    <element-citation publication-type="book">
                        <person-group person-group-type="author">
                            <name>
                                <surname>McDonald</surname>
                                <given-names>R. P.</given-names>
                            </name>
                        </person-group>
                        <year>1999</year>
                        <source>Test theory: A unified treatment</source>
                        <publisher-name>Psychology Press</publisher-name>
                        <pub-id pub-id-type="doi">10.4324/9781410601087</pub-id>
                    </element-citation>
                </ref>
                <ref id="B45">
                    <mixed-citation>Nicol, D., Thomson, A. y Breslin, C. (2014). Rethinking feedback practices in higher education: A peer review perspective. <italic>Assessment &amp; Evaluation in Higher Education, 39</italic>(1), 102-122. https://doi.org/10.1080/02602938.2013.795518</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Nicol</surname>
                                <given-names>D</given-names>
                            </name>
                            <name>
                                <surname>Thomson</surname>
                                <given-names>A.</given-names>
                            </name>
                            <name>
                                <surname>Breslin</surname>
                                <given-names>C.</given-names>
                            </name>
                        </person-group>
                        <year>2014</year>
                        <article-title>Rethinking feedback practices in higher education: A peer review perspective</article-title>
                        <source>Assessment &amp; Evaluation in Higher Education</source>
                        <volume>39</volume>
                        <issue>1</issue>
                        <fpage>102</fpage>
                        <lpage>122</lpage>
                        <pub-id pub-id-type="doi">10.1080/02602938.2013.795518</pub-id>
                    </element-citation>
                </ref>
                <ref id="B46">
                    <mixed-citation>Panadero, E. y Alqassab, M. (2019). An empirical review of anonymity effects in peer assessment, peer feedback, peer review, peer evaluation and peer grading. <italic>Assessment &amp; Evaluation in Higher Education, 44</italic>(8), 1253-1278. https://doi.org/10.1080/02602938.2019.1600186</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Panadero</surname>
                                <given-names>E.</given-names>
                            </name>
                            <name>
                                <surname>Alqassab</surname>
                                <given-names>M.</given-names>
                            </name>
                        </person-group>
                        <year>2019</year>
                        <article-title>An empirical review of anonymity effects in peer assessment, peer feedback, peer review, peer evaluation and peer grading</article-title>
                        <source>Assessment &amp; Evaluation in Higher Education</source>
                        <volume>44</volume>
                        <issue>8</issue>
                        <fpage>1253</fpage>
                        <lpage>1278</lpage>
                        <pub-id pub-id-type="doi">10.1080/02602938.2019.1600186</pub-id>
                    </element-citation>
                </ref>
                <ref id="B47">
                    <mixed-citation>Pinheiro, A., Rolim, V., Gasevic, D. y Ferreira, R. (2023). A comparative analysis between good feedback descriptors on online courses. <italic>Simposio Brasileiro de Informática na Educaçao, 34</italic>, 1512-1523. https://doi.org/10.5753/sbie.2023.235316</mixed-citation>
                    <element-citation publication-type="confproc">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Pinheiro</surname>
                                <given-names>A</given-names>
                            </name>
                            <name>
                                <surname>Rolim</surname>
                                <given-names>V</given-names>
                            </name>
                            <name>
                                <surname>Gasevic</surname>
                                <given-names>D</given-names>
                            </name>
                            <name>
                                <surname>Ferreira</surname>
                                <given-names>R</given-names>
                            </name>
                        </person-group>
                        <year>2023</year>
                        <conf-name>A comparative analysis between good feedback descriptors on online courses</conf-name>
                        <source>Simposio Brasileiro de Informática na Educaçao</source>
                        <edition>34</edition>
                        <fpage>1512</fpage>
                        <lpage>1523</lpage>
                        <pub-id pub-id-type="doi">10.5753/sbie.2023.235316</pub-id>
                    </element-citation>
                </ref>
                <ref id="B48">
                    <mixed-citation>Ramos, Z. (2018). <italic>Psicometría básica.</italic> Fundación Universitaria del Área Andina. Bogotá.</mixed-citation>
                    <element-citation publication-type="book">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Ramos</surname>
                                <given-names>Z</given-names>
                            </name>
                        </person-group>
                        <year>2018</year>
                        <source>Psicometría básica</source>
                        <publisher-name>Fundación Universitaria del Área Andina</publisher-name>
                        <publisher-loc>Bogotá</publisher-loc>
                    </element-citation>
                </ref>
                <ref id="B49">
                    <mixed-citation>Reise, S. P., Scheines, R., Widaman, K. F. y Haviland, M. G. (2013). Multidimensionality and structural coefficient bias in structural equation modeling: A bifactor perspective. <italic>Educational and Psychological Measurement, 73</italic>(1), 5-26. https://doi.org/10.1177/0013164412449831</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Reise</surname>
                                <given-names>S. P</given-names>
                            </name>
                            <name>
                                <surname>Scheines</surname>
                                <given-names>R</given-names>
                            </name>
                            <name>
                                <surname>Widaman</surname>
                                <given-names>K. F.</given-names>
                            </name>
                            <name>
                                <surname>Haviland</surname>
                                <given-names>M. G.</given-names>
                            </name>
                        </person-group>
                        <year>2013</year>
                        <article-title>Multidimensionality and structural coefficient bias in structural equation modeling: A bifactor perspective</article-title>
                        <source>Educational and Psychological Measurement</source>
                        <volume>73</volume>
                        <issue>1</issue>
                        <fpage>5</fpage>
                        <lpage>26</lpage>
                        <pub-id pub-id-type="doi">10.1177/0013164412449831</pub-id>
                    </element-citation>
                </ref>
                <ref id="B50">
                    <mixed-citation>Rodriguez, A., Reise, S. P. y Haviland, M. G. (2016). Evaluating bifactor models: Calculating and interpreting statistical indices. <italic>Psychological Methods, 21</italic>(2), 137-150. https://doi.org/10.1037/met0000045</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Rodriguez</surname>
                                <given-names>A</given-names>
                            </name>
                            <name>
                                <surname>Reise</surname>
                                <given-names>S. P.</given-names>
                            </name>
                            <name>
                                <surname>Haviland</surname>
                                <given-names>M. G.</given-names>
                            </name>
                        </person-group>
                        <year>2016</year>
                        <article-title>Evaluating bifactor models: Calculating and interpreting statistical indices</article-title>
                        <source>Psychological Methods</source>
                        <volume>21</volume>
                        <issue>2</issue>
                        <fpage>137</fpage>
                        <lpage>150</lpage>
                        <pub-id pub-id-type="doi">10.1037/met0000045</pub-id>
                    </element-citation>
                </ref>
                <ref id="B51">
                    <mixed-citation>Rosseel, Y. (2012). Lavaan: An R package for structural equation modeling. <italic>Journal of Statistical Software, 48</italic>(2), 1-36. https://doi.org/10.18637/jss.v048.i02</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Rosseel</surname>
                                <given-names>Y.</given-names>
                            </name>
                        </person-group>
                        <year>2012</year>
                        <article-title>Lavaan: An R package for structural equation modeling</article-title>
                        <source>Journal of Statistical Software</source>
                        <volume>48</volume>
                        <issue>2</issue>
                        <fpage>1</fpage>
                        <lpage>36</lpage>
                        <pub-id pub-id-type="doi">10.18637/jss.v048.i02</pub-id>
                    </element-citation>
                </ref>
                <ref id="B52">
                    <mixed-citation>Ruiz-Robledillo, N., Albaladejo-Blázquez, N., Clement-Carbonell, V., Vela-Bermejo, J., Rubio-Aparicio, M., Portilla-Tamarit, I., Costa-López, B. y Ferrer-Cascales, R. (2022). Exploratory factor analysis of the Spanish version of the Beliefs About Peer-Feedback Questionnaire. <italic>EDULEARN22 Proceedings</italic>, 8787-8793. IATED.</mixed-citation>
                    <element-citation publication-type="confproc">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Ruiz-Robledillo</surname>
                                <given-names>N</given-names>
                            </name>
                            <name>
                                <surname>Albaladejo-Blázquez</surname>
                                <given-names>N</given-names>
                            </name>
                            <name>
                                <surname>Clement-Carbonell</surname>
                                <given-names>V</given-names>
                            </name>
                            <name>
                                <surname>Vela-Bermejo</surname>
                                <given-names>J</given-names>
                            </name>
                            <name>
                                <surname>Rubio-Aparicio</surname>
                                <given-names>M</given-names>
                            </name>
                            <name>
                                <surname>Portilla-Tamarit</surname>
                                <given-names>I</given-names>
                            </name>
                            <name>
                                <surname>Costa-López</surname>
                                <given-names>B.</given-names>
                            </name>
                            <name>
                                <surname>Ferrer-Cascales</surname>
                                <given-names>R.</given-names>
                            </name>
                        </person-group>
                        <year>2022</year>
                        <conf-name>Exploratory factor analysis of the Spanish version of the Beliefs About Peer-Feedback Questionnaire</conf-name>
                        <source>EDULEARN22 Proceedings</source>
                        <fpage>8787</fpage>
                        <lpage>8793</lpage>
                        <publisher-name>IATED</publisher-name>
                    </element-citation>
                </ref>
                <ref id="B53">
                    <mixed-citation>Sadler, D. R. (1989). Formative assessment and the design of instructional systems. <italic>Instructional Science, 18</italic>(2), 119-144. https://doi.org/10.1007/BF00117714</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Sadler</surname>
                                <given-names>D. R.</given-names>
                            </name>
                        </person-group>
                        <year>1989</year>
                        <article-title>Formative assessment and the design of instructional systems</article-title>
                        <source>Instructional Science</source>
                        <volume>18</volume>
                        <issue>2</issue>
                        <fpage>119</fpage>
                        <lpage>144</lpage>
                        <pub-id pub-id-type="doi">10.1007/BF00117714</pub-id>
                    </element-citation>
                </ref>
                <ref id="B54">
                    <mixed-citation>Satorra, A., y Bentler, E. M. (1994). Corrections to test statistics and standard enors in covariance structure analysis. En A. von Eye y C. C. Clogg (Eds.), <italic>Latent variables analysis: Applications for developmental research</italic> (pp. 399-419). Sage.</mixed-citation>
                    <element-citation publication-type="book">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Satorra</surname>
                                <given-names>A</given-names>
                            </name>
                            <name>
                                <surname>Bentler</surname>
                                <given-names>E. M</given-names>
                            </name>
                        </person-group>
                        <year>1994</year>
                        <chapter-title>Corrections to test statistics and standard enors in covariance structure analysis</chapter-title>
                        <person-group person-group-type="editor">
                            <name>
                                <surname>Eye</surname>
                                <given-names>A</given-names>
                            </name>
                            <name>
                                <surname>Clogg</surname>
                                <given-names>C. C</given-names>
                            </name>
                        </person-group>
                        <source>Latent variables analysis: Applications for developmental research</source>
                        <fpage>399</fpage>
                        <lpage>419</lpage>
                        <publisher-name>Sage</publisher-name>
                    </element-citation>
                </ref>
                <ref id="B55">
                    <mixed-citation>Schellekens, L. H., Bok, H. G. J., de Jong, L. H., van der Schaaf, M. F., Kremer, W. D. J. y van der Vleuten, C. P. M. (2021). A scoping review on the notions of Assessment as Learning (AaL), Assessment for learning (AfL), and Assessment of learning (AoL). S<italic>tudies in Educational Evaluation, 71,</italic> Article 101094. https://doi.org/10.1016/j.stueduc.2021.101094</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Schellekens</surname>
                                <given-names>L. H</given-names>
                            </name>
                            <name>
                                <surname>Bok</surname>
                                <given-names>H. G. J</given-names>
                            </name>
                            <name>
                                <surname>de Jong</surname>
                                <given-names>L. H</given-names>
                            </name>
                            <name>
                                <surname>van der Schaaf</surname>
                                <given-names>M. F</given-names>
                            </name>
                            <name>
                                <surname>Kremer</surname>
                                <given-names>W. D. J</given-names>
                            </name>
                            <name>
                                <surname>van der Vleuten</surname>
                                <given-names>C. P. M</given-names>
                            </name>
                        </person-group>
                        <year>2021</year>
                        <article-title>A scoping review on the notions of Assessment as Learning (AaL), Assessment for learning (AfL), and Assessment of learning (AoL)</article-title>
                        <source>Studies in Educational Evaluation</source>
                        <volume>71</volume>
                        <comment>Article 101094</comment>
                        <pub-id pub-id-type="doi">10.1016/j.stueduc.2021.101094</pub-id>
                    </element-citation>
                </ref>
                <ref id="B56">
                    <mixed-citation>Shui Ng, W. y Yu, G. (2021). Students’ attitude to peer assessment process: A critical factor for success. <italic>Interactive Learning Environments, 0</italic>(0), 1-19. https://doi.org/10.1080/10494820.2021.1916762</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Shui Ng</surname>
                                <given-names>W.</given-names>
                            </name>
                            <name>
                                <surname>Yu</surname>
                                <given-names>G.</given-names>
                            </name>
                        </person-group>
                        <year>2021</year>
                        <article-title>Students’ attitude to peer assessment process: A critical factor for success</article-title>
                        <source>Interactive Learning Environments</source>
                        <volume>0</volume>
                        <issue>0</issue>
                        <fpage>1</fpage>
                        <lpage>19</lpage>
                        <pub-id pub-id-type="doi">10.1080/10494820.2021.1916762</pub-id>
                    </element-citation>
                </ref>
                <ref id="B57">
                    <mixed-citation>Somervell, H. (1993). Issues in assessment, enterprise and higher education: The case for self-peer and collaborative assessment. <italic>Assessment &amp; Evaluation in Higher Education, 18</italic>(3), 221-233. https://doi.org/10.1080/0260293930180306</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Somervell</surname>
                                <given-names>H.</given-names>
                            </name>
                        </person-group>
                        <year>1993</year>
                        <article-title>Issues in assessment, enterprise and higher education: The case for self-peer and collaborative assessment</article-title>
                        <source>Assessment &amp; Evaluation in Higher Education</source>
                        <volume>18</volume>
                        <issue>3</issue>
                        <fpage>221</fpage>
                        <lpage>233</lpage>
                        <pub-id pub-id-type="doi">10.1080/0260293930180306</pub-id>
                    </element-citation>
                </ref>
                <ref id="B58">
                    <mixed-citation>Stucky, B. D., y Edelen, M. O. (2015). Using hierarchical IRT models to create unidimensional measures from multidimensional data. En S. P. Reise y D. A. Revicki (Eds.), Handbook of item response theory modeling: Applications to typical performance assessment (pp. 183 -206). Routledge.</mixed-citation>
                    <element-citation publication-type="book">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Stucky</surname>
                                <given-names>B. D</given-names>
                            </name>
                            <name>
                                <surname>Edelen</surname>
                                <given-names>M. O</given-names>
                            </name>
                        </person-group>
                        <year>2015</year>
                        <chapter-title>Using hierarchical IRT models to create unidimensional measures from multidimensional data</chapter-title>
                        <person-group person-group-type="editor">
                            <name>
                                <surname>Reise</surname>
                                <given-names>S. P</given-names>
                            </name>
                            <name>
                                <surname>Revicki</surname>
                                <given-names>D. A</given-names>
                            </name>
                        </person-group>
                        <source>Handbook of item response theory modeling: Applications to typical performance assessment</source>
                        <fpage>183</fpage>
                        <lpage>206</lpage>
                        <publisher-name>Routledge</publisher-name>
                    </element-citation>
                </ref>
                <ref id="B59">
                    <mixed-citation>Stucky, B. D., Thissen, D., y Edelen, M. O. (2013). Using logistic approximations of marginal trace lines to develop short assessments. <italic>Applied Psychological Measurement, 37</italic>(1), 41 -57. https://doi.org/10.1177/0146621612462759</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Stucky</surname>
                                <given-names>B. D</given-names>
                            </name>
                            <name>
                                <surname>Thissen</surname>
                                <given-names>D</given-names>
                            </name>
                            <name>
                                <surname>Edelen</surname>
                                <given-names>M. O</given-names>
                            </name>
                        </person-group>
                        <year>2013</year>
                        <article-title>Using logistic approximations of marginal trace lines to develop short assessments</article-title>
                        <source>Applied Psychological Measurement</source>
                        <volume>37</volume>
                        <issue>1</issue>
                        <fpage>41</fpage>
                        <lpage>57</lpage>
                        <pub-id pub-id-type="doi">10.1177/0146621612462759</pub-id>
                    </element-citation>
                </ref>
                <ref id="B60">
                    <mixed-citation>Su, W. y Huang, A. (2022). More enjoyable to give or to receive? Exploring students’ emotional status in their peer feedback of academic writing. <italic>Assessment and Evaluation in Higher Education, 47</italic>(7), 1005-1015. Scopus. https://doi.org/10.1080/02602938.2021.2004389</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Su</surname>
                                <given-names>W.</given-names>
                            </name>
                            <name>
                                <surname>Huang</surname>
                                <given-names>A.</given-names>
                            </name>
                        </person-group>
                        <year>2022</year>
                        <article-title>More enjoyable to give or to receive? Exploring students’ emotional status in their peer feedback of academic writing</article-title>
                        <source>Assessment and Evaluation in Higher Education</source>
                        <volume>47</volume>
                        <issue>7</issue>
                        <fpage>1005</fpage>
                        <lpage>1015</lpage>
                        <comment>Scopus</comment>
                        <pub-id pub-id-type="doi">10.1080/02602938.2021.2004389</pub-id>
                    </element-citation>
                </ref>
                <ref id="B61">
                    <mixed-citation>Taber, K. S. (2018). The use of Cronbach’s alpha when developing and reporting research instruments in science education.<italic> Research in Science Education, 48</italic>, 1273-1296. https://doi.org/10.1007/s11165-016-9602-2</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Taber</surname>
                                <given-names>K. S.</given-names>
                            </name>
                        </person-group>
                        <year>2018</year>
                        <article-title>The use of Cronbach’s alpha when developing and reporting research instruments in science education</article-title>
                        <source>Research in Science Education</source>
                        <volume>48</volume>
                        <fpage>1273</fpage>
                        <lpage>1296</lpage>
                        <pub-id pub-id-type="doi">10.1007/s11165-016-9602-2</pub-id>
                    </element-citation>
                </ref>
                <ref id="B62">
                    <mixed-citation>The R Project for Statistical Computing. (2021). https://www.r-project.org/index.html.</mixed-citation>
                    <element-citation publication-type="webpage">
                        <person-group person-group-type="author">
                            <collab>The R Project for Statistical Computing</collab>
                        </person-group>
                        <source>The R Project for Statistical Computing</source>
                        <year>2021</year>
                        <ext-link ext-link-type="uri" xlink:href="https://www.r-project.org/index.html">https://www.r-project.org/index.html</ext-link>
                    </element-citation>
                </ref>
                <ref id="B63">
                    <mixed-citation>Topping, K. J. (1998). Peer assessment between students in colleges and universities. <italic>Review of Educational Research, 68</italic>(3), 249-276. https://doi.org/10.2307/1170598</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Topping</surname>
                                <given-names>K. J.</given-names>
                            </name>
                        </person-group>
                        <year>1998</year>
                        <article-title>Peer assessment between students in colleges and universities</article-title>
                        <source>Review of Educational Research</source>
                        <volume>68</volume>
                        <issue>3</issue>
                        <fpage>249</fpage>
                        <lpage>276</lpage>
                        <pub-id pub-id-type="doi">10.2307/1170598</pub-id>
                    </element-citation>
                </ref>
                <ref id="B64">
                    <mixed-citation>Tornwall, J., McGaughy, M. y Schubert, C. (2022). Peer review: Factors that motivate students to provide supportive peer feedback. <italic>Nurse Educator, 47</italic>(2), 114-119. https://doi.org/10.1097/NNE.0000000000001043</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Tornwall</surname>
                                <given-names>J</given-names>
                            </name>
                            <name>
                                <surname>McGaughy</surname>
                                <given-names>M</given-names>
                            </name>
                            <name>
                                <surname>Schubert</surname>
                                <given-names>C</given-names>
                            </name>
                        </person-group>
                        <year>2022</year>
                        <article-title>Peer review: Factors that motivate students to provide supportive peer feedback</article-title>
                        <source>Nurse Educator</source>
                        <volume>47</volume>
                        <issue>2</issue>
                        <fpage>114</fpage>
                        <lpage>119</lpage>
                        <pub-id pub-id-type="doi">10.1097/NNE.0000000000001043</pub-id>
                    </element-citation>
                </ref>
                <ref id="B65">
                    <mixed-citation>van Blankenstein, F. M., Dirkx, K. J. y de Bruycker, N. M. (2024). Ask your peer! How requests for peer feedback affect peer feedback responses.<italic> Educational Research and Evaluation, 30</italic>(1-2), 36-57. https://doi.org/10.1080/13803611.2024.2376832</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>van Blankenstein</surname>
                                <given-names>F. M</given-names>
                            </name>
                            <name>
                                <surname>Dirkx</surname>
                                <given-names>K. J</given-names>
                            </name>
                            <name>
                                <surname>de Bruycker</surname>
                                <given-names>N. M</given-names>
                            </name>
                        </person-group>
                        <year>2024</year>
                        <article-title>Ask your peer! How requests for peer feedback affect peer feedback responses</article-title>
                        <source>Educational Research and Evaluation</source>
                        <volume>30</volume>
                        <issue>1-2</issue>
                        <fpage>36</fpage>
                        <lpage>57</lpage>
                        <pub-id pub-id-type="doi">10.1080/13803611.2024.2376832</pub-id>
                    </element-citation>
                </ref>
                <ref id="B66">
                    <mixed-citation>van Popta, E., Kral, M., Camp, G., Martens, R. L. y Simons, P. R.-J. (2017). Exploring the value of peer feedback in online learning for the provider. <italic>Educational Research Review, 20</italic>, 24-34. https://doi.org/10.1016/j.edurev.2016.10.003</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>van Popta</surname>
                                <given-names>E</given-names>
                            </name>
                            <name>
                                <surname>Kral</surname>
                                <given-names>M</given-names>
                            </name>
                            <name>
                                <surname>Camp</surname>
                                <given-names>G</given-names>
                            </name>
                            <name>
                                <surname>Martens</surname>
                                <given-names>R. L.</given-names>
                            </name>
                            <name>
                                <surname>Simons</surname>
                                <given-names>P. R.-J.</given-names>
                            </name>
                        </person-group>
                        <year>2017</year>
                        <article-title>Exploring the value of peer feedback in online learning for the provider</article-title>
                        <source>Educational Research Review</source>
                        <volume>20</volume>
                        <fpage>24</fpage>
                        <lpage>34</lpage>
                        <pub-id pub-id-type="doi">10.1016/j.edurev.2016.10.003</pub-id>
                    </element-citation>
                </ref>
                <ref id="B67">
                    <mixed-citation>Vygotsky, L. S. (2012). <italic>Thought and Language, revised and expanded edition</italic>. MIT Press.</mixed-citation>
                    <element-citation publication-type="book">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Vygotsky</surname>
                                <given-names>L. S.</given-names>
                            </name>
                        </person-group>
                        <year>2012</year>
                        <source>Thought and Language, revised and expanded edition</source>
                        <publisher-name>MIT Press</publisher-name>
                    </element-citation>
                </ref>
                <ref id="B68">
                    <mixed-citation>Wood, J. (2021). A dialogic technology-mediated model of feedback uptake and literacy. <italic>Assessment &amp; Evaluation in Higher Education, 46</italic>(8), 1173-1190. https://doi.org/10.1080/02602938.2020.1852174</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Wood</surname>
                                <given-names>J.</given-names>
                            </name>
                        </person-group>
                        <year>2021</year>
                        <article-title>A dialogic technology-mediated model of feedback uptake and literacy</article-title>
                        <source>Assessment &amp; Evaluation in Higher Education</source>
                        <volume>46</volume>
                        <issue>8</issue>
                        <fpage>1173</fpage>
                        <lpage>1190</lpage>
                        <pub-id pub-id-type="doi">10.1080/02602938.2020.1852174</pub-id>
                    </element-citation>
                </ref>
                <ref id="B69">
                    <mixed-citation>World Medical Association. (2013). World Medical Association Declaration of Helsinki: Ethical principles for medical research involving human subjects. <italic>JAMA, 310</italic>(20), 2191 -2194. https://doi.org/10.1001/jama.2013.281053</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <collab>World Medical Association</collab>
                        </person-group>
                        <year>2013</year>
                        <article-title>World Medical Association Declaration of Helsinki: Ethical principles for medical research involving human subjects</article-title>
                        <source>JAMA</source>
                        <volume>310</volume>
                        <issue>20</issue>
                        <fpage>2191</fpage>
                        <lpage>2194</lpage>
                        <pub-id pub-id-type="doi">10.1001/jama.2013.281053</pub-id>
                    </element-citation>
                </ref>
                <ref id="B70">
                    <mixed-citation>Yu, S. y Liu, C. (2021). Improving student feedback literacy in academic writing: An evidence-based framework. <italic>Assessing Writing, 48</italic>, Article 100525. https://doi.org/10.1016/j.asw.2021.100525</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Yu</surname>
                                <given-names>S.</given-names>
                            </name>
                            <name>
                                <surname>Liu</surname>
                                <given-names>C.</given-names>
                            </name>
                        </person-group>
                        <year>2021</year>
                        <article-title>Improving student feedback literacy in academic writing: An evidence-based framework</article-title>
                        <source>Assessing Writing</source>
                        <volume>48</volume>
                        <comment>Article 100525</comment>
                        <pub-id pub-id-type="doi">10.1016/j.asw.2021.100525</pub-id>
                    </element-citation>
                </ref>
                <ref id="B71">
                    <mixed-citation>Zhan, Y. (2021). Are they ready? An investigation of university students’ difficulties in peer assessment from dual perspectives. <italic>Teaching in Higher Education, 0</italic>(0), 1-18. https://doi.org/10.1080/13562517.2021.2021393</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Zhan</surname>
                                <given-names>Y.</given-names>
                            </name>
                        </person-group>
                        <year>2021</year>
                        <article-title>Are they ready? An investigation of university students’ difficulties in peer assessment from dual perspectives</article-title>
                        <source>Teaching in Higher Education</source>
                        <volume>0</volume>
                        <issue>0</issue>
                        <fpage>1</fpage>
                        <lpage>18</lpage>
                        <pub-id pub-id-type="doi">10.1080/13562517.2021.2021393</pub-id>
                    </element-citation>
                </ref>
                <ref id="B72">
                    <mixed-citation>Zong, Z., Schunn, C. D. y Wang, Y. (2023). When do students provide more peer feedback? The roles of performance and prior feedback experiences. <italic>Instructional Science, 51</italic>(6), 977-1003. https://doi.org/10.1007/s11251-023-09640-w</mixed-citation>
                    <element-citation publication-type="journal">
                        <person-group person-group-type="author">
                            <name>
                                <surname>Zong</surname>
                                <given-names>Z</given-names>
                            </name>
                            <name>
                                <surname>Schunn</surname>
                                <given-names>C. D.</given-names>
                            </name>
                            <name>
                                <surname>Wang</surname>
                                <given-names>Y.</given-names>
                            </name>
                        </person-group>
                        <year>2023</year>
                        <article-title>When do students provide more peer feedback? The roles of performance and prior feedback experiences</article-title>
                        <source>Instructional Science</source>
                        <volume>51</volume>
                        <issue>6</issue>
                        <fpage>977</fpage>
                        <lpage>1003</lpage>
                        <pub-id pub-id-type="doi">10.1007/s11251-023-09640-w</pub-id>
                    </element-citation>
                </ref>
            </ref-list>
        </back>
    </article>
