Rankings universitarios como medida de calidad: análisis comparado en Latinoamérica

University rankings as a measure of quality: comparative analysis in Latin America

King-Domínguez, Andrea
Universitat Politécnica de Catalunya,, España
Llinas-Audet, Xavier
Universitat Politécnica de Catalunya, España
Améstica-Rivas, Luis
Universitat Politécnica de Catalunya, España

Rankings universitarios como medida de calidad: análisis comparado en Latinoamérica

Revista Venezolana de Gerencia, vol. Esp, núm. 1, pp. 218-237, 2018

Universidad del Zulia

Resumen: Los rankings universitarios globales se han convertido en un referente de calidad del sistema de educación superior, constituyéndose en un factor relevante en la determinación de políticas y estrategias institucionales. Sin embargo, la presencia de las universidades latinoamericanas en estos rankings es escasa, surgiendo nuevas clasificaciones enfocadas a medir la realidad regional. En vista de lo anterior, el propósito del trabajo es analizar cuantitativa y cualitativamente los rankings latinoamericanos para comprender, primero, si existe similitud en el ordenamiento categórico de las instituciones. Segundo, determinar los factores subyacentes que son medidos por el ranking QS de América Latina y que definen la calidad institucional. El análisis se enfocó en el año 2016 y se aplicaron técnicas estadísticas como superposiciones, correlaciones y análisis de componentes principales. Los resultados indican similitudes entre las clasificaciones de los distintos rankings, identificándose cuatro dimensiones que definirían la calidad de estas instituciones, generando una segmentación de las universidades. Esta evidencia constituye información útil para la definición de esfuerzos institucionales.

Palabras clave: educación superior, universidades, calidad, reputación, ranking.

Abstract: Global university rankings have become a benchmark for the quality of the higher education system, constituting a relevant factor in the determination of institutional policies and strategies. However, the presence of Latin American universities in these rankings is scarce, with new classifications emerging to measure the regional reality. In view of the above, the purpose of the work is to quantitatively and qualitatively analyze the Latin American rankings to understand, first, if there is similarity in the categorical ordering of the institutions. Second, to determine the underlying factors that are measured by the QS ranking of Latin America and that define the institutional quality. The analysis focused on 2016, and statistical techniques were applied such as correlation coefficients, overlapping and analysis of main components. The results indicate similarities between the classifications of the different rankings, identifying four dimensions that would define the quality of these institutions, generating a segmentation of the universities. This evidence constitutes useful information for the definition of institutional efforts.

Keywords: higher education, universities, quality, reputation, ranking.

1. Introducción

La calidad de la educación superior (ES) es un tema de interés para gran número de personas y organismos, como los estudiantes y sus padres, académicos, administradores, organizaciones privadas y el estado, entre otros(Collins & Park, 2016). Cada uno de ellos tiene su propia comprensión y expectativa del rendimiento y calidad de las instituciones. Así, la calidad de la puede ser medida en relación a estándares de excelencia, de conformidad a las reglas, de efectividad en el logro de los objetivos institucionales o por el grado de satisfacción de las partes interesadas (Wang, 2014). De igual modo, se establece que los rankings universitarios son el enfoque universal para mostrar el rendimiento de las Instituciones de Educación Superior (IES) de una manera simple y multipropósito (Mikhaylov & Mikhaylova, 2018).

Las clasificaciones o rankings de universidades son listas que comparan y ordenan de manera descendente a las IES según un conjunto común de indicadores (Usher & Medow, 2009), informando acerca de la calidad de la actividad académica de cada una, a través de comparaciones basadas en criterios e indicadores de calidad. Según PérezEsparrells (2010), la definición de cualquier ranking o clasificación debe llevar implícita un procedimiento para valorar la calidad de las IES. Para Ziegele (2013), los rankings y las clasificaciones serían instrumentos de transparencia que entregan información relevante, fiable y válida para las partes interesadas sobre los niveles y formas de la diversidad en los sistemas de ES.

Los rankings son utilizados por distintas partes interesadas y, especialmente, por los gobiernos que desean resguardar que los fondos públicos invertidos en universidades repercutan en un sistema de educación superior de clase mundial (Johnes, 2018). Para los responsables de formular políticas en todo el mundo, los rankings internacionales de universidades se han constituido como una medida del desempeño de las instituciones (Ordorika & Lloyd, 2015).

Las mediciones y rankings de rendimiento académico no sólo impactan en la reputación de las IES, sino que propician también un nuevo comportamiento institucional en la búsqueda de un mejor desempeño (Collins & Park, 2016). Sin embargo, los rankings de universidades, en algunos casos, han sido utilizados como una señalización de castigo para las instituciones mal evaluadas afectando a los involucrados y su desempeño. Se consideran un vehículo de humillación que afecta la cultura interna y de la cual las universidades se ven obligados a generar un relato público para poder defenderse (Hefferman & Hefferman, 2017).

Varias metodologías de clasificación ampliamente aceptadas han sido cuestionadas por asignar subjetivamente ponderaciones a los indicadores de entrada (Dobrota, Bulajic, Bornmann, & Jeremic, 2016). A pesar de sus muchas deficiencias, prejuicios y defectos, las clasificaciones de ranking gozan de un alto nivel de aceptación entre las partes interesadas y el público en general, resuenan poderosamente con los medios y sirven como argumento en debates públicos y decisiones privadas sobre elegir una universidad (Pietrucha, 2018). La posición de las universidades de un país en el ranking está determinada por las siguientes variables: potencial económico del país, gastos de investigación y desarrollo, estabilidad política a largo plazo (libertad de la guerra, ocupación, golpes de Estado y cambios importantes en la política (Pietrucha, 2018).

A nivel global, existen varios rankings que intentan medir la calidad de la educación superior: el Academic Ranking of World Universities (ARWU), el Times Higher Education World University Rankings (ranking THE), el Quacquarelli Symonds World University Ranking (ranking QS), el Leiden Ranking by the Centre for Science and Technology Studies (CWTS), el SCImago Institutions Ranking (SCimago),National Taiwan University Ranking (NTU), Nature Index (Nature), US News & World Reports, Best Global Universities Rankings (BGUR) y The Center for World University Rankings (CWUR), entre otros. Cada uno de ellos con su propia metodología.

A partir de los distintos rankings se han realizado estudios, tanto cualitativos como cuantitativos. Con respecto a estos últimos Shehatta & Mahmood (2016) estudiaron las superposiciones y correlaciones entre pares de rankings. Al igual que estudios anteriores como los de Aguillo et al, (2010) Hou et al, (2011) Huang (2011); Cheng (2011); Chen y Liao (2012); y Khosrowjerdi y SeifKashani (2013), encontraron que existe un grupo de universidades que ocupan las primeras posiciones en distintos rankings y que la correlación entre los diferentes pares de rankings es alta. La relevancia de los resultados radica en que es posible definir las características comunes de una universidad de clase mundial a partir del análisis de los indicadores de rendimiento clave de las universidades que están presentes a la vez en distintos rankings (Shehatta & Mahmood, 2016).

Por otra parte Dehon & Mccathie (2009) estudiaron cómo están diseñados los rankings y qué están midiendo, específicamente en el ranking ARWU. Aplicando el método de Análisis de Componentes Principales (ACP) buscaron definir los factores subyacentes medidos por este ranking.

En cada uno de los rankings mencionados anteriormente, la presencia de las universidades de América Latina es escasa. Tomando como ejemplo el año 2016, entre las 500 universidades que clasifica el ranking ARWU, sólo 9 son latinoamericanas, lo que equivale al 1,8% del total. La universidad mejor posicionada es la Universidad de Sao Paulo (ubicada en el rango 101-150), seguida por las universidades Nacional Autónoma de México y de Buenos Aires. En el ranking THE, que clasifica 800 universidades, 28 son de América Latina (3,5%), habiendo sólo cinco en las primeras 500 posiciones.

Nuevamente la universidad mejor clasificada es la Universidad de Sao Paulo, pero en el rango 201-250. Finalmente, el ranking QS entrega los resultados para más de 800 universidades, de ellas, 90 son de América Latina (aproximadamente el 10%). Sin embargo, dentro de las primeras 500 posiciones sólo hay 23 universidades de la región, destacando esta vez en primer lugar la Universidad de Buenos Aires en la posición 124, seguida por las universidades de Sao Paulo y Nacional Autónoma de México.

Sin embargo, tanto QS como THE han desarrollado versiones para las universidades de la región latinoamericana, a partir del año 2011 y 2016, respectivamente. En ambos casos la metodología aplicada difiere de sus versiones globales. Adicionalmente los rankings BGUR y Webometrics permiten filtrar los resultados para las instituciones de América Latina. Cabe señalar que Webometrics considera a la región como todos aquellos países que están al sur de Estados Unidos y en el Caribe. Por otro lado, los otros rankings estiman que sólo entrarían en la región los países del continente americano cuyo idioma oficial es el español o el portugués, definición que se tomará en el presente estudio.

En base a lo anterior, es válido preguntarse, al igual que lo hiciera Shehatta & Mahmood (2016), si los rankings de América Latina ¿entregan resultados similares, a pesar de aplicar diferentes metodologías?. Si así lo fuera, la segunda pregunta que debe plantearse es ¿cuáles son los factores subyacentes medidos por QS-AL y que definen la calidad de las universidades? Para responder estas preguntas se tomará como base de estudio el ranking QS-AL, año 2016, que se comparará tanto con QS-Global, THE, BGUR y Webometrics, cada uno para su versión latinoamericana (de aquí en adelante THE-AL, BGUR-AL y Webometrics-AL, respectivamente).

Se revisa en primera instancia el estado del arte, considerando las metodologías aplicadas en los principales rankings universitarios globales y latinoamericanos, posteriormente se precisan estudios realizados sobre correlaciones y superposiciones, para finalmente, explicar la metodología aplicada en el estudio, tanto en el análisis de las correlaciones entre las posiciones y puntales de pares de rankings, como el ACP y los resultados conclusiones derivadas del estudio. Para ello, a través de las páginas web de distintos rankings universitarios en sus versiones del año 2016, se recopilaron los datos sobre las universidades latinoamericanas. Los datos recogidos de cada ranking fueron: nombres de las universidades clasificadas, su posición y puntaje obtenido. Los rankings utilizados en el estudio fueron: QS World University Rankings, tanto en su versión global y su versión latinoamericana; ranking THE-AL; ranking BGUR-AL; y el ranking Webometrics (Webometrics-AL).

2. Rankings de Universidades Latinoamericanas

En esta sección se realiza una descripción de los rankings globales, rankings para Latinoamérica y los estudios comparativos previos.

2.1. Rankings globales: la presencia de las universidades de América Latina

Existen diversos rankings a nivel mundial que intentan medir la calidad de la educación, utilizando cada uno su propia metodología. En particular, se destacan cinco rankings (Bornmann & Haunschild, 2017): Academic Ranking of World Universities (ARWU), Times Higher Education (THE), Quacquarelli Symonds

World University Ranking (QS), el Leiden Ranking by the Centre for Science and Technology Studies (CWTS) y el SCImago Institutions Ranking (SCimago).

El ranking ARWU utiliza indicadores de excelencia agrupados en 4 criterios (calidad de la educación; calidad de los profesores; resultado de la investigación y rendimiento per cápita). Sólo clasifica a las universidades que cuentan con premios Nobel y medallas Field, investigadores altamente citados o artículos publicados en Nature & Science. Además, también son incluidas las universidades que tienen una cantidad importante de artículos publicados en revistas indexadas en Science Citation Index- Expanded (SCIE) y Social Science Citation Index (SSCI).

El ranking THE considera 13 indicadores agrupados en 5 áreas: enseñanza, investigación, citas, perspectiva internacional e ingresos de la industria. A su vez, el ranking QS utiliza las seis métricas para evaluar las universidades: reputación académica, reputación del empleador, relación profesores a estudiante, citas por profesor, proporción de profesores internacionales y proporción de estudiantes internacionales. Tanto en el ranking THE como en el QS utilizan indicadores centrados en la reputación e internacionalización de las universidades. El ranking CWTS clasifica según los resultados en investigación obtenidos por las universidades, sin tener en cuenta la diversidad de misiones que ellas poseen. Por último, el ranking SCimago se basa en un conjunto de rangos calculados a través de indicadores de investigación, innovación y visibilidad web.

A lo anterior, se agregan también los rankings National Taiwan University Ranking (NTU), Nature Index (Nature), US News & World Reports, Best Global Universities Rankings (BGUR) y The Center for World University Rankings (CWUR), entre otros. Siendo escasa la presencia de las universidades de América Latina en estos rankings, encontrando en el año 2016, solo una universidad entre las primeras 100 universidades mundiales en algún ranking. La Universidad de Sao Paulo se clasifica en los rankings CWTS, NTU y Webometrics en las posiciones 11, 56 y 63, respectivamente (Tabla 1).

Estos resultados van en la misma línea con lo expresado por Brunner y Ganga (2016) quienes citan a Albornoz (2014) y Brunner (2014a), donde coinciden que el desempeño de las universidades de América Latina es débil y se halla relativamente por debajo del peso de su población y del producto, a excepción de Brasil en algunas variables de desempeño.

Tabla 1
Presencia de universidades de América Latina en rankings globales (año 2016) Importar imagen Importar tabla
Presencia de universidades de América Latina en rankings globales (año 2016)  Importar imagen   Importar tabla
elaboración propia.

2.2. Rankings desarrollados para las universidades de América Latina

Algunos rankings, como Best Global Universities Rankings (BGUR) y Webometrics permiten filtrar la información y obtener las clasificaciones para cada país o región, entre ellas América Latina. Es así que para el año 2016, BGUR entrega la clasificación de 34 universidades, asignándole puntaje y posición. Webometrics, a su vez, lo hace para más de 3.000 instituciones.

Existen dos rankings que desarrollaron clasificaciones especiales para la región: 1) el ranking QS, que desde el año 2011 publica anualmente una clasificación de las universidades de América Latina, y luego, a partir del año 2016, 2) el ranking THE. La metodología que se aplica en la versión latinoamericana del ranking QS (QS-AL) difiere de la utilizada en la versión global (QS-Global). El objetivo de este cambio metodológico responde a la necesidad de reflejar de mejor forma las fortalezas de las universidades de la región, al igual que sus prioridades (Tabla 2). Como primera diferencia que se aprecia entre los dos rankings es que, si bien el porcentaje asignado a los índices de reputación, en la versión latinoamericana se da una mayor ponderación a la reputación que tienen las universidades entre los empleadores. En contraposición, disminuye la importancia que tiene la reputación de la universidad entre los académicos, el ratio docentes por estudiantes y las citas por artículo.

Tabla 2 Indicadores aplicados en los rankings QS- global y QS-AL (año 2016)

elaboración propia.

En la versión global hay dos indicadores relacionados a la internacionalización de las universidades que están ausentes del ranking QS-AL: los ratios de docentes y estudiantes extranjeros. Estos ratios muestran la capacidad de atraer a docentes y alumnos de otros países, aspecto importante dado que el contar con un entorno multinacional facilita el intercambio de mejores prácticas y creencias. Además, permite entregar a los estudiantes habilidades blandas como conciencia global y simpatías internacionales

Otro indicador ausente del QS-AL es “citas por docente”. Este indicador tiene como objetivo medir la calidad de una institución considerando que uno de sus misiones es la investigación. Pero surgen 4 nuevos indicadores: “docentes con PhD”, “artículos por docente”, “impacto en la Web” y “red internacional de investigación”.

Con relación a los rankings THE (Tabla 3), las diferencias entre la versión global y la de América Latina, se refleja en las ponderaciones que reciben los distintos índices utilizados por él. En el ranking THE-AL aumenta el porcentaje asignado a los indicadores relacionados a la enseñanza y a la investigación. En este último, el mayor peso lo tiene el indicador de “productividad de la investigación”, cuyo objetivo es medir la capacidad de la universidad para obtener artículos publicados en revistas de calidad revisadas por pares. Pero disminuye el peso del indicar Citaciones, el cual muestra la influencia de las universidades en la difusión de nuevos conocimientos.

2.3. Estudios comparativos previos de ranking

A partir de los rankings universitarios que clasifican universidades a nivel global se han generado diversas investigaciones que comparan las metodologías y resultados obtenidos por ellos. Algunas de las investigaciones se han centrado en determinar si, a pesar de las diferencias en las metodologías aplicadas en los rankings logran llegar a resultados similares. Shehatta & Mahmood (2016) entrega algunos de los resultados encontrados (Tabla 4).

En el mismo estudio, Shehatta & Mahmood (2016) analizaron para el año 2015 las clasificaciones ARWU, QS, THE, BGUR, NTU y el University Ranking by Academic Performance (URAP).

Indicadores aplicados en los rankings THE- Global y THE-AL (año 2016)
Tabla 3
Indicadores aplicados en los rankings THE- Global y THE-AL (año 2016)
elaboración propia.

Tabla 4
Estudios sobre correlación entre pares de rankings mundiales
Estudios sobre correlación entre pares de rankings mundiales


elaboración propia.

Encontraron que 49 universidades están presentes en las 100 primeras posiciones de los seis rankings. Además determinaron que las mayores correlaciones se dan entre los rankings URAP y NTU, que se explica porque ambos utilizan datos bibliométricos.

Otros estudios cuantitativos realizados sobre los rankings globales han aplicado como método el Análisis de Componentes Principales (ACP). Uno de ellos es el de Dehon & Mccathie (2009), donde el objetivo principal era determinar si la excelencia académica - calidad de la investigación- puede medirse por un único factor reflejado en una clasificación. El estudio se basó en el ranking ARWU. Los resultados obtenidos sugieren que para la mayoría de las instituciones de muestra utilizada, la clasificación lograda por las instituciones proviene de la combinación de dos aspectos diferentes y no correlacionados. El primer factor sería la investigación realizada al más alto nivel, que se mide por los alumnos y los profesores que reciben un Premio Nobel o una medalla Fields. El segundo factor sería la investigación en términos de producción.

Utilizando también el método del ACP y aplicado al ranking ARWU, Docampo (2011) analizó distintos sistemas universitarios en términos de la calidad de su desempeño investigativo. Concluye que la ARWU podría tomarse, a nivel de países, como una escala unidimensional que intenta evaluar la calidad de la investigación de su sistema universitario, medida por los indicadores individuales y colectivos. Los indicadores individuales serían los que se relacionan con los alumnos y profesores ganadores de premios Nobel y medallas Fields, e investigaciones altamente citadas. El indicador colectivo sería el número artículos publicados en Nature & Science. El ranking ARWU favorece los indicadores de excelencia individual y valora en menor medida los esfuerzos para aumentar indiscriminadamente el rendimiento de la investigación.

3. Rankings universitarios: análisis de resultados

El análisis se centró en el ranking QS- AL, ya que, siendo el sistema diseñado para latinoamericana, es el que entrega una clasificación para un mayor número de instituciones. Para el año 2016, se clasificaron más de 300 universidades, entregando para 150 el detalle de posición, puntaje general y por indicador utilizado (reputación académica, reputación de los empleadores, ratio Docentes por Estudiante, ratio Citas por artículo, ratio Artículos por Docentes, Red internacional de investigación, Proporción de Docentes con Doctorado e Impacto en la Web).

A partir de ello y siguiendo la metodología propuesta por Shehatta & Mahmood (2016), con aportaciones personales, se compararon y analizaron cuantitativamente los resultados entregados para América Latina por el ranking QS-AL en relación al QS-Global. El análisis se basó en el estudio de las superposiciones de universidades incluidas entre pares de rankings, utilizando el software SPSS. Igualmente se calcularon y analizaron las correlaciones de Spearman y Pearson, con la respectiva significancia estadística. Las correlaciones fueron estimadas tanto para posiciones obtenidas en los sistemas de clasificación como para puntajes obtenidos. Seguidamente se amplió el análisis entre el ranking QS-AL y el resto de los rankings latinoamericanos.

Considerando que el ranking THE-AL entrega resultados detallados únicamente para las primeras 25 posiciones y luego los clasifica por rangos, tanto para la estimación de las superposiciones y correlaciones entre posiciones, a cada rango se le asignó la marca de clase correspondiente.

Posteriormente, con la finalidad de conocer cuáles son las variables o indicadores que mayor influencia tienen en el resultado del ranking QS-AL, se aplicó la técnica descriptiva multivalente ACP, utilizando para esto el software R-project. El objetivo de esta técnica es explicar la varianza de los datos observados a través de unas pocas combinaciones lineales de los datos originales (Nardo et al, 2005).

De acuerdo a Docampo (2011), el ACP es una técnica estadística que entrega una descripción de las variables estudiadas, que permite entender los datos y ser utilizada para un análisis conceptual posterior. En esta etapa, la información recolectada fue el puntaje general obtenido por cada una de las universidades presentes en las primeras 150 posiciones del ranking QS-AL, además de los resultados obtenidos por ellas en cada uno de los indicadores utilizados por este ranking. Sin embargo, para algunas universidades no se entrega el puntaje de cada uno de los indicadores sobre los cuales se obtuvo el resultado final. En caso de faltar más de cuatro indicadores, las universidades fueron eliminadas de la muestra; pero, si faltaban como máximo tres indicadores, a los datos faltantes se les imputó la mediana de los puntajes obtenidos en los otros indicadores. De esta manera, la muestra estaba compuesta por los resultados de 115 universidades latinoamericanas.

Con los datos recolectados, previo al cálculo de los componentes principales y con el fin de evaluar la idoneidad de los datos para el análisis factorial exploratorio, se calculó la correlación entre los indicadores. Las variables fueron previamente estandarizadas, con el fin de evitar que una de ellas tenga una influencia indebida sobre los componentes principales, y así tener cero medias y varianzas de unidad al inicio del análisis. Con respecto a los componentes principales o dimensiones a retener sin perder demasiada información, siguiendo la metodología de Muñoz & Blanco (2013), se aplicaron dos reglas o criterios. (1) Criterio de Kaiser. Que consiste en eliminar todos los factores con valores propios por debajo de 1,0. (2) Criterios de variación explicada. Se observa el porcentaje de varianza total acumulado. El número de componentes a mantener está relacionado la varianza acumulada: si esta es cercana al 80% significa que el número de componentes es suficiente.

3.1. Superposiciones y correlaciones entre QS-AL y QS Global

Tabla 5
Posición de las primeras 12 universidades latinoamericanas del ranking QS –Global en el ranking QS-AL 2016
Posición de las primeras 12 universidades latinoamericanas del ranking QS –Global en el ranking QS-AL 2016
elaboración propia.

El sistema de clasificación QS-AL entrega los resultados de 300 universidades: para las primeras 150 detalla su posición y puntuación, mientras que para las siguientes entrega sólo rangos de posición. Por su parte, el QS-Global entrega los resultados para 1.000 universidades, detallando posición y puntuación para las primeras 400, y únicamente el rango de posición para las siguientes. Dentro del ranking global para el año 2016 existen 90 universidades latinoamericanas, las que también están presentes en el ranking latinoamericano. Pero, dentro de las primeras 400 posiciones del ranking QS-Global, únicamente 12 están entre las primeras posiciones (Tabla 5).

Las primeras doce universidades presentes en el ranking QS-Global están a su vez en los primeros 18 lugares del QS-AL (tabla 6). Sin embargo, algunas instituciones, como la Universidad de Brasilia, que ocupa la posición 10 del ranking QS-AL, logran posiciones inferiores a la 400 en el ranking global, en tanto que la Universidad Federal de Santa Catarina y la Universidad Autónoma Metropolitana, que tienen las posiciones 24 y 36 respectivamente en el ranking latinoamericano, están en posiciones sobre la 700 en el ranking global.

En cuanto a la correlación entre las posiciones de ambos rankings, los resultados muestran que ésta es positiva, y estadísticamente significativa (p-valor < 0,01), con una correlación de 0,676 con un tamaño de muestra de 90. Por otra parte, la correlación entre las puntuaciones también es positivo y significativo a un nivel de confianza del 95% (p-valor <0,05), con una correlación 0,545 (Pearson) aunque el tamaño de muestra n es 12.

De acuerdo a lo citado por Mahmood & Almas(2017), la regla general de (Cohen, 1988) clasifica a los valores de 0,10, 0,30 y 0,50 como correlaciones pequeñas, medias y grandes, aunque agrega luego que otros estadísticos aceptan un valor mayor como un efecto fuerte, comenzando desde 0.60 y algunas veces desde 0,80. Por lo tanto, en el caso estudiado, estaríamos en presencia de correlaciones de media a fuerte, lo que implicaría que las conclusiones obtenidas a través del ranking QS-AL también son válidas para QS- Global. En cuanto a la correlación entre las posiciones de ambos rankings, los resultados muestran que ésta es positiva, y estadísticamente significativa (p-valor < 0,01). Por otra parte, la correlación entre las puntuaciones también es positivo y significativo a un nivel de confianza del 95% (p-valor <0,05), aunque el tamaño de muestra es pequeño.

3.2. Superposiciones y correlaciones entre QS-AL y otros rankings de universidades latinoamericanas

Cada ranking latinoamericano clasifica un número distinto de universidades. QS- AL: 150; THE-AL: 50; Webometrics-AL: 3.850 y BGURAL: 35. Así, no es de extrañar que todas universidades presentes en el ranking QS-AL, al igual que en el THE-AL y BGURAL, también lo estén en WebometricsAL (Tabla 6). Sin embargo, no todas las universidades de los rankings THE-AL y BGUR-AL están también en el QS-AL (44 y 34, respectivamente). No obstante, en la medida que se restringe el número de universidades analizadas también disminuye el número de superposiciones. De esta manera, cuando se analizan las superposiciones de rankings tomando sólo los primeros 150 lugares, hay 110 universidades que están a la vez en QS-AL y Webometrics-AL, manteniéndose 44 y 34 universidades de los rankings THE-AL y BGUR-AL anteriores.

En el caso más restrictivo, cuando se estudian las superposiciones entre los primeros 35 lugares del ranking QS-AL con respecto Webometrics-AL, THE-AL y BGUR-AL, éstas serían de 26, 20 y 21, respectivamente.

Tabla 6
Correlación de universidades clasificadas en rankings
Correlación de universidades clasificadas en rankings
elaboración propia

El estudio de las correlaciones revela que, tomado como muestra el año 2016, el ranking QS-AL se correlaciona positivamente con todos los demás rankings latinoamericanos (THE-AL; BGUR-Al y Webometrics-AL). Sólo habría una correlación débil entre QS-QL Fuente: elaboración propia.

y Webometrics cuando son incluidas todas las universidades de ambos rankings. Estos resultados se dan tanto si la correlación se mide entre las posiciones o puntajes logrados por las universidades. A medida que se limitan el número de universidades incluidas en la muestra quedando aquellas instituciones mejor posicionadas en los distintos rankings, la correlación aumenta. Lo anterior, sea que se mida a través de la correlación entre las posiciones obtenidas por las universidades (Pearson) o entre los puntajes obtenidos (Spearman).

Las mayores correlaciones, calculadas a través de Pearson o Spearman, es entre QS-AL y THE-AL, probablemente por utilizar ambos indicadores de la reputación de la universidad. Por último, todas las correlaciones son significativas con un p-valor<0,01. En todos los casos los resultados son estadísticamente significativos con un nivel de confianza de 99%.

La mayor correlación se da entre los rankings QS-AL y THE-AL. Este resultado es similar a los encontrados en trabajos anteriores realizados sobre los rankings globales (Huang, 2011; Khosrowjerdi & Kashani, 2013). Al igual que en el caso global, QS-AL y THE-AL consideran dentro de sus indicadores encuestas de reputación aplicadas a empleadores y/o académicos.

3.3. Análisis de componentes principales

Tabla 7
Coeficiente de correlación indicadores utilizados en Rankings QS –AL
Coeficiente de correlación indicadores utilizados en Rankings QS –AL
elaboración propia

Siguiendo parcialmente la metodología aplicada por Docampo, (2011) y Dehon & Mccathie (2009), se recolectaron los datos del puntaje general obtenido por cada una de las universidades presentes en las primeras 150 posiciones del ranking QS-AL, como también del puntaje que cada una de ellas obtuvo para cada indicador utilizado por el ranking. El objetivo de esta etapa es identificar, por medio de los ocho indicadores, las combinaciones lineales que mejor representan la variación de dichos indicadores. Con los datos recolectados, previo al cálculo de los componentes principales y con el fin de evaluar la idoneidad de los datos para el análisis factorial exploratorio, se calculó la correlación entre pares de indicadores. De acuerdo a los resultados expuestos en la Tabla 7 las correlaciones entre los criterios no es alta (menores a 0,6), lo que indicaría que no comparten información en común y concluir que la técnica de ACP es adecuada para las variable objeto de estudio (Bernal et al, 2004).

Luego, para seleccionar el número de ejes (dimensiones o componentes) a retener en el ACP, se aplicaron dos técnicas: criterio de raíz latente y porcentaje de la varianza. La Tabla 8 muestra de manera decreciente las dimensiones o componentes, según el porcentaje de la varianza del modelo que explican y de los valores propios (eigenvalue) de cada uno.

Tabla 8
Valores propios por componente y porcentaje de la varianza explicada
Valores propios por componente y porcentaje de la varianza explicada
elaboración propia.

En consecuencia, el criterio de Kaiser indica que deberían retenerse las tres primeras dimensiones, puesto que cada una tiene un valor propio superior a uno. Sin embargo, no se cumpliría el criterio de la variación explicada, ya que la varianza acumulada con las tres primeras dimensiones es sólo de 60%, valor que se elevarían a 72,56% si se agrega el siguiente, cuyo valor propio es cercano a la unidad (0,973).

Tabla 9
Componentes de cada dimensión
Componentes de cada dimensión

Por lo tanto, los resultados sugieren la existencia de cuatro dimensiones o componentes (Tabla 9), dados los valores propios de cada uno. Dimensión 1: se encuentra definido principalmente por el impacto que tienen las universidades en las redes, además por la participación que tienen en las redes internacionales de investigación, por su reputación entre académicos y por el número de artículos publicados por sus académicos. Dimensión 2: esta dimensión se caracteriza por el número de docentes con doctorado y por la reputación que tienen los empleadores sobre las universidades. Dimensión 3: este factor se define únicamente por el número de citas por artículos.Dimensión 4: este componente se caracteriza sólo por el ratio “Alumnos por docente”.

Tabla 10
Clasificación de cada universidad por dimensión
Clasificación de cada universidad por dimensión

Finalmente, la Tabla 10 muestra las universidades clasificadas según las dimensiones en las cuales son fuertes. En ella se destaca que el mayor número de universidades se caracterizan por ser fuertes en la dimensión 1, donde el factor Impacto en la Web es el más relevante, con 42 universidades. En esta dimensión incluye a nueve de las diez mejores posiciones en QS-AL. Por otro lado, la dimensión 4 es la que menor número de universidades agrupa es la 4, las que se caracterizan por el número de docentes por estudiante, con 16 universidades.


elaboración propia.

4. Conclusiones

Las universidades del mundo están siendo permanentemente evaluadas por distintas organizaciones que buscan, a partir de rankings, generar información sobre la calidad de la educación impartida por ellas. Las universidades latinoamericanas no son una excepción pero sólo unas pocas sobresalen en el contexto global. En este escenario, y con el fin de reflejar mejor las fortalezas y prioridades de las universidades de la región, los rankings QS y THE han generado clasificaciones específicas para la región.

Los indicadores aplicados en ambos rankings siguen intentando evaluar a las universidades en los ámbitos de la docencia, investigación, transferencia de conocimiento y perspectiva internacional. Pero la metodología o ponderaciones aplicadas difieren a las versiones globales. Aun así, los resultados encontrados por ambos rankings no difieren de manera importante. De las 50 universidades clasificadas por THE-AL en el año 2016, 44 están presentes en ambos rankings. Universidades como las de Sao Paulo, Estadual de Campinas, de Chile, Autónoma de México, por mencionar algunas, están clasificadas en las primeras posiciones de ambos rankings. La explicación es que existe una alta correlación en los resultados de ellos, especialmente entre aquellos clasificados en las primeras posiciones de los rankings.

De igual forma, existe una correlación moderada a alta con otros rankings, principalmente cuando se la muestra se restringe aquellas universidades con mejor posición (QSGlobal, BGUR-AL, Webometrics). Sólo se encuentra una correlación baja entre QSAL y Webometrics, cuando se toman todas las universidades clasificadas por ellos.

Según el análisis realizado a partir del ranking QS-AL, la clasificación obtenida por el mayor número de instituciones utilizadas en la muestra depende de cuatro factores no correlacionados entre sí. El primero y más importante, a pesar de que tiene asignado un peso de 5%, es el impacto que tienen las universidades en las redes. Luego estarían la participación que tienen en las redes internacionales de investigación, la reputación que tienen entre académicos y el número de artículos publicados por sus académicos. Dentro de este grupo de universidades se encuentra el 15 de las 20 mejor clasificadas en el ranking QS-AL. La fuente de información del factor “impacto en la red” proviene del ranking Webometrics.

Lo que es evidente es que la investigación determina la mayor presencia de instituciones en los resultados de los rankings. Por lo tanto, políticas públicas que tiendan a fortalecer y aumentar el gasto en investigación en las universidades de Latino América permitirán mejorar la posición en los ranking AL y globales, lo cual a su vez abre un espacio para nuevas investigaciones que correlacionen el gasto en investigación respecto al producto interno de los países y su presencia en los rankings globales.

Referencias bibliográficas

Bernal, Juan; Martínez, Soledad & Sánchez, Juan (2004), Modelización de los factores más importantes que caracterizan un sitio en la red. XII Jornadas de ASEPUMA, Murcia, España. 1-3.

Bornmann, Lutz, & Haunschild, Robin (2017), An Empirical Look at the Nature Index. Journal of the Association for Information Science and Technology, 68(3), 653–659.

Brunner, José Joaquín& Ganga, Francisco (2016), Dinámicas de transformación en la educación superior latinoamericana: Desafíos para la gobernanza. Opción, 32(80), 12–35.

Cohen, Jacob (1988), Statistical power analysis for the behavioral sciences, (Second Edition).

Collins, Francis& Park, Gil-Sung (2016), Ranking and the multiplication of reputation: reflections from the frontier of globalizing higher education. Higher Education, 72(1), 115–129.

Dehon, Catherine, McCathie, Alice& Verardi, Vincenzo (2009), Uncovering Excellence in Academic Rankings: A case study on the Shanghai Ranking. Universite Libre de Bruxelles, ECARES, vol. 28, 1-12.

Dobrota, Marina, Bulajic, Milica, Bornmann, Lutz, & Jeremic, Veljko (2016), A new approach to the QS university ranking using the composite Idistance indicator: Uncertainty and sensitivity analyses. Journal of the Association for Information Science and Technology, vol. 67(1), 200-211.

Docampo, Domingo (2011), On using the Shanghai ranking to assess the research performance of university systems. Scientometrics, 86(1), 77–92.

Hefferman, Troy & Hefferman, Amanda (2017), Language games: University responses to ranking metrics. Higher Education Quarterly, vol.72 (1), 23–39.

Huang, Mingxin (2011), The comparison of performance ranking of scientific papers for world universities and other ranking systems. Evaluation Bimonthly, 29, 53–59.

Johnes, Jil (2018), University rankings: What do they really show?. Scientometrics, 115(1), 585–606.

Khosrowjerdi, Mahmood, & Kashani, Zahra Seif (2013), Asian top universities in six world university ranking systems. Webology, 10(2), 1–9.

Mahmood, Khalid, & Almas, Khalid (2017), SCImago Journal Rank Indicator: A Viable Alternative to Journal Impact Factor for Dental Journals. Lawrence Erlbaum Associates, Ed. (2nd.). Hillsdale, NJ.

Mikhaylov, Andrey Sergeevich, & Mikhaylova, Anna (2018), University Rankings in the Quality Assessment. Calitatea, 19(163), 111–117.

Muñoz, Miguel& Blanco, Christian (2013), Una taxonomía de las universidades chilenas. Calidad en la Educación, 38(Julio), 181–213.

Nardo, Michela, Saisana, Michaela, Saltelli, Andrea, Tarantola, Stefano, Hoffman, Anders, & Giovannini, Enrico (2005), Handbook on Constructing Composite Indicators: Methodology and User Guide, OECD Statistics Working Papers. Handbook on Constructing Composite Indicators: Methodology and User Guide. Paris. p. 108.

Ordorika, Imanol & Lloyd, Marion (2015), International rankings and the contest for university hegemony. Journal of Education Policy, 30(3), 385–405.

Pérez-Esparrells, Carmen & Gómez Sancho, José María (2010), Los rankings internacionales de las instituciones de Educación Superior y las clasificaciones universitarias en España: visión panorámica y prospectiva de futuro. Fundación de las Cajas de Ahorros. Documento de Trabajo Nº 559/2010.

Pietrucha, Jacek (2018), Country-specific determinants of world university rankings. Scientometrics, 114(3), 1129–1139.

Shehatta, Ibrahim, & Mahmood, Khalid (2016), Correlation among top 100 universities in the major six global rankings: policy implications. Scientometrics, 109(2), 1231– 1254.

Scimago Lab (2018), Scimago Institutions Rankings 2016-2017.Disponible: www.scimagoir.com/rankings.php. Fecha consulta: 20-03-2018

Shanghai Ranking Consultancy (2018), Academic Ranking of World Universities 2016-2017. Disponible: www.shanghairanking. com/. Fecha consulta: 10-01-18.

THES–QS (2017), World University Rankings 2017.Disponible: www.topuniversities.com/ worlduniversityrankings/. Fecha consulta: 11-02-2018.

Times Higher Education (2017), Word University Rankings 2015 - 2017.Disponible: www. timeshighereducation.com/ world-university-rankings. Fecha consulta: 16-03-18.

Usher, Alex, & Medow, Jon (2009), A global survey of university rankings and league tables. In M. K. Barbara & S. Bjorn (Eds.), University rankings, diversity, and the new landscape of higher education (pp. 3–18). Rotterdam: Sense Publishers.

Wang, Li (2014), Quality assurance in higher education in China : Control , accountability and freedom. Policy and Society, 33(3), 253–262.

Webometrics (2017), Ranking of World Universities 2017.Disponible: www.webometrics.info/. Fecha consulta: 12-04-2018.

Ziegele, Frank (2013), Clasificación de las instituciones de educación superior: el caso europeo. Pensamiento Educativo: Revista de Investigación Educacional Latinoamericana,50(1),

HTML generado a partir de XML-JATS4R por