Artículos

El fetichismo de la indexación. Una crítica latinoamericana a los regímenes de evaluación de la ciencia mundial

O fetichismo da indexação. Uma crítica latino-americana aos regimes de avaliação da ciência mundial

Indexation Fetishism. A Latin American Critique of Science Assessment Regimes Worldwide

Maximiliano Salatino
Facultad de Ciencias Políticas y Sociales de la Universidad Nacional de Cuyo, Argentina
Osvaldo López Ruiz
Facultad de Ciencias Políticas y Sociales de la Universidad Nacional de Cuyo., Argentina

El fetichismo de la indexación. Una crítica latinoamericana a los regímenes de evaluación de la ciencia mundial

Revista Iberoamericana de Ciencia, Tecnología y Sociedad - CTS, vol. 16, núm. 46, pp. 73-100, 2021

Consejo Nacional de Investigaciones Científicas y Técnicas

Recepción: 31 Mayo 2019

Aprobación: 20 Enero 2020

Resumen: En este trabajo problematizamos a la indexación de las revistas científicas como mecanismo utilizado para la evaluación y gestión de la ciencia. El impacto a lo largo del tiempo que ha tenido la indexación y los indicadores cuantitativos ha producido, por lo menos, dos efectos concretos. Por un lado, la constitución de una “fe” incuestionada, creencia o convicción que iguala la producción científica indexada en bases de datos de corriente principal a la “excelencia”, y por otro, un formidable proceso de mercantilización de la circulación del conocimiento a nivel mundial. A partir del estudio de un universo de 10.104 revistas científicas de 28 países de América Latina y el Caribe activas al año 2016/2017, describimos las heterogeneidades y particularidades de las políticas de indexación en la región. Luego, nos aproximamos a debatir algunos ejemplos de políticas de evaluación de la ciencia en Argentina, Brasil, Colombia y México. Argumentamos que la noción de “fetichismo de la indexación” permite dar cuenta de las formas encubiertas o invisibilizadas que adopta la aceptación de criterios mainstream en la evaluación de la ciencia regional en el contexto de competencia científica internacional. Así mismo, esperamos con esta noción estimular una reflexión crítica por parte de la propia comunidad científica.

Palabras clave: indexación, revistas científicas, regímenes de evaluación, gestión de la ciencia, América Latina.

Resumo: Neste trabalho problematizamos a indexação de periódicos científicos como um mecanismo utilizado para a avaliação e gestão da ciência. O impacto ao longo do tempo da indexação e dos indicadores quantitativos teve pelo menos dois efeitos específicos. Por um lado, a constituição de uma inquestionável "fé", crença ou convicção onde a produção científica indexada nas principais bases equipara-se à "excelência" e, por outro, um formidável processo de mercantilização da circulação do conhecimento no mundo todo. Do estudo de um universo de 10.104 revistas científicas de 28 países da América Latina e do Caribe ativos em 2016/2017, descrevemos a heterogeneidade e as particularidades das políticas de indexação na região. Em seguida, passamos a discutir alguns exemplos de políticas de avaliação de ciência na Argentina, Brasil, Colômbia e México. Argumentamos que a noção de "fetichismo de indexação" torna possível explicar as formas ocultas ou invisíveis adotadas pela aceitação de critérios de avaliação mainstream para a ciência regional no contexto da competição científica internacional e pode estimular a reflexão crítica pela própria comunidade científica.

Palavras-chave: indexação, periódicos científicos, regimes de avaliação, gestão da ciência, América Latina.

Abstract: In this paper, we raise the issue of the indexation of scientific journals as a mechanism used for science assessment and management. Over time, indexation and quantitative indicators have produced at least two specific effects. On the one hand, the constitution of an unquestioned "faith", belief or conviction that equates scientific production indexed in mainstream databases to "excellence", and on the other, a formidable process of commodification of the circulation of knowledge worldwide. From the study of a universe of 10,104 scientific journals from 28 Latin American and Caribbean countries active in 2016/2017, we describe the heterogeneity and particularities of indexation policies in the region. We then discuss some examples of science assessment policies in Argentina, Brazil, Colombia and Mexico. We argue that the idea of “indexation fetishism” allows showing the hidden and invisible ways that acceptance of mainstream criteria adopts in the assessment of regional science within the context of international scientific competition. In addition, we expect with this concept to stimulate a critical reflection on behalf of the scientific community itself.

Keywords: indexing, scientific journals, assessment regimes, Latin America.

Introducción

Existe un dilema importante hacia el interior del mundo científico: ¿cómo gestionar la gran cantidad de investigadores e investigadoras, proyectos de investigación y programas de posgrado? ¿Cómo evaluar los resultados de las investigaciones? ¿Por qué se continúan usando indicadores cuantitativos del tipo factor de impacto, clasificación por cuartiles o la indexación de las revistas científicas como elementos centrales y base de apoyo de la evaluación y gestión de la ciencia?

Tanto desde el punto de vista de los gestores de la ciencia como de los investigadores e investigadoras, la cuestión de la evaluación científica se encuentra en constante discusión. Hasta el momento los indicadores cuantitativos de producción y circulación científica han sido una manera “eficiente” de responder a la creciente demanda en la ciencia de evaluación y gestión. Bajo el supuesto de dar cuenta de la excelencia científica, las métricas y los indicadores cuantitativos han sido adoptados por la gran mayoría de las agencias y organismos científicos nacionales para reglar la evaluación científica. Pero, si no tomamos la indexación o el índice de impacto, ¿cómo podríamos evaluar la ciencia contemporánea?

Entendemos que existen muchas derivas a este interrogante que incluyen a los campos científicos locales, los organismos científicos públicos y los procesos de internacionalización de la corriente principal de la ciencia (mainstream). Acotando un poco más el problema sería pertinente preguntarnos: ¿quiénes evalúan la ciencia? ¿La comunidad científica, las agencias de financiamiento, los estados nacionales, las editoriales o las bases indexadoras?

En este artículo, nos situamos a partir de la singularización de la problemática de la indexación desde América Latina para pensar la transformación en los regímenes de evaluación. Regímenes que tienen consecuencias muy concretas en la práctica científica porque tienen la capacidad de moldearla y transformarla. Como menciona Albornoz (2007), existe una fuerte tensión entre burocratización y creatividad en la ciencia contemporánea. La investigación científica tiene marchas y contramarchas, acumulación de errores, los objetos de investigación cambian, se modifican, se transforman. El proceso de investigación no es lineal, lo que de muchas maneras no condice con los tiempos de la competencia científica nacional e internacional. Llegar a tener resultados sólidos y generar una contribución valiosa al estado de la discusión contemporánea no necesariamente implica tener un gran número de publicaciones o asistir con frecuencia a congresos, por ejemplo.

En términos generales se reconocen las limitaciones y las consecuencias del uso de los criterios cuantitativos para evaluar y gestionar la ciencia. Desde los mismos centros del sistema académico mundial, organismos públicos y consejos científicos nacionales señalan la necesidad de profundizar la evaluación cualitativa (Leiden Manifesto, 2015), una fuerte crítica a los indicadores cuantitativos (DORA, 2012;Guédon et al., 2019; Wilsdon et al., 2017) y un señalamiento de las perversiones que a nivel institucional y personal traen consigo los regímenes de evaluación (Wilsdon et al., 2015).

Desde el punto de vista de los agentes científicos, la discusión acerca de dónde publicar, la revisión de los Journal Citation Report (Web of Science-Clarivate Analytics), la búsqueda de la clasificación por cuartiles en el sitio del SCImago Journal Rank, la búsqueda de financiamiento para las publicaciones científicas que requieren que el autor pague parte de los costos (author processing charges), entre tantas otras cuestiones, forman parte de su cotidianeidad. Sin embargo, son menos conocidas o cuestionadas las relaciones estructurales que subyacen al mundo editorial. Estar inmerso en una práctica de publicación no implica conocer los regímenes de evaluación. Por tanto, se desconoce el proceso histórico que llevó a ciertas instituciones reconocidas hoy como “centros de excelencia” a universalizar criterios de evaluación que se tradujeron en una considerable acumulación de capital científico. Este proceso tuvo como consecuencia la expansión de una forma de concebir la producción científica y su evaluación, la que tuvo anclajes y adaptaciones concretas en buena parte del mundo. Al mismo tiempo, se expandió la creencia, la “fe” incuestionada, que reconoce a la indexación como garante de excelencia científica. Las revistas consideradas más prestigiosas reciben miles de artículos, son frecuentemente citadas y poseen índices de rechazo muy altos. Por ejemplo, la búsqueda de publicar en una revista incluida en el Core Collection de Web of Science es un objetivo de sentido común (cuando no una necesidad de supervivencia) en la carrera de muchos científicos y científicas. Los investigadores en ciencias naturales, biológicas y médicas directamente escriben sus artículos en inglés, en el modelo IMRyD (introducción, método, resultados y discusión), con múltiples autores y destinan parte de su presupuesto para pagar por publicar. Este esquema se reproduce en mayor o menor medida en muchas áreas disciplinarias donde la asociación de indexación con el prestigio de una publicación deja de ser simplemente un mecanismo simbólico y se transforma en una estrategia de la práctica científica concreta, particularmente, cuando las diferentes agencias científicas nacionales evalúan a sus agentes según su producción.

La indexación desplazó así aquella disputa concreta y básica entre científicos y científicas por la originalidad y notoriedad de sus trabajos. ¿Quién realizó un mejor aporte para comprender y explicar determinado fenómeno? Los objetivos prácticos actuales llevan a publicar en tal o cual revista que se encuentra bien indexada. La función de la indexación y de la estructura de los indicadores de impacto (incluidas las citaciones) forma parte de la readecuación de las reglas de la competencia científica internacional que contribuye a concentrar capital científico en aquellas áreas/equipos/ institutos/científicos centrales, en detrimento de otras formas del quehacer científico.

En este trabajo nos proponemos problematizar la indexación de las revistas científicas como mecanismo utilizado para la evaluación y gestión de la ciencia, y analizar sus efectos en espacios científicos periféricos como el latinoamericano. Pensamos la indexación como parte de un conjunto de relaciones políticas, académicas y editoriales que no solo se reducen a la inclusión en una base de datos, sino que implica considerar los autores y las autoras, las instituciones editoras, las corporaciones editoriales, los sistemas nacionales de ciencia y los regímenes de evaluación.

En un primer momento, introducimos el proceso de constitución sociohistórica de la indexación como “garante” de la excelencia científica a nivel mundial. Posteriormente, a partir del análisis del universo de 10.104 revistas científicas,1. observamos empíricamente las heterogeneidades y complejidades que concretamente adoptan las estrategias de indexación en la región. Buscamos así desmitificar la mirada monolítica y homogénea que se sostiene acerca del mundo indexado latinoamericano. Luego, presentamos nuestro argumento respecto de por qué la indexación se ha convertido en un fetiche y cuáles son sus características y aristas. Nos centramos en explicar sus procesos e implicancias que son en parte responsable de su exitosa universalización. Finalmente, describimos los efectos que produce la indexación como fetichismo en las políticas científicas nacionales y en los regímenes de la evaluación.

1. De la medición a la evaluación cuantitativa de la ciencia

La historia de la cienciometría está ligada directamente con el desarrollo de los estudios bibliométricos. La bibliometría se encargó de cuantificar o medir el uso de recursos bibliográficos en bibliotecas (la cantidad de pedidos, devoluciones, usos de citaciones, de referencias). Con el paso del tiempo y con la adopción de la ley de Bradford, los bibliotecarios pudieron advertir que el uso de los recursos bibliográficos indicaba, de alguna manera, reconocimiento. Bradford (1934) buscó identificar cuantitativamente la relación entre revistas y artículos de una bibliografía sobre un área disciplinar o tema de interés específico. La ley postula que una gran cantidad de artículos se concentra en un pequeño número de revistas por lo tanto es necesario diferenciar este grupo de revistas. Esto permitió delimitar un grupo o zonas de revistas consideradas como centrales (core journals) de otras zonas o grupos de revistas menos utilizadas. La aplicación práctica de la ley de Bradford proporcionó los mecanismos para seleccionar las publicaciones periódicas más relevantes, en principio para cubrir una determinada área del conocimiento.

La expansión de los estudios bibliométricos se vio modificada durante el período de postguerra. Sencillamente porque los bibliotecarios y las bibliotecarias identificaron sus pautas de suscripción de publicaciones en relación a la conformación de este grupo de revistas centrales por disciplinas, lo que derivó en un aumento mayúsculo de su utilización en detrimento de aquellas publicaciones que habían quedado relegadas en los análisis cuantitativos de la bibliometría. Guédon (2011) afirma que, durante la década de 1960, Eugene Garfield transformó las distribuciones estadísticas de Bradford en su propia ley de concentración, lo que le permitió crear el Science Citation Index y, con ello, la historia contemporánea de los estudios cuantitativos de la ciencia. Lo que hasta entonces se denominaba como core journals se empezó a denominar core science.

La cienciometría surgió a finales de la década de 1960 como una especialización de los estudios bibliométricos basados en la aplicación de métodos matemáticos y estadísticos. Existen actualmente muchos debates en torno a la adjudicación y propiedad del término “cienciometría” (Hood y Wilson, 2001; Wouters, 1999), pero se reconoce, que la formulación primera de ese término se debe al investigador ruso Vassily V. Nalimov en 1969. De todas formas, su efectiva circulación y desarrollo a escala global tuvieron su anclaje en los trabajos de Eugene Garfield en el Institute for Scientific Information (ISI-WoS). Garfield tomó buena parte de los estudios bibliométricos anteriormente referidos y dio origen al Science Citation Index en 1964. Para Heilbron (2002) el modelo de Garfield también se basó en la aplicación del Shepard’s Citator, una base de datos de derecho especializada en jurisprudencia y leyes que lograba sistematizar criterios de selección, lo que permitía la jerarquización de determinados recursos en diferentes áreas jurídicas (principalmente jurisprudencia). La Organización para la Cooperación y el Desarrollo Económicos (OCDE) fue, por su parte, pionera en los estudios cuantitativos de la ciencia y la tecnología. La OECD editó en 1962 el conocido Manual de Frascati, que representa, según Vessuri (1991), el intento normalizador más importante llevado a cabo por un organismo internacional, a fin de conseguir un lenguaje común acerca de las actividades relacionadas con la ciencia y la tecnología, y proceder a una medición lo más uniforme posible de las tareas de investigación y desarrollo (Vessuri, 1991, p. 66).2.

Todo este sistema se estructuró sobre la constitución de las revistas científicas como principal medio de divulgación de la ciencia desplazando el rol histórico del libro. Los resultados de investigación científica pasaron a tener como medio de comunicación preferencial a las revistas, exacerbando lo que algunos autores han denominado como la “cultura del paper” (Garfield, 1996; Plume y van Weijen, 2014) o la “cultura de la citación” (Wouters, 1999). Se puede sugerir que el rol de las revistas científicas en las últimas décadas ha llevado a una reconversión de su función primigenia, la comunicación de la ciencia, transformándose en un instrumento de evaluación y, por tanto, delineado en función de los requisitos internacionales de “excelencia”. Esos requisitos han sido incorporados por los sistemas científicos para las evaluaciones y promociones de sus investigadores e investigadoras. Esto puede constatarse tanto a escala regional como nacional. Vessuri, Guédon y Cetto destacan que: “estos procesos de desarrollo científico transforman la cuestión de la calidad de la ciencia en una cuestión de competencia por los mejores lugares en los rankings; se introducen a las revistas científicas como instrumento primordial de la gestión y evaluación de la ciencia, definiendo asimismo las reglas de la competencia” (Vessuri, Guédon y Cetto, 2014, p. 653).

Es importante detenernos en este hito dentro de la historia de la ciencia donde las publicaciones científicas formaron parte de la configuración de diferentes dispositivos que permitieron medir y cuantificar la producción científica. La función de las revistas como un registro social del avance de la ciencia, parafraseando a Guédon (2011), se vio intervenida por la presencia de agentes externos al mundo científico.3 En este sentido, aquella discusión planteada por Bourdieu asociada al rol de las revistas científicas como instrumento de visibilidad de la ciencia se vio expandida. Ahora las revistas no solo diferencian lo publicable de lo no publicable, sino también establecen jerarquías dentro del mundo de lo publicado.

Para Bourdieu (2003 [2001]), la cienciometría se basa en los mismos fundamentos del estructural funcionalismo mertoniano ya que plantea el control y la evaluación de la ciencia con fines de formular políticas públicas. Para el autor, “los indicadores cienciométricos: ofrecen a los administradores científicos los medios aparentemente racionales de gobernar tanto a la ciencia como a los científicos y de ofrecer unas justificaciones de aire científico a las decisiones burocráticas” (Bourdieu, 2003, p. 33). En este sentido, la cienciometría se instrumentaliza en una forma de gestión de las instituciones y agentes científicos a partir de la cuantificación de la producción científica y su transformación en indicadores.

Al mismo tiempo, la aplicación de la cienciometría en diferentes campos científicos nacionales implica una homogeneización de las asimetrías y desigualdades preexistentes en dichos campos. Es decir, la mundialización de por ejemplo el índice de impacto (Fleck, 2013; Garfield, 2007; Wouters, 1999) implica comparar con el mismo indicador revistas con contextos de publicación muy diferentes. En este sentido, nos preguntamos, por ejemplo, ¿qué consecuencias trae aparejado comparar una revista británica con una mexicana a partir de sus índices de impacto? ¿Son comparables las citaciones de un autor o autora del Norte con alguno o alguna del Sur? Los métodos cuantitativos de evaluación de la circulación de la ciencia tienden a borrar las diferencias, por tanto, a invisibilizar asimetrías. Existen diversas diferencias y jerarquizaciones en el sistema académico mundial, una de las principales, es el uso del inglés como lingua franca (Ortiz, 2009); lo que se traduce en una desventaja estructural para la publicación científica de regiones periféricas donde el inglés no es lengua nativa.

2. La ciencia indexada en América Latina

El desarrollo e institucionalización de la indexación y de los indicadores cuantitativos como guías para evaluar la ciencia ha promovido una serie de fenómenos. En primer lugar, han modificado buena parte de las reglas de juego dentro de los campos científicos nacionales. Si la evaluación de la práctica individual o institucional de los agentes científicos se vincula, en mayor o menor medida, en relación a la cantidad de su producción, esto genera una serie de articulaciones tendientes a modificar las prácticas de producción de conocimiento científico. El eje de la evaluación se centra en la productividad medida en función de alguno de estos “indicadores”, en especial, porque, más allá de la advertencia de sus limitaciones (Babini, 2016;Beigel, 2014; Guédon, 2014;Velho, 1986;Vessuri, 1987;

En segundo término, la presencia de la producción científica de países emergentes y periféricos hacia el interior de estos “rankings” de excelencia4 es mínima en función de su visibilidad e impacto. Históricamente la ciencia latinoamericana ha sido subrepresentada en las bases indexadoras como Web of Science (ex ThompsonReuters, hoy Clarivate Analytics) o Scopus (ex Elsevier, hoy Relx).5. Según nuestra base de datos, se estima que para 2016-2017, América Latina contaba con 10.104 revistas activas, de la cuales solo 232 están incluidas en Web of Science y 810 en Scopus (Salatino, 2018a). A continuación, puede observarse la distribución de revistas editadas en América Latina y el Caribe activas a 2017 en relación a su inclusión a diferentes bases indexadoras.


Un elemento fundamental a considerar es que en la región existe un 36% de revistas que no se encuentran incluidas en ninguna base indexadora. Es un porcentaje alto que implica morigerar afirmaciones de sentido general cuando se analizan las revistas latinoamericanas. En esta comparación de revistas indexadas en bases internacionales y regionales podemos observar que Latindex y Redalyc son las más inclusivas. Para el caso de Latindex tanto su Catálogo (con proceso de evaluación) como el Directorio (registro de revistas con algún interés científico sin evaluación) alcanzan más del 50% de todas las revistas editada en 28 países de América Latina y el Caribe. Scielo incluye al 10% mientras que Scopus es la base de corriente principal que más revistas incluye. Web of Science y su reciente recurso Emerging-Source se encuentran limitados solamente al 2,3% y 1,9% respectivamente.

Para el caso de las revistas indexadas, la heterogeneidad hacia el interior de las indexaciones es muy alta. Podemos observar que no es lo mismo analizar las colecciones de Scielo o Redalyc y las de Latindex. Cada una incluye un universo diferente de revistas y por lo tanto es necesario deconstruir las aproximaciones que consideran al mundo indexado como monolítico y homogéneo.

En tercer lugar, los indicadores cienciométricos hegemónicos son producidos y promovidos por un conjunto de empresas científicas ancladas en los centros del sistema académico mundial. Por lo que allí se conjugan los intereses comerciales de búsqueda de rentabilidad (y, por lo tanto, de un mercado para sus productos) y la constitución “parroquial” y “eurocéntrica” de un sistema de medida de muy dudosa aplicación en contextos y campos científicos diferentes. En el último tiempo desde América Latina, se han indagado diversos caminos para la construcción de indicadores regionales, siendo el caso de la Red Iberoamericana Indicadores de Ciencia y Tecnología (RICYT) un ejemplo exitoso. Sin embargo, la cobertura y el análisis asociados a publicaciones científicas y circulación de conocimiento científico en general continúan siendo un desafío.

Por último, el uso de indicadores para la evaluación científica ha generado en espacios científicos latinoamericanos un proceso de segmentación de la circulación de revistas y artículos. Desde finales de los años 80 y durante los 90, América Latina fue testigo de una expansión en términos absolutos de sus publicaciones periódicas. Uno de los motivos fue la consolidación de la revista científica como instrumento privilegiado de circulación de conocimiento científico. En muchas áreas disciplinares, el paper fue considerado un fin en sí mismo y, por lo tanto, se promovió la creación de revistas propias. En especial, debido a las limitaciones que trae consigo la publicación en inglés, por tanto, se expandieron los circuitos de publicación anclados en el español y el portugués como idiomas principales. Dicha expansión se cimentó en las diferencias histórico-estructurales de los campos científicos nacionales en la región. Lo que produjo como consecuencia fue la generación de diferentes espacios de circulación con diferentes estrategias de consagración que conviven en la actualidad (Salatino, 2018).

Si analizamos las revistas indexadas latinoamericanas, podemos apreciar con mayor profundidad de qué manera las políticas de indexación ha moldeado la circulación regional. A continuación, observamos la distribución de revistas de 28 países de América Latina y el Caribe en relación a su inclusión en alguna base indexadora:


Los países que poseen mayor cantidad de revistas indexadas considerando el promedio regional son: Ecuador, El Salvador, Guatemala, Honduras, Panamá, Nicaragua, Paraguay y Perú. En tanto que México, Venezuela, Colombia y Cuba son países que poseen menos revistas no indexadas en relación con el promedio latinoamericano. Para el caso brasileño, el 40% de sus revistas no tienen inclusión alguna, el 36% para Argentina, 34% para Chile, 31% para México y 27% para Colombia. Estos datos dejan claro que existe una gran heterogeneidad en las estrategias de indexación de revistas científicas a escala regional. El rol de las potencias científicas regionales (Brasil, Argentina, Chile, Colombia y México) se ve matizado a partir de la cantidad considerable de publicaciones que no se encuentran incluidas en ninguna base indexadora.

Como pudimos mostrar en otro lugar (Salatino, 2018a), 6450 revistas científicas se encuentran insertas en alguna base regional o internacional. El catálogo de Latindex es la base más inclusiva seguida de DOAJ (Directory of Open Access Journal), Scielo (Scientific Electronic Library Online), Redalyc (Red de Revistas Científicas de América Latina y el Caribe) y Scopus. El caso de Web of Science continúa siendo el más restrictivo y, por tanto, posee una menor representación.


Las consideraciones acerca de integrar un grupo de excelencia o de elite se replica hacia el interior del mundo indexado de revistas. Resulta un horizonte preestablecido para la consolidación de una revista el ser incluida en una base restrictiva, prestigiosa, en inglés y de suscripción cerrada. Es el caso paradigmático de WoS, donde solo se encuentran una pequeña parte de las revistas indexadas de América Latina.6. Solo el 2,3% de las revistas de la base total (n=10.104) están disponibles en algún recurso de Web of Science, y el 3,6% si solo consideramos a las revistas indexadas (n. 6450). Para comparar, podemos mencionar el caso de las revistas del Catálogo de Latindex que representan el 50,32% del total de la base y el 78,8% de las revistas indexadas.

El amplio desarrollo de la comunicación científica en Argentina, Chile, Brasil, Colombia y México ha llevado a perder de vista singularidades específicas de determinadas regiones y países. Si observamos las revistas indexadas, podemos detectar que su inclusión a diferentes bases regionales posee diferencias nacionales. Así advertimos que la diseminación de Scielo en la región es muy disímil. Bolivia, Paraguay, Cuba, Costa Rica y Colombia son los países editores con mayor cantidad de revistas incluidas en proporción en Scielo. El número es mucho menor para Chile, Argentina, México y Brasil. Y para 16 países es casi inexistente. Muy similar es el caso de Redalyc donde su distribución en los casos nacionales es escasa. Venezuela, Puerto Rico, México, Cuba, Costa Rica, Colombia y Bolivia son los países que mayor cantidad de revistas poseen en la base de la UAEM (Universidad Autónoma del Estado de México) en proporción. El catálogo de Latindex es claramente la base mayor y mejor representada en la región. Su distribución es muy grande y posee porcentajes de inclusión muy similares entre todos los países. Concretamente, aquellos países que poseen muy pocas revistas (Trinidad y Tobago, Jamaica, Honduras, Haití, Guatemala, El Salvador, Belice, Barbados) se encuentran insertas dentro de Latindex. En menor proporción, el caso de DOAJ es similar. La base madre de la corriente de acceso abierto tiene una amplia distribución con porcentajes regulares según los países y con una mayor presencia en aquellos países con menor tradición editorial.

En cuanto a las bases internacionales de acceso cerrado (Scopus y WoS), su representación en el espacio regional es mínima. Para el caso de Scopus, su mayor presencia se registra en Venezuela, Puerto Rico, México, Chile, Brasil, Cuba y Colombia. Y, por su parte, no tiene presencia en 14 países. La situación con WoS es aún más restrictiva con solo nueve países de 28 incluidos: Venezuela, Uruguay, México, Jamaica, Costa Rica, Colombia, Chile, Brasil y Argentina.


A partir del gráfico anterior podemos observar el importante rol que posee el Catálogo de Latindex en la circulación regional de revistas. Latindex Catálogo es la base más abarcativa sin la cual las distribuciones de indexación mermarían muchísimo.

Todos estos elementos contextualizan la diversidad de formas de circulación que poseen las revistas latinoamericanas, cuán disímiles son las estrategias de inclusión en alguna base indexadoras, las asimetrías existentes, y principalmente, la falacia de pensar el mundo indexado como monolítico y representativo de todo el espacio regional de publicaciones periódicas. En especial, cuando buena parte de lo publicado no se encuentra indexado (36%).

4. La indexación como fetichismo

Hasta aquí hemos señalado la consolidación de las revistas científicas como dispositivos consagratorios a partir de su inclusión en tal o cual base indexadora. Pero, ¿qué significa indexar? Si situamos el término en el campo de la bibliotecología, el concepto remite al procedimiento de inclusión en una base de datos a partir de un proceso de evaluación. Dicho proceso de evaluación se encuentra ligado a un conjunto de criterios y parámetros preestablecidos que buscan ponderar la organización y gestión editorial llevando en consideración cuestiones formales y de presentación, así como la adecuación a normativas internacionales acerca de publicaciones científicas y la calidad de los aportes. Así planteado, es un proceso simple de comprender, que está limitado estrictamente al área de la comunicación científica. La indexación funciona como un sello de circulación que le otorga a la revista científica una valoración de calidad editorial reconocida. No obstante, como veremos, la indexación posee consecuencias concretas y específicas que sobrepasan los límites de los estudios sobre la comunicación científica ya que atañen a las formas en que la ciencia es concebida, producida, divulgada y valorada en la actualidad.

Para ser indexada, cada revista científica se debe adaptar a los criterios establecidos por cada base indexadora. Por ejemplo, para ser incluida en el Core Collection de Web of Science una revista tiene que cumplir veintiocho criterios. Veinticuatro de ellos diseñados o seleccionados para evaluar el rigor y las prácticas a nivel editorial de la revista y cuatro criterios de impacto diseñados para seleccionar las revistas más influyentes en sus respectivos países utilizando la actividad de citación como indicador primario.7. Por tanto, el proceso de organización y gestión editorial de una revista se tiene que adecuar estrictamente a un conjunto de prácticas para lograr una buena puntuación en la evaluación, sumado a la necesidad de contar con citaciones en las revistas indexadas en bases de la corriente principal.

La indexación se convierte así en un modelo de práctica editorial que orienta (gratifica aceptando o castiga excluyendo) a las revistas según se acerquen o alejen de sus requerimientos. Este modelo de práctica editorial para la comunicación científica se replica también en América Latina moldeando el espacio de circulación en la región. Tanto es así que la primera gran segmentación se presenta entre las revistas indexadas y las que no se encuentran en ninguna base. De la instauración de la lógica de la indexación se desprende una clasificación sencilla entre lo que se encuentra incluido y lo que no. Esta primera marca implica un recorte del universo de lo publicado. Lo indexado representa también, por su anverso, un sistema de exclusión.

De esta forma, la indexación en la discusión científica contemporánea excede los límites de su acepción bibliotecológica. Implica un conjunto de rasgos estructurales que se encuentran relacionados y forman parte casi orgánicamente del mismo fenómeno que incluye desde el estudio de citaciones, índices de impacto, indicadores de productividad, rankings, clasificaciones nacionales de revistas, hasta la institucionalización de sistemas de evaluación guiados por la indexación. Es así como a partir del primer recorte que implica estar o no indexado se establecen y derivan una serie de indicadores cuantitativos tales como el factor de impacto, Eingenfactor, Article Influence Score, SJR, SJR2, H-Index, SNIP, I3, entre tantos otros. Todos ellos utilizados para medir y evaluar a revistas, agentes e instituciones científicas. A estos indicadores se les pueden añadir los rankings de revistas o índices nacionales de revistas del tipo del Qualis en Brasil, Publindex en Colombia, o del índice mexicano de revistas.

En suma, la indexación se presenta concretamente como una estructura que engloba diferentes fenómenos, vincula patrones cuantitativos de evaluación de la ciencia y clasifica de manera jerárquica artículos y revistas científicas. Pero, más allá de ellos, la indexación adquiere otra característica o cualidad que es la que nos interesa discutir aquí. La indexación pasa de ser un “índice”, un “indicador” y, en definitiva, de proveer un indicio sobre la calidad eventual de la producción científica, a constituirse en un ícono, valorado en sí mismo, que acaba substituyendo al objeto que pretende representar. En otras palabras, se convierte en un fetiche, pasa a tener una valía propia y, de ser una señal de que un trabajo científico concluido pueda ser de relevancia y calidad, pasa a convertirse en su objetivo primero y previo: el conseguir ser publicado en una revista bien indexada. Este objetivo desplaza, inclusive, los objetivos intrínsecos que motivan la investigación. Lo que argumentamos es que a partir de la llegada del Science Citation Index (1964) se pusieron en marcha diferentes formas de decodificación engañosa de la práctica de publicación científica. Se entró en lo que podríamos llamar en un proceso de “fetichización” de esta práctica. De esa forma, se le atribuye a la indexación la cualidad de decir lo que es “verdadero” y “legítimo” dentro de la actividad científica. Y, por lo tanto, la indexación, y las métricas que de ésta se hacen derivar, pasan a ser erigidas en la base de la gestión y evaluación de la ciencia.8. Extendiendo la imagen del fetiche, podríamos llegar a decir que la indexación acaba produciendo una suerte de encantamiento o hechizo que lleva a ver en las revistas indexadas una cualidad que no existe necesariamente en la realidad. Deriva engañosamente la calidad de lo que es allí publicado, de la calidad atribuida por el índice al medio en que se publica. Así, convertido en una suerte de fetiche, un mero índice termina adquiriendo una dimensión cuasi mágica: deleita y subyuga con su atractivo. Deleita, por la fenomenal simplificación que ofrece de la complejidad de lo real, por la practicidad y rapidez con la que permite ordenar y jerarquizar lo que es producido en ciencia y a quienes lo producen —de ahí su particular atractivo entre los administradores y gestores de la ciencia. Subyuga, porque obliga a someterse a las reglas del juego que ella crea —y que fueron definidas para otro “juego”—: el uso de los recursos bibliográficos en las bibliotecas y no el de medir la “productividad” de los investigadores o ser la última palabra sobre la calidad de sus investigaciones —una “verdad” que, como venimos viendo, extrapola artificialmente la realidad y en definitiva es construida de manera bastante cuestionable.9.

El fetichismo de la indexación funciona con claridad para analizar a los agentes y las instituciones científicas que con el paso del tiempo han internalizado o naturalizado estas dinámicas de exclusión y selección. Lo que se observa en la superficie del fenómeno es un conjunto de empresas editoriales que han llevado adelante una selección de las mejores revistas científicas; ¿quién podría oponerse a la singularización de la excelencia? No obstante, esta idea que iguala indexación con excelencia ha sido ampliamente criticada, aunque su uso práctico ha perdurado en el tiempo. Por otra parte, se encuentran aquellos agentes o instituciones científicas que se posicionan críticamente frente a este fenómeno de fetichización, reconociendo sus límites y alertando de las perversiones que se pueden suscitar en el mundo académico. Pero, a pesar de ello, dado el grado de desarrollo de la competencia científica internacional, se ven obligados a jugar el juego adhiriendo a esas reglas ya que una posición anárquica implicaría quedar fuera de sus respectivas carreras científicas o, por lo menos, correr el riesgo de estarlo. Por desconocimiento o reconocimiento, los efectos de la indexación como fetichismo se presentan como ineludibles.

Al mismo tiempo, hacia el interior de los estudios cienciométricos y de estas grandes empresas editoriales se sostiene que la indexación (y sus derivas) es la forma más fiable de conocer, sistematizar y evaluar la ciencia. Existe una creencia generalizada en la construcción de indicadores cuantitativos, rankings y criterios indexatorios que llevó a una gran expansión de las redes cienciométricas. Se crearon carreras especializadas, revistas científicas, congresos, premios internacionales, consejos asesores para políticas públicas y el encumbramiento de determinadas figuras académicas representantes fidedignas de los valores positivos de la indexación.

De esta forma, podemos decir que el fetichismo de la indexación posee al menos dos aristas. La primera está asociada específicamente a su función de legitimación de las prácticas de externalización-tercerización-cuantificación de la ciencia que se traduce en una serie de construcciones simbólicas y prácticas que erigen una imagen de la indexación acrítica, ascética y garante de la excelencia científica. La segunda está vinculada al desarrollo de un creciente proceso de mercantilización que ha derivado en una mega concentración del negocio editorial.

En relación a la primera arista, la indexación se convierte en fetichismo al ser garante de la reproducción y legitimación del orden científico imperante. La estructuración misma de la lógica de indexación implica la división entre la valoración de lo publicado a partir del soporte donde es publicado. Es decir, se torna más importante y relevante el medio en el cual se publica que lo publicado en sí. O, en otros términos, la estimación del aporte específico de la publicación científica queda subsumida a la evaluación de la revista donde se publicó el aporte: al factor de impacto de la revista o al cuartil en el cual se encuentra indexada. Parafraseando a Lukács (1923), el fetichismo transforma las relaciones cualitativas en atributos cuantitativos. De esta manera se des-subjetiviza la práctica científica reduciéndola a criterios de productividad. Los criterios clásicos de autoridad científica se vieron cubiertos por la niebla mercantilizadora de las bases de datos y del factor de impacto. La autoridad científica entendida como la capacidad técnica de hablar y actuar legitimante en el mundo científico se vio paulatinamente asociada a la medición de la cantidad de artículos publicados por cada investigador o investigadora, cuántos de esos artículos fueron publicados en revistas incluidas en bases de corriente principal como Web of Science o Scopus o cuántos artículos de ellos están incluidos en el primer cuartil (Q1). En buena medida, esta primera arista del fetichismo de la indexación se asocia directamente con la tercerización de la evaluación científica, cuando hasta entonces era la misma comunidad científica la encargada de evaluar y generar los criterios de evaluación de sus prácticas. Es decir, con el paso del tiempo, agentes externos al mundo científico se encargaron de generar índices, rankings e informes de productividad que permitieron valorar la producción científica en función de dichos artefactos cuantitativos en detrimento de la evaluación cualitativa a través del juicio experto. Como veremos en el último apartado, este fenómeno ha alcanzado en la actualidad diversos grados de heteronomía debido a la institucionalización de criterios cuantitativos en las agencias y consejos científicos de muchos países de América Latina.

Siendo así, si nos situamos desde este punto de partida podemos desagregar con mayor detenimiento las implicancias de la segunda arista del proceso de fetichización. El fenómeno de integración vertical y horizontal de las empresas, su transnacionalización y la concentración del mercado en manos de unos pocos consorcios editoriales afecta a toda la industria de contenidos, sean estos libros, revistas o soportes multimediales electrónicos. En la última década, por ejemplo, se ha desarrollado una fuerte crítica a la concentración oligopólica de la industria editorial asociada a revistas científicas (Bergstrom y Bergstrom, 2004; Björk et al., 2012;Larivière et al., 2015; Wenzler, 2017) en la cual se destaca la creciente mercantilización y readecuación de las prácticas editoriales a la creciente demanda de índices cuantitativos que garanticen la excelencia científica. A este respecto, Larivière, Haustein y Mongeon (2015) demostraron que solo cinco grandes corporaciones (Reed-Elsevier, Wiley-Blackwell, Springer, Taylor y Francis y Sage) poseían la mayor concentración del mercado editorial. El análisis de más de 45 millones de documentos indexados en Web of Science determinó que el promedio de concentración durante el 2013 alcanzó el 50% y, en algunas disciplinas, llegó al 70%. De esta manera, el creciente proceso de mercantilización del conocimiento ha llevado a consolidar grandes niveles de ingresos para las corporaciones editoriales. Si se toma en cuenta las ganancias del período 2012-2013 de las cinco grandes corporaciones oligopólicas de la comunicación científica mundial cada una suma más de dos billones de dólares de ganancias: “un 42% más que empresas farmacéuticas como Pfizer, 29% más que el banco ICBC y por arriba del 10% más que la automotriz Hyundai Motors, las cuáles son las empresas farmacéuticas, bancarias y automotrices más redituables según Forbes’ Global 2000” (Larivière, Haustein y Mongeon, 2015, p. 10). Según datos del listado Forbes 2000 de 2018, Relx, el consorcio que hasta inicios del 2019 se conocía como Reed-Elsevier, reportó una mejora del 6% en las ganancias operativas, ascendiendo, a diciembre de 2018, a 2.35 mil millones de libras. Vemos, así, cómo el negocio de la comunicación científica claramente trasciende el ámbito académico, impregnándolo de un entramado de acumulación y concentración de capital económico que impacta directamente en las formas en que la ciencia produce y comunica su conocimiento.

Pero este proceso no es reciente, sino que viene de larga data. Como prueba de ello, Guédon (2017) sistematizó los hitos de la consolidación de los oligopolios en la publicación científica. Tras la Segunda Guerra Mundial, la aceleración de la investigación científica (y su publicación) dio pie a que las editoriales comerciales se beneficiaran de esta expansión. Fue así que Garfield propuso en la revista Science en 1955 el Science Citation Index, lanzado en 1964, como ya mencionamos, con el fin de consolidar un grupo de “revistas centrales”. A partir de la crisis de los precios de las suscripciones a revistas a mediados de la década de 1970, las grandes corporaciones iniciaron ya su camino hacia la publicación electrónica. En 1996, Academic Press provocó una gran reforma en el sistema introduciendo lo que fue conocido como “El gran trato”, que consistía en la venta a instituciones científicas y universidades de paquetes de revistas con el fin de atraer mayores suscripciones. El éxito que tuvo esta política comercial provocó un proceso de acumulación y concentración del mundo editorial aún mayor, impidiendo a pequeñas editoriales su acceso al mercado.

En la actualidad podemos advertir que la subscripción institucional —para bibliotecas universitarias, por ejemplo, y solo en formato electrónico— de Springer es de 1892 dólares, y de Elsevier de 3437 dólares. El costo por artículo de una revista de SAGE como International Sociology es de 137 dólares; una de Springer, como Scientometrics, es de 39 dólares; y de un artículo en Nature de 32 dólares.10 A esto se suma que en la última década se ha expandido una modalidad en la cual los autores y las autoras pagan por publicar, se trata de una modalidad de acceso abierto en la cual los costos editoriales corren por cuenta de quien produce el artículo. Como ya vimos, a esto se denomina APC (author processing charges) y forma parte del acceso abierto híbrido, una especie de acceso abierto mercantilizado. Por ejemplo, para publicar en alguna de las versiones de PLOS se debe abonar entre 2350 y 3000 dólares (1595 dólares para el caso de PLOS One).11

Como puede apreciarse, el proceso de fetichización de la indexación implica un fuerte impulso a la mercantilización de la circulación del conocimiento científico. Esto demuestra el ímpetu mediante el cual las principales corporaciones editoriales mundiales han buscado la distinción mediante el recurso de arbitrar, clasificar y jerarquizar, desde las revistas por ellos publicadas, lo que debe entenderse como “excelencia científica”. Se ha “terciarizado” así una parte nodal de la evaluación de la ciencia —que pasa a ser validada por la comunidad científica pero ya no a tenerla a ésta como el principal referente— y se favorece la disposición mercantil en la estructuración del sistema académico mundial. El traslado de este mismo proceso de mercantilización a espacios regionales como América Latina ha sido más dificultoso para estas grandes organizaciones, aunque han tenido ganancias simbólicas y materiales en casos específicos, como advertiremos a continuación.

5. La cuantificación de la evaluación científica latinoamericana

Uno de los efectos más radicales del fetichismo de la indexación se asocia a la valoración de lo indexado como garantía de mejor ciencia. Este efecto, muy conciso y concreto, lo que se entiende como práctica científica de “excelencia”, está en función de la productividad que pueda demostrarse en espacios de corriente principal a nivel internacional (mainstream), lo que ha llevado al desarrollo de formas muy peculiares de adopción de esta lógica en los campos científicos nacionales en América Latina. Lo que puede expresarse, en otros términos, como el fenómeno del fetichismo de la indexación ha provocado que muchos consejos científicos nacionales en la región adopten criterios cuantitativos de evaluación de sus instituciones y agentes.

Este fenómeno tiene dos efectos concretos en América Latina. Por un lado, la extensión del uso de indicadores cienciométricos para medir la producción científica de instituciones y agentes científicos. Es decir, los concursos de ingreso y promoción en la carrera científica se encuentran fuertemente atados a la valoración cuantitativa de la producción científica de quien se disponga a participar en estas esferas. Sumado a esto, las políticas científicas de muchos países de la región generaron diversos instrumentos normativos de jerarquización de las revistas científicas. Así, a nivel nacional se cuenta con una evaluación y posterior clasificación de revistas que indica de mayor a menor su relevancia e importancia. Esto es, los mismos Estados generan una clasificación basada en criterios de la corriente principal para evaluar proyectos editoriales nacionales. En ese esquema, solamente aquellas revistas que se hayan adaptado de mejor manera a las reglas de la competencia científica internacional son destacadas y reconocidas.

Durante la última década, se puede mencionar un fuerte desarrollo de indicadores cienciométricos para evaluar la producción de la comunidad científica brasileña que responde a la implementación de criterios de evaluación de la ciencia por la Coordinación de Perfeccionamiento de Personal de Nivel Superior (CAPES, por sus siglas en portugués). Creada en 1976 para evaluar el desempeño de los programas de graduación y posgraduación, consolidó, a partir de 1998, criterios cuantitativos de evaluación. Miranda y Mugnaini (2013) analizaron el formulario de evaluación de CAPES destacando que la producción intelectual es uno de los cinco componentes de ese formulario. El peso de las publicaciones científicas varía entre un 30 y un 65%, siendo primordial en las evaluaciones el factor de impacto, seguido de la indexación de las revistas en bases como Web of Science o Scopus. En este sentido, Mafalda, Amorim, Degani-Carneiro y Ávila (2015) concluyen que la relación establecida en Brasil entre indicadores bibliométricos y política científica, tomando estudios cuantitativos de la ciencia, produce una excesiva dependencia de los productos y recursos de las grandes empresas como Thomson Reuters (actual Clarivate Analytics) o Elsevier (actual Relx). El gobierno brasileño creó en 2002 el registro de producción científica Qualis-CAPES, que clasifica las revistas nacionales e internacionales en función de su factor de impacto segmentando las publicaciones periódicas en categorías. Dicha clasificación es utilizada por CAPES para evaluar los programas de posgraduación a nivel institucional y a los investigadores y las investigadoras individualmente.

Un elemento más a considerar es el acuerdo entre Scielo y Clarivate Analytics (ex Thompson & Reuters). En 2014 Scielo firmó un contrato a partir del cual las colecciones nacionales de revistas científicas (solo aquellas quienes decidieron financiar el acuerdo) forman parte de un recurso específico de Web of Science: el Scielo Citation Index. La apuesta de Scielo es congruente con la dirección de la política científica brasileña, es decir: aumentar los espacios de visibilidad de la ciencia de Brasil en espacios de consagración de corriente principal. Sin embargo, estudios recientes señalan que las citas brasileñas no han aumentado en el período 2014-2018 (Ainsworth y Russell, 2018; Minniti, Santoro y Belli, 2018) y tampoco las descargas (Lucio-Arias, Velez-Cuartas y Leydesdorff, 2015).

En el caso argentino, en 2014 el CONICET (Consejo Nacional de Investigaciones Científicas y Técnicas), a través de su resolución n° 2249 del directorio, promovió la formalización de tres niveles de revistas para el caso de las ciencias sociales y humanidades, conformando el primero de ellos las publicaciones indexadas en Web of Science, SCOPUS, Circ-A y Scielo (CONICET, 2014). A pesar de que la resolución posee carácter consultivo, es importante destacar que dentro de la institución se ha iniciado un proceso de singularización de la producción científica en función de su indexación e índice de impacto. En este sentido, un estudio llevado a cabo por Beigel (2014) sobre los criterios de evaluación de las publicaciones en las comisiones asesoras del CONICET concluye que existe una tendencia general, transversal a todas las áreas científicas, a priorizar la indexación de las revistas por sobre la evaluación de la originalidad del artículo en sí mismo.

Para el caso colombiano, Publindex empezó en 2002 y tiene un servicio de indexación (que evalúa e indexa las revistas nacionales según criterios propios) y otro de homologación (que evalúa las publicaciones extranjeras en las que se publican datos de investigaciones asociadas a las instituciones colombianas de enseñanza superior). En este caso se evalúa la calidad según las bases de datos en las cuales esas revistas se indexan. A las revistas se las puede clasificar en seis estratos (A1, A2, A3, A4, B y C). El debate en la ciencia colombiana ha sido álgido a partir de un conjunto de fuertes advertencias de científicos y científicas acerca de la adopción de criterios restrictivos y de corriente principal.

Los sistemas Qualis (Brasil) y Publindex (Colombia) son los más grandes, están entre los más antiguos y se destacan porque presentan un grado de complejidad más elevado en su modelo de evaluación. La característica fundamental de estos dos sistemas es la asignación de conceptos de calidad y la clasificación de publicaciones por niveles. De esa manera, el medidor de la calidad de una publicación deja de ser el simple hecho de su inclusión en la evaluación, centrándose, entonces, en la verificación de si la revista aparece en los estratos más elevados de la referida clasificación. Otra característica es que los dos sistemas no solo evalúan revistas nacionales, sino también asignan conceptos a revistas internacionales (en las cuales se incluyen publicaciones de autores nacionales) (Mafalda et al., 2015). En 2016, tanto en México como en Colombia se dio paso a una transformación profunda en los sistemas de evaluación científica basados en las publicaciones. Así, en ambos países, sus respectivos organismos científicos tomaron en consideración para la clasificación de las revistas a las inclusiones en Web of Science y Scopus (Colciencias, 2016; CONACYT, 2016). Alperín y Rozemblum (2017) destacan que ambas políticas toman una apuesta por la internacionalización vía indexación donde se relaciona internacionalización con el ingreso a la ciencia universal. En esta misma línea, Vasen y Lujano Vilchis (2017) mencionan que los cambios producidos en México y Colombia se debieron a un diagnóstico requerido por los respectivos estados al SCImago Research Group. A partir del diagnóstico realizado por la división académica de Relx en América Latina, los gobiernos avanzaron con las reformas en la clasificación de revistas nacionales.

Una cuestión fundamental para completar este análisis concierne a los sistemas de evaluación utilizados por las diferentes bases de datos y corporaciones editoriales. Es decir, cada base de datos —ya sea regional, internacional cerrada o en acceso abierto— posee un listado de criterios según los cuales las revistas son evaluadas para ser incluidas. Según el proceso de jerarquización de las bases de datos, podríamos asumir que los criterios de Web of Science y Scopus, por ser más restrictivos, garantizan de mejor manera la calidad. Sin embargo, estudios recientes han deconstruido estos sentidos comunes asociados a la excelencia científica basada en la inclusión en bases de la corriente principal. Chavarro (2013) analizó los criterios del Catálogo de Latindex en relación a los de WoS, Scopus y Scielo; allí demostró que no existe una correlación entre calidad editorial y calidad científica y que, por lo tanto, el catálogo de Latindex como base indexadora es muy similar al resto. En un estudio de amplio alcance, Rozemblum et al. (2015) analizaron los criterios y objetivos de indexación de Latindex, Redalyc, Scielo, Scopus y Web of Science. El estudio concluye también advirtiendo que no es posible medir la calidad científica de las revistas a partir de indicadores relacionados con la calidad editorial; por tanto, la indexación no es un parámetro suficiente para determinar la calidad de las revistas y sus contenidos. Uno de los hallazgos más importantes al que arriban los autores y las autoras es que, de la totalidad de bases analizadas, solamente entre un 9% y un 16% de los criterios se relaciona con la calidad de las revistas (originalidad y revisión por pares), mientras que el resto, entre el 91% y el 84%, se refiere a cuestiones editoriales y de visibilidad (Rozemblum et al., 2015, p. 76).

Por otra parte, en un estudio reciente de gran envergadura, Bongiovani y Gómez comprobaron, a través de la proyección de una gran encuesta a investigadores, que el 85% considera que la revisión por pares sigue siendo el criterio científico más estabilizado. Las autoras detectaron que el valor de la evaluación por pares se encuentra ligado al prestigio de la editorial que publica la revista (Bongiovani et al., 2015, p. 54). Este panorama general plantea las diversas modalidades que ha asumido en la región la inserción de patrones de la indexación que, fomentado por los estados nacionales, han consolidado sistemas de evaluación de la ciencia altamente heterónomos. Es decir, las discusiones tradicionales acerca del prestigio y reconocimiento científico se han transformado fuertemente en las últimas décadas.

La configuración de una estructura de indexación en el sistema académico mundial privilegió a determinadas formas de entender/comprender/apreciar las revistas científicas. Se clasificó, se jerarquizó y se le dio prioridad a un tipo particular de ciencia publicada en determinadas revistas. Sobre esta estructura se construyeron índices de impacto, informes de citaciones, rankings universitarios, cuartiles de referencias, los que terminaron teniendo el rol de invisibilizar las clásicas relaciones de otorgamiento de prestigio y reconocimiento académico. Estas no se eliminaron: se tercerizaron. Se tercerizó la evaluación científica y, por ende, la forma en que los agentes científicos perciben las relaciones de distinción y reconocimiento. A esta nueva manera de atribución de valor y reconocimiento en el campo científico es a lo que llamamos aquí, de forma epilogal, el fetichismo de la indexación.

Conclusiones

Hasta aquí hemos abordado las formas en las cuales la indexación como fetichismo ha impregnado la práctica científica y a los gestores de la ciencia en América Latina. Cómo el reconocimiento dentro del sistema científico académico —pero también el ingreso y la promoción dentro de él— pasó a depender de cuánto y dónde se publica. La relación entre indexación y excelencia se convierte en una creencia a la que se adhiere sin cuestionar sus presupuestos ni la configuración histórica de las prácticas que de ella derivan. El número de trabajos publicados y el mero nombre de ciertas revistas “bien” indexadas pasan a tener un efecto de encantamiento sobre los miembros de la comunidad científica, al punto de encontrar defensores acérrimos de la corriente principal (mainstream) —representada por las revistas indexadas en las bases más restrictivas y generalmente de artículos escritos en inglés— y de los valores universalizados por ella como sinónimos de “ciencia de excelencia”.

Si bien es una discusión de larga data donde se han presentados diversos aportes y lecturas críticas, concretamente en este trabajo buscamos analizar empíricamente la expansión de las políticas de indexación —y su fetichización— en una región periférica respecto del sistema científico mundial como es América Latina. Así, hemos podido observar las múltiples formas con las que la indexación se presenta en el plano de las revistas científicas en la región. A partir de las distribuciones de estadística descriptiva, identificamos que las publicaciones periódicas se encuentran muy poco representadas en bases como WoS o Scopus, ligeramente más incluidas en Scielo y Redalyc, y que Latindex Catálogo se manifiesta como la base que reúne el mayor número de revistas indexadas. Sin embargo, un dato no menor es que buena parte de la producción latinoamericana no se encuentra incluida en ninguna base indexadora (la cual circula en espacios locales ligados a determinadas disciplinas, organizaciones y editoriales comerciales, lo que hemos analizado en otro lugar: Salatino, 2018a;Salatino, 2019).

Por otra parte, dado el grado de heterogeneidad y diferenciaciones internas incluso dentro del mundo indexado, es importante destacar los límites que poseen los estudios basados en análisis de WoS o Scopus para la ciencia en la región. Aquí nos referimos a casos como los de Brasil, México y Colombia, especialmente. Por eso mismo es necesario situar las discusiones acerca de las publicaciones latinoamericanas en el contexto socio-histórico de su producción y, por ende, promover que todas estas características específicas sean consideradas y valoradas por los sistemas de evaluación de la ciencia en nuestra región.Un punto nodal que no puede ser ignorado en esta discusión —y por ello planteamos en este trabajo un último acápite sobre los sistemas nacionales de ciencia— es que en América Latina la mayor parte de los sistemas científicos son financiados con fondos estatales. La presencia de agencias de financiamiento privado o de editoriales científicas comerciales es muy escasa. Ya sea a partir del salario de los investigadores o del financiamiento de proyectos, son los propios Estados los que estimulan la producción científica y evalúan sus resultados. Una pregunta que surge entonces es por qué estos mismos Estados deberían pagar para el acceso a estos resultados y qué sentido tiene que sus políticas estimulen la publicación en revistas internacionales de acceso cerrado. Claramente, son estos Estados, a través de sus políticas de ciencia y técnica, los que tienen la capacidad de reconfigurar y dar los perfiles esperados a sus sistemas científicos. En este sentido, un informe reciente —Future of Scholarly Publishing and Scholarly Communication: Report of the Expert Group to the European Commission (Comisión Europea, 2019)— concluye que el panorama de la publicación académica solo puede cambiar de manera significativa si los organismos de financiamiento toman la iniciativa e inician el cambio, apoyando el desarrollo de un sistema académico de publicación y comunicación que corrija los defectos que se observan actualmente. Por eso, son los organismos —en nuestro caso principalmente públicos— de los distintos países de América Latina los que, con su financiamiento y su mayor libertad de acción, pueden dar la orientación y los estímulos para una ciencia abierta y plural que esté en consonancia con la realidad de sus países y responda a sus demandas, dejando atrás el fetichismo de la indexación.

El cambio difícilmente pueda venir de los propios investigadores o de la comunidad científica, y esto por una serie de motivos. Estar inmerso en las prácticas de publicación y evaluación no implica directamente comprender las relaciones estructurales que subyacen al mundo editorial —parte de las cuales hemos tratado de mapear sintéticamente aquí. En la gran mayoría de los casos, ha habido una aceptación acrítica —y en algunos otros hasta celebratoria—, por parte de los investigadores y las investigadoras en general, de las “reglas del juego”, que llevan a convertir a la indexación en fetiche, naturalizando así esta forma de hacer ciencia. Un encuadre posible para futuros trabajos que busquen continuar y ampliar el análisis de este fenómeno es pensar en términos de una determinada racionalidad de gobierno que subyace a estas prácticas. El fetichismo de la indexación se presenta entonces como un mecanismo o dispositivo propio de un arte de conducir la conducta de los hombres, una forma de gobierno —o una “gubernamentalidad”, en los términos en que define este concepto Michel Foucault (2006 [1978], 2008 [1979])— propia del neoliberalismo contemporáneo, en la que los sujetos se dejan gobernar y se gobiernan a sí mismos según su propia racionalidad, la que ha sido internalizada y ha pasado a ser constitutiva de su subjetividad. Este planteo va en sintonía con los de autores como Beer (2016),Muller (2018) o Zuboff (2019), que plantean la relación estrecha que existe entre la información, la tecnología, las métricas y el poder, y la necesidad de comprender el papel que estas tienen actualmente en la organización de nuestro mundo social y en la configuración de nuestras vidas.

Por otra parte, no se puede ignorar que, si la indexación como instrumento para resolver prácticamente demandas de la gestión y de la evaluación dentro del campo científico se ha presentado como una alternativa efectiva y exitosa, al menos en apariencia, es porque concretamente hay un problema generado por el aumento exponencial de la producción científica en las últimas décadas que es necesario administrar. El fetichismo de la indexación lleva a apelar y reforzar la creencia de que es por esta vía sintética y “objetiva” que se resuelve el problema administrativo de la ciencia. Así, con su ilusión fantasmagórica invisibiliza hasta qué punto la indexación y la cuantificación como medios acaban substituyendo a los fines a los que debería servir. O, en otras palabras, dentro de las comunidades científicas terminan primando criterios “manageriales” que distan cada vez más de los criterios de validación y control que la propia comunidad ha establecido. Se está así frente a la paradoja de que quienes evalúan a la ciencia en la actualidad y siguen esta ratio administrativa, aplicando instrumentos cuantitativos de medición y ponderación, son los mismos científicos.

Aún más paradójico es advertir que dichos indicadores devenidos en instrumentos centrales de evaluación y gestión de la ciencia en nuestros países son desarrollados por empresas editoriales de información científica como Clarivate Analytics (ex Thompson & Reuters) o Relx (ex Elsevier) que son totalmente externas a las comunidades científicas latinoamericanas. Es decir, los regímenes de evaluación de la ciencia toman prioritariamente como indicadores legítimos de excelencia científica medidas generadas por empresas comerciales de los centros del sistema académico mundial. Asimismo, la construcción de los indicadores cuantitativos como el factor de impacto se basa en la producción científica indexada en Web of Science o Scopus, bases de indexación en las cuales, como hemos visto en este trabajo, la presencia de la ciencia regional es ínfima. Por ello, no tan solo se utilizan “indicadores” de excelencia científica externos, sino que dichos “indicadores” refieren a un universo de producción completamente distinto al regional. Sin embargo, frente a esta situación, no es extraño que muchos gestores o responsables de la formulación de la política científica frente a cualquier cuestionamiento de las “reglas del juego” respondan que estas reglas las establece la propia comunidad.

La propuesta de pensar en términos de fetichismo de la indexación no pretende dar una respuesta definitiva a estas cuestiones. Buscamos generar un diagnóstico de las relaciones de poder veladas por la indexación y señalar algunos indicios ineludibles que posibiliten un análisis empírico concreto acerca de los regímenes de evaluación de la ciencia latinoamericana. Al mismo tiempo, esperamos que la idea de fetichismo de la indexación sirva de estímulo para reflexionar críticamente acerca de nuestra práctica y nuestro tránsito por la vida académica.

Bibliografía

Aguado-López, E. y Becerril-García, A. (2016). ¿Publicar o perecer? El caso de las Ciencias Sociales y las Humanidades en Latinoamérica. Revista española de documentación científica, 39(4), 1–14.

Albornoz, M. (2007). Los problemas de la ciencia y el poder. Revista Iberoamericana de Ciencia, Tecnología y Sociedad —CTS, 3(8), 47–65. Albornoz, M. y Osorio, L. (2018). Rankings de universidades: calidad global y contextos locales. Revista Iberoamericana de Ciencia, Tecnología y Sociedad —CTS, 13(37), 13–51.

Alcadipani, R. (2011). Resistir ao produtivismo: uma ode à perturbação Acadêmica. Cadernos EBAPE.BR, 9(4), 1174–1178. Recuperado de: https://doi.org/10.1590/ s1679-39512011000400015.

Ampuja, M. (2016). The new spirit of capitalism, innovation fetishism and new information and communication technologies. Javnost, 23(1), 19–36. Recuperado de: https://doi.org/10.1080/13183222.2016.1149765.

Babini, D. (2014). El riesgo de que el acceso abierto sea integrado dentro del sistema tradicional de publicación comercial – necesidad de un sistema global no comercial de comunicaciones académicas y científicas. Rev Eletron de Comun Inf Inov Saúde, 8(4), 438–442. Recuperado de: https://doi.org/10.3395/reciis.v8i4.982.es.

Babini, D. (2016). ¿Derecho o mercancía? El conocimiento como bien común. Megafón, La Batalla de Las Ideas, CLACSO (8).

Babini, D. y Machin-Mastromatteo, J. D. (2015). Latin American science is meant to be open access: Initiatives and current challenges. Information Development, 31(5), 477–481. Recuperado de: http://dx.doi.org/10.1177/0266666915601420.

Beer, D. (2016). Metric Power. Londres: Palgrave Macmillan.

Beigel, F. (2014). Publishing from the periphery: Structural heterogeneity and segmented circuits. The evaluation of scientific publications for tenure in Argentina’s CONICET. Current Sociology, 62(5), 743–765. Recuperado de: https://doi.org/10.1177/0011392114533977.

Bergstrom, C. T. y Bergstrom, T. C. (2004). The costs and benefits of library site licenses to academic journals. Proceedings of the National Academy of Sciences, 101(3), 897–902. Recuperado de: https://doi.org/10.1073/pnas.0305628101.

Bispo, T. (2008). The market for publishers in Brazil. Publishing Research Quarterly, 24(3), 178–186. Recuperado de: https://doi.org/10.1007/s12109-008-9076-9.

Björk, B.-C. y Solomon, D. (2012). Open access versus subscription journals: a comparison of scientific impact. BMC Medicine, 10(1), 73. Recuperado de: https://doi. org/10.1186/1741-7015-10-73.

Bongiovani, P.-C. y Gómez, N.-D. (2015). Conocimientos y opiniones sobre Acceso Abierto en Argentina, México y Brasil. En J. P. Alperín et al. (Eds.), Hecho en Latinoamérica: acceso abierto, revistas académicas e innovaciones regionales (43- 62). Buenos Aires: CLACSO. Disponible en: http://eprints.rclis.org/25666/.

Bourdieu, P. (2003). El oficio del científico. Ciencia de la ciencia y reflexividad. Barcelona: Anagrama.

Bradford, S. (1934). Sources of information on specific subjects. Engineering. Recuperado de: https://doi.org/10.1017/CBO9781107415324.004.

Castiel, L. D. y Sanz-Valero, J. (2007). Entre fetichismo e sobrevivência: o artigo científico é uma mercadoria acadêmica? Cadernos de Saúde Pública, 23(12), 3041–3050. Recuperado de: https://doi.org/10.1590/s0102-311x2007001200026.

DORA (2012). Declaración de San Francisco de evaluación de la investigación DORA. Disponible en: http://blogs.ujaen.es/cienciabuja/wp-content/uploads/2013/10/dora.pdf.

European Commission/Guédon, J.C. (2019). Future of scholarly publishing and scholarly communication. Publications Office of the EU. Recuperado de: https://doi. org/10.2777/836532.

Fleck, C. (2013). “The impact factor fetishism”, Archives Europeennes de Sociologie, 54(2), 327–356. Recuperado de: https://doi.org/10.1017/S0003975613000167.

Foucault, M. (2006). Seguridad, territorio, población. Curso en el Collège de France (1977-1978). Buenos Aires: Fondo de Cultura Económica.

Foucault, M. (2008). Nascimiento de la biopolítica: curso en el Collège de France (1978-1979). Buenos Aires: Fondo de Cultura Económica.

Gaillard, J. (2010). Characteristics and Implications for the Frascati Manual. Science, Technology & Society, 15(1), 77–111. Recuperado de: https://doi. org/10.1177/097172180901500104.

Garfield, E. (2007). From The Science of Science to Scientometrics: Visualizing the History of Science with HistCite Software. Journal of Informetrics, 3(3).

Guédon, J.-C. (2011). Between quality, and excellence; from nation to region: strategies for Latin American scholarly and scientific journals. En A. M. Cetto y J. O. Alonso-Gamboa (Eds.), Calidad e impacto de la revista iberoamericana. México: Latindex-UNAM.

Guédon, J.-C. (2014). The Future of the Academic Journal. En B. Cope and A. Philips (Ed.), The Future of the Academic Journal. Londres: Chandos Publishing.

Guédon, J.-C. (2017). Open Access: Toward the Internet of the Mind, 38. Recuperado de: https://www.budapestopenaccessinitiative.org/open-access-toward-the-internetof-the-mind.

Hammarfelt, B., De Rijcke, S. y Wouters, P. (2017). From Eminent Men to Excellent Universities: University Rankings as Calculative Devices. Minerva, 55(4), 391–411. Recuperado de: https://doi.org/10.1007/s11024-017-9329-x.

Hornborg, A. (2014). Technology as Fetish: Marx, Latour, and the Cultural Foundations of Capitalism. Theory, Culture & Society, 31(4), 119–140. Recuperado de: https://doi.org/10.1177/0263276413488960

Larivière, V., Haustein, S. y Mongeon, P. (2015). The oligopoly of academic publishers in the digital era. PLoS ONE, 10(6), 1–15. Recuperado de: https://doi.org/10.1371/ journal.pone.0127502.

Leiden Manifesto (2015). Leiden Manifesto, 9–11. Recuperado de: http://www.leidenmanifesto.org/

Lucio-Arias, D., Velez-Cuartas, G. y Leydesdorff, L. (2015). Scielo Citation Index and Web of Science: Distinctions in the Visibility of Regional Science. Proceedings of ISSI 2015, 1152–1160. Recuperado de: http://www.issi2015.org/files/downloads/allpapers/1152.pdf.

Lucio-Arias, D., Velez-Cuartas, G. y Leydesdorff, L. (2015). Scielo Citation Index and Web of Science: Distinctions in the Visibility of Regional Science. Proceedings of ISSI 2015, 1152–1160. Recuperado de: http://www.issi2015.org/files/downloads/allpapers/1152.pdf.

Lukács, G. (1969 [1923]). Historia y conciencia de clase. México: Grijalbo.

Machado, A. M. N. y Bianchetti, L. (2011). (Des)fetichização do produtivismo acadêmico: desafios para o trabalhador-pesquisador. Revista de Administração de Empresas. Recuperado de: https://doi.org/10.1590/S0034-75902011000300005.

Machado, A. M., Grosch, M. S. y Santos, V. dos (2017). Regulação e controle na Pós-Graduação: do produtivismo acadêmico à noção de excelência com pertinência territorial. CONJECTURA, Filosofia e Educação.

Machin-Mastromatteo, J. D., Tarango, J. y Medina-Yllescas, E. (2017). Latin American triple-A journals 1: A quality roadmap from the quality indicators and journals’ presence in Web of Science and Scopus. Information Development, 33(4), 436–441. Recuperado de: https://doi.org/10.1177/0266666917718138.

Mafalda, K., Amorim, D. O., Degani-Carneiro, F., Ávila, S. y Marafon G. (2015). Sistemas de evaluación de las revistas científicas en Latinoamérica. En J. P. Alperín et al. (Eds.), Hecho en Latinoamérica: acceso abierto, revistas académicas e innovaciones regionales (63–76). Buenos Aires: CLACSO.

Minniti, S., Santoro, V. y Beli, S. (2018). Mapping the development of Open Access in Latin America and Caribbean countries. An analysis of Web of Science Core Collection and Scielo Citation Index (2005–2017). Scientometrics, 117(3), 1905–1930. Recuperado de: https://doi.org/10.1007/s11192-018-2950-0.

Mugnaini, R. (2006). Caminhos para adequação da avaliação da produção científica brasileira: impacto nacional versus internacional (Tesis de doctorado). Universidad de San Pablo.

Muller, J. (2018). The Tyranny of Metrics. Princeton y Oxford: Princeton University Press.

OECD. (2006). Revised fields of science and technology (FOS) in the Frascati Manual. Working Party of National Experts on Science and Technology Indicators. Recuperado de: https://www.oecd.org/sti/inno/frascati-manual.htm.

Ortiz, R. (2009). La supremacía del inglés en las ciencias sociales. Buenos Aires: Siglo XXI Editores Argentina.

Rego, T. (2014). Productivism, research and scholarly communication: between poison and medicine. Educação e Pesquisa, 40(2), 325-346. Recuperado de: https://dx.doi. org/10.1590/S1517-97022014061843.

Rozemblum, C., Unzurrunzaga, C., Banzato, G. y Pucacco, C. (2015). Calidad editorial y calidad científica en los parámetros para inclusión de revistas científicas en bases de datos en Acceso Abierto y comerciales. Palabra Clave, 4(2), 64–80.

Salatino, M. (2018a). La estructura del espacio latinoamericano de revistas científicas. (Tesis de doctorado). Universidad Nacional de Cuyo.

Salatino, M. (2018b). Más Allá de la Indexación: Circuitos de Publicación de Ciencias

Sociales en Argentina y Brasil. Dados, 61(1), 255-287. Recuperado de: https://doi.org/10.1590/001152582018152.

Salatino, M. (2019). Circuitos locales en contextos globales de circulación. Una aproximación a las revistas científicas argentinas. Palabra Clave, 9(1). Recuperado de: https://doi.org/10.24215/18539912e073.

Unzué, M. (2009). La educación Superior en Latinoamérica hoy. XXVII Congreso de la Asociación Latinoamericana de Sociología. VIII Jornadas de Sociología de la Universidad de Buenos Aires, Asociación Latinoamericana de Sociología, Buenos Aires.

Vasen, F. y Lujano, I. (2017). Sistemas nacionales de clasificación de revistas científicas en América Latina: tendencias recientes e implicaciones para la evaluación académica en ciencias sociales. Revista Mexicana de Ciencias Políticas y Sociales, 17(231), 199–228.

Velho, L. (1986). The “meaning” of citation in the context of a scientifically peripheral country. Scientometrics, 9(1–2), 71–89. Recuperado de: https://doi.org/10.1007/ BF02016609.

Vessuri, H. (1987). La revista científica periférica. El caso de Acta Científica Venezolana. Interciencia, 12(3).

Vessuri, H., Guédon, J. C. y Cetto, A. M. (2014). Excellence or quality? Impact of the current competition regime on science and scientific publishing in Latin America and its implications for development. Current Sociology, 62(5), 647–665. Recuperado de: https://doi.org/10.1177/0011392113512839.

Wenzler, J. (2017). Scholarly Communication and the Dilemma of Collective Action: Why Academic Journals Cost Too Much. College & Research Libraries, 78(2), 183– 200. Recuperado de: https://doi.org/10.5860/crl.78.2.183.

Willmott, H. (2011). Journal list fetishism and the perversion of scholarship: Reactivity and the ABS list. Organization, 18(4), 429–442. Recuperado de: https://doi.org/10.1177/1350508411403532.

Wilsdon, J. et al. (2015). Metric Tide: Report of the Independent Review of the Role of Metrics in Research Assessment and Management. Higher Education Funding Council for England. Recuperado de: https://doi.org/10.13140/RG.2.1.4929.1363.

Wilsdon, J., Bar-Ilan, J., Frodeman, R., Lex, E., Peters, I. y Wouters, P. (2017). Nextgeneration metrics. European Commision, Directorate-General for Research and Innovation, 26. Recuperado de: https://doi.org/10.2777/337729.

Wouters, P. (1999). The Citation Culture. Science Dynamics, Ph.D. Thesis, 278.

Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. Nueva York: Public Affairs.

Notas

1. Se trata de una base de revistas científicas activas a 2016 con actualización de las indexaciones a 2017, Se construyó a partir de las series ISSN y del Directorio de Latindex de 28 países de América Latina y el Caribe. Posteriormente, se agregaron las revistas incluidas en las bases indexadoras regionales (Latindex Catálogo, Scielo y Redalyc). En algunos casos, los registros no eran consistentes, existían repeticiones, ausencias o hasta información mal registrada. Frente a este panorama, se chequearon individualmente los casos problemáticos. La reconstrucción de un universo de revistas latinoamericanas en actividad nos permitió avanzar sobre un grupo de revistas que hasta el momento no habían sido estudiadas y, por tanto, dar cuenta de una estructura de circulación regional (Salatino, 2018a).
2. Gaillard llevó adelante un estudio de las implicancias de la medición y evaluación de la ciencia periférica según los indicadores del Manual de Frascati. El autor concluye que las inconsistencias en el desarrollo de algunos indicadores han tenido como consecuencia la generación de diagnósticos poco precisos. Al respecto véase: Gaillard, 2010.
3. A este respecto, debemos explicitar que no sostenemos una mirada negativa sobre los estudios bibliométricos o cienciométricos per se. Consideramos que forman parte de una perspectiva y disciplina específica dentro de la cual son altamente valorados e importantes para su desarrollo. Hacemos particular referencia al tipo de estudios cienciométricos que se basan en datos provenientes de bases e indexadores de corriente principal (mainstream) y con lógicas político-institucionales muy diferentes a la de regiones periféricas como América Latina y el Caribe. Y que se han constituido en la base material de las propuestas teóricas y prácticas de modalidades de evaluación de la ciencia que privilegian las citaciones, los factores de impacto y los rankings internacionales.
4. Aquí se hace referencia a los rankings de revistas del estilo del SCImago Journal Rank. Los rankings universitarios también han sido objeto de recientes críticas. Al respecto véase: Albornoz y Osorio, 2018 Hammarfelt, de Rijcke y Wouters, 2017.
5. Muchos estudios han detectado ya la poca incidencia de la producción latinoamericana en bases internacionales de corriente principal. Desde los estudios pioneros de Vessuri, Velho y Cetto hasta contemporáneas investigaciones cienciométricas, al respecto véase: Aguado-lópez y Becerril-García, 2016; Beigel, 2016; Vélez-Cuartas, 2017, 2018; Lucio-Arias et al., 2015; Machin-Mastromatteo, Tarango y Medina Yllescas, 201; Minniti et al., 2018.
6. Es importante destacar que un grupo de criterios para la inclusión en bases de corriente principal del tipo Web of Science o Scopus son las citaciones recibidas. Concretamente las citaciones recibidas por la revista postulante hacia el interior de las colecciones de la base que busca integrar. Para el caso de revistas latinoamericanas muchos estudios ya han concluido la escasa visibilidad, impacto y niveles de citación en la corriente principal. La cuestión del idioma de publicación aquí resulta una cuestión ineludible ya que la mayor proporción de literatura citada en el sistema académico mundial es inglés lo que presenta desafíos lingüísticos y simbólicos muy importantes para agentes periféricos que poseen como lengua nativa el español o el portugués.
7. Al respecto véase: https://clarivate.com/webofsciencegroup/solutions/webofscience-core-collection-editorialselection- process/.
8. Véase, por ejemplo, lo que ha sido la experiencia británica en el uso de métricas para la evaluación y gestión de la investigación científica (Wilsdon et al., 2015; López-Ruiz, 2019).
9. En la literatura disponible, la relación entre el mundo académico y la idea de fetichismo ha sido debatida parcialmente. Existen aportes que critican concretamente la diseminación del factor de impacto (Ampuja, 2016; Fleck, 2013; Hornborg, 2014), el mercantilismo académico (Machado y Bianchetti, 2011; Willmott, 2011), el fenómeno del productivismo (Alcadipani, 2011; Castiel y Sanz-Valero, 2007; Rego, 2014; Machado, Grosch y Santos, 2017) y la vinculación con las formas de gestión de la ciencia (Bispo, 2008; Vessuri, Guédon y Cetto, 2014). Nuestro posicionamiento implica una aproximación desde América Latina a la cuestión del fetichismo de la indexación. Esto nos lleva a considerar las tramas y consecuencias específicas para campos científicos periféricos, al tiempo de incluir una mirada crítica a las críticas provenientes del Norte. Y, por otra parte, la idea de la indexación como “fetichismo” en este trabajo aborda el fenómeno de la constitución de la competencia científica basada en criterios cuantitativos de forma estructural.
10. Al respecto puede observarse respectivamente: *https://www.springernature.com/gp/librarians/licensing/journals-price-list * https://www.elsevier.com/books-and-journals/journal-pricing * https://us.sagepub.com/en-us/sam/journal/acta-sociologica#editorial-board# * https://www.springer.com/computer/database+management+%26+information+retrieval/journal/11192?details Page=editorialBoard * https://www.nature.com/subscriptions/purchasing.html * https://journals.plos.org/plosbiology/s/publication-fees * https://www.thetimes.co.uk/article/relx-unruffled-by-university-revolt-over-its-journals-k596lwl2h#
11. Disponible en: https://journals.plos.org/plosbiology/s/publication-fees.
HTML generado a partir de XML-JATS4R por