Artículos
Percepción de investigadores argentinos en psicología sobre la crisis de replicabilidad y ciencia abierta
Perception of Argentine researchers in psychology about the crisis of replicability and open science
Percepción de investigadores argentinos en psicología sobre la crisis de replicabilidad y ciencia abierta
Interdisciplinaria, vol. 41, núm. 2, pp. 10-11, 2024
Centro Interamericano de Investigaciones Psicológicas y Ciencias Afines

Recepción: 23 Abril 2022
Aprobación: 25 Noviembre 2022
Resumen: En la última década, la denominada “crisis de replicabilidad” ha sacudido a los diferentes campos de las ciencias, desde las consideradas ciencias más “duras” hasta las consideradas ciencias más “blandas”. Para muchos, la ciencia psicológica ha sido el ejemplo por excelencia de los fallos en la replicabilidad de la ciencia y, por ende, en la forma de producir investigaciones científicas; no obstante, ha sido la ciencia más consciente de los problemas científicos existentes. En respuesta, se ha ido configurando el movimiento de ciencia abierta, un conjunto de buenas prácticas en investigación, que abarcan tanto al quehacer de la investigación como a políticas editoriales e institucionales. El presente trabajo consta de una encuesta dirigida a investigadores de la Facultad de Psicología de la Universidad de Buenos Aires, Argentina (N = 90). Se realizaron preguntas cerradas y abiertas acerca de percepciones sobre la ciencia y las prácticas de ciencia abierta. Los resultados reflejan que el 56 % de la muestra está de acuerdo con la existencia de una crisis en la ciencia. A su vez, muestran reconocimiento parcial de la importancia de las prácticas de ciencia abierta, pero ausencia de la implementación efectiva de investigación transparente, debido a poca información y ausencia de incentivos. También revelan concepciones erróneas. Se comparan los resultados con estudios similares.
Palabras clave: crisis, replicabilidad, ciencia abierta, prácticas de investigación, psicología.
Abstract: In the last decade, the so-called "replicability crisis" has shaken the different fields of science. Different causes have been attributed to the replicability crisis such as publication bias, questionable research practices, fraud, structural incentives, and statistical misunderstandings. The open science movement, a set of best practices in research, together with editorial and institutional policies, has been proposed to address this scientific crisis. This paper consists of a survey aimed at researchers in the Faculty of Psychology at the University of Buenos Aires, Argentina (N = 90) aged between 20 and 80 years. The survey, based on previous ones, asked closed and open questions about perceptions of science, replicability crisis and open science practices. Of the sample, 49 % declared using a quantitative methodology, 28 % mixed and 23 % qualitative. Results show that 56 % of the sample agrees that there is a crisis in science. A content analysis of the answers showed that the main causes of the crisis in science would be: lack of economic investment, lack of replicability and lack of dissemination of scientific literature. When inquiring about the importance of replication, 51.1 % considered it moderately important and 42.2 % very important, with no investigator who considered it not important at all. Results also reveal partial recognition of the importance of open science practices in general, but lack of effective implementation of transparent research, due to little information and lack of incentives. They also reveal misconceptions. The results are compared with similar studies. For example, lack of investment was found as the main justification for some of the respondents, in line with the results found in the Spanish study carried out in 2021. On the other hand, when investigating the statistical background of the researchers, results agree with those observed in the Spanish sample, with the fallacy that a statistically significant result is an important result being the most accepted one. Likewise, when considering the importance of replication in our sample, as in the Spanish sample, the majority of respondents reaffirmed its relevance. Regarding researchers' experiences with open science practices, most considered making sure to report their studies in a detailed manner, but those practices that include sharing data, scripts, and materials were not common, even though in general all open science practices were highly valued by respondents.
Keywords: crisis, replicability, open science, questionable research practices, psychology.
Introducción
En este artículo se presenta el problema de la crisis de replicación y las prácticas de investigación cuestionables que han impulsado el movimiento de ciencia abierta, y prácticas específicas de ciencia abierta que se han adoptado en la investigación. Durante este último siglo se ha desarrollado literatura sobre crisis de replicación: ¿hasta qué punto podemos confiar en que los resultados de un estudio científico son confiables? Las prácticas de investigación cuestionables han dado lugar a que las instancias institucionales y las comunidades científicas de todo el mundo tomen iniciativas hacia una mayor apertura y difusión de las prácticas científicas, denominado movimiento de ciencia abierta. Por ejemplo, en la actualidad, para publicar, las principales editoriales de revistas científicas internacionales exigen materiales y datos abiertos, o declaraciones al respecto. Las organizaciones que promueven y financian la ciencia, tanto supranacionales como en diversos países, también han comenzado a promover y exigir tales prácticas. En Argentina, la Ley 26.899 establece la obligatoriedad de publicar los datos de investigación primarios para que puedan ser utilizados por otros investigadores, para la producción científico-tecnológica resultante del trabajo de investigadores, tecnólogos, docentes, becarios postdoctorales y estudiantes de maestría y doctorado financiada por el Estado Nacional. En función de ello, el presente trabajo indagó si los investigadores conocen la problemática y las prácticas de ciencia abierta, en particular en psicología, en una comunidad de investigadores locales. La Universidad de Buenos Aires (UBA) está en el top 100 de universidades a nivel mundial y es la séptima en el ranking QS (Quacquarelli Symonds) de universidades a nivel latinoamericano, además de ser la más numerosa en términos de alumnos y docentes (Quacquarelli Symonds, 2023); así, el estudio de cómo se investiga en ella es relevante no solo a nivel local. La pregunta general que guía al presente trabajo es: dadas las prácticas de investigación cuestionables y crecientes requerimientos de ciencia abierta para la investigación científica, ¿qué conocimiento y percepción tienen los investigadores en psicología en una de las mayores facultades de Psicología de Latinoamérica, la UBA?
Crisis de replicación y prácticas cuestionables de investigación
En general, en ciencia se habla de replicación cuando un determinado resultado, hallado en determinadas condiciones, puede volver a repetirse con nuevos datos (Nosek y Errington, 2020). La replicación descansa en dos aspectos, la reproducibilidad y la replicabilidad (Mede et al., 2021). La reproducibilidad implica que un estudio detalla en forma suficiente los datos y la forma de análisis, aportando la base de datos, el software empleado para analizarlo y el guion o script de análisis, de modo que otro investigador puede efectuar los procedimientos empleados y llegar al mismo resultado con los mismos datos. En cambio, la replicabilidad alude a la observación consistente de ciertos resultados en nuevas muestras recurriendo a metodologías y condiciones análogas a las del trabajo original. Asimismo, es posible establecer dos tipos de replicabilidad: la directa y la conceptual. La primera alude a la repetición de estudios originales empleando los mismos métodos, materiales y forma de presentación pero con una muestra diferente (Cumming, 2008); la segunda hace referencia a someter a contrastación las mismas hipótesis que el trabajo original, pero modificando el diseño, por ejemplo, con otra operacionalización de las variables(Schmidt, 2009).
Luego de la advertencia de alto impacto de Ioannidis (2005), que alertaba sobre la falsedad o falta de replicación de las investigaciones biomédicas, han surgido diferentes intentos de replicación. Por ejemplo, en las ciencias biomédicas, un trabajo sobre resultados relevantes en el estudio del cáncer sólo pudo mostrar un índice de replicabilidad exitosa de alrededor del 30 % (Errington et al., 2021).
En psicología, la publicación deBem (2011) sobre percepción extrasensorial y la crítica de Simmons et al. (2011) a los psicólogos dispararon la crisis. Dichas publicaciones demostraron que si no hay barreras que disminuyan la flexibilidad en cuanto a método, análisis y resultados, combinados con el sesgo a la obtención de “p < .05” como criterio de aceptación de resultados de una investigación, los investigadores pueden descubrir lo que sea. Esto dio lugar a una gran cantidad de estudios que fallaron en la replicación de efectos altamente citados y difundidos, como el de social priming de Bargh y colaboradores (Bower, 2012), el de la postura en la fisiología emocional (power posing) de Cuddy y colaboradores (Cesario et al., 2017), el de la expresión facial sobre la experiencia emocional (facial feedback) de Strack y colaboradores (Wagenmakers et al., 2016), el que las personas comen más cuando su plato es más grande, y otros factores que llevan a comer sin pensar de Wansink y colaboradores (Bauchner, 2018), y otros(Morling y Calin-Jageman, 2020; Open Science Collaboration, 2015; Stroebe, 2019).
En cuanto a las causas de la crisis, uno de los factores más destacados es el sesgo de publicación: la tendencia de las publicaciones científicas a publicar principalmente resultados significativos estadísticamente (p < .05), lo cual presiona a los investigadores a generar resultados estadísticamente significativos y estudios novedosos para poder publicar en revistas científicas, y esconder los resultados no significativos (Chambers, 2017; Ritchie, 2020). Por ejemplo, Turner et al. (2021), sobre treinta ensayos clínicos de cuatro tipos de antidepresivos, encontraron que la mitad de los doce ensayos con resultados negativos no fueron publicados, mientras que otros dos fueron reportados como positivos cuando no lo eran.
En respuesta al sesgo de publicación, los investigadores pueden recurrir a manipulaciones de datos más o menos deliberadas. Estas son prácticas de investigación cuestionables (PICs), no necesariamente conscientes y diferentes del fraude abierto (John et al., 2012). Las PICs son reconocidas actualmente como el conjunto de prácticas para producir resultados estadísticos(Anvari y Lakens, 2018). Estas prácticas no eran explícitamente reconocidas como cuestionables en el entrenamiento científico, hasta que la crisis de replicación las puso de manifiesto. SegúnMorling y Calin-Jageman (2020), las prácticas pueden dividirse en: desechar datos no significativos (underreporting null findings), p-hacking y HARking .
El desechar o sub-reportar datos ocurre cuando los investigadores reportan sólo las variables que apoyaron la/s hipótesis y omiten las que no lo hicieron (Morling y Calin-Jageman, 2020). Esto puede pasar con variables independientes o submuestras, o eligiendo variables dependientes o de resultado. En una encuesta con una muestra de 2000 psicólogos estadounidenses, el 65 % reconoció no haber reportado todas las medidas dependientes de un estudio(John et al., 2012). Otros estudios, aunque con muestras más pequeñas, han llegado a conclusiones similares (Agnoli et al., 2017; Franco et al., 2016). Por su parte, el p-hacking, término acuñado por Simonsohn et al. (2014), puede entenderse de dos formas: en la primera, se persigue una hipótesis particular ejecutando y re-ejecutando los análisis cada vez en una forma diferente hasta alcanzar un p-valor debajo de .05, mientras que, en la segunda forma, se ejecutan los análisis sin hipótesis definidas, para luego reportar tanto los efectos con un p-valor debajo de .05 como el hecho de que la hipótesis exitosa fue la que se había establecido originalmente (Ritchie, 2020). Por otro lado, el término HARKing refiere a generar hipótesis a partir de los datos, y no previamente (Chambers, 2017). Es decir, se toman datos, se analizan combinaciones hasta que se llega a resultados significativos, y luego se construye la hipótesis.
Finalmente, otra práctica cuestionable, aunque difiere de las anteriores porque siempre ha sido reconocida como tal por la comunidad científica, es el fraude, es decir, inventar o falsificar datos de forma intencional (Agnoli et al., 2017; Arlinghaus, 2018; Fanelli, 2009; Fraser et al., 2018; John et al., 2012; Necker, 2014; Rabelo et al., 2020). En un estudio llevado a cabo porFanelli (2009), se halló que el 2 % de la muestra admitía en forma anónima haber cometido fraude.
Las prácticas de investigación cuestionables y el fraude pueden ser producto de un sistema científico que no brinda los suficientes incentivos para un quehacer honesto y transparente (Ritchie, 2020). Este sistema suele ser denominado cultura del publish or perish (publicar o perecer), dado que los trabajos, salarios, permanencia, promociones y financiamiento son todos dependientes de las publicaciones científicas (Spies, 2013), las que a su vez se encuentran sesgadas hacia resultados estadísticamente significativos. En este sistema existe una desconexión entre lo que es bueno para los científicos y lo que es bueno para la ciencia (Nosek et al., 2012).
Por otro lado, como se ha mencionado, el nivel de significación (p-valor debajo de .05) es un factor importante en la práctica científica y guarda una íntima relación con la crisis. Es a través de la prueba de significación de hipótesis nula (NHST, por sus siglas en inglés) que los investigadores deciden si el p-valor es significativo (Hoekstra et al., 2006;Nickerson, 2000). Para algunos, la práctica de NHST -junto con una mala comprensión de qué implica- podría ser una de las principales causas de la crisis de replicabilidad (Gigerenzer, 2018; Lakens, 2021; Wasserstein et al., 2019).
Otro factor que contribuiría a la crisis es la insistencia de las revistas en resultados novedosos; es difícil, que se publique un estudio centrado en replicar resultados anteriores. Por ejemplo, en el campo de la economía, en las 50 revistas más relevantes, tan solo el 0.1 % de los estudios fueron de replicación (Mueller-Langer et al., 2019); en tanto que, en las 100 revistas de psicología más importantes, la replicación ocupó sólo el 1 % de los estudios (Makel et al., 2012).
Ciencia abierta
Frente a los problemas mencionados han surgido las llamadas prácticas de ciencia abierta o prácticas de investigación abierta (PIAs)(Bakker et al., 2020; Munafò et al., 2017). Las PIAs se constituyen como una serie de nuevas prácticas metodológicas para aumentar el rigor, la transparencia, la reproducibilidad y la posibilidad de replicación en la investigación (Crüwell et al., 2019; Galati y Makant, 2018; Munafo et al., 2017; y en Argentina, Arza et al., 2016). SegúnRenkewitz y Heene (2019), la ciencia abierta es un movimiento que considera la transparencia en la investigación como un método contra el error humano, el descuido, el sesgo de publicación y el fraude en la ciencia. En el terreno de la realización y reporte de una investigación, Morling y Calin-Jageman (2020) enumeran: (1) transparencia completa mediante materiales y datos abiertos y (2) pre-registro y reportes registrados.
La transparencia completa incluye compartir el detalle de cada variable dependiente y cada elección estadística explorada en los estudios. Esto implica materiales abiertos (compartir en su totalidad los estímulos y los protocolos experimentales) y datos abiertos (compartir la totalidad de los códigos de análisis y archivos de datos). Estas prácticas se verían favorecidas por la disponibilidad de repositorios online que permiten el almacenamiento de datos, materiales y códigos analíticos.
Por otra parte, se denomina pre-registro a un documento fechado y de carácter inalterable en el cual los investigadores cargan públicamente a repositorios online los procedimientos, hipótesis específicas y análisis de datos planeados antes de dar comienzo a la recolección de datos (Morling y Calin-Jageman, 2020), similar al requerido para los ensayos clínicos en Estados Unidos. Este es un paso previo voluntario por parte de los investigadores, que luego se incorpora al artículo o reporte de investigación, una vez concluida. Un paso más avanzado son los reportes registrados, ofrecidos por revistas, en los que la revisión por pares se realiza antes del estudio empírico, sobre el pre-registro; un reporte registrado aceptado, en principio, será publicado incondicionalmente, más allá de cuáles terminan siendo los resultados finales (Morling y Cali-Jageman, 2020). La revista Cortex fue la primera en aprobar los reportes registrados en el año 2012 (Chambers, 2017). En 2021 más de trescientas revistas ofrecían este formato de publicación (https://www.cos.io/initiatives/registered-reports).
Los requerimientos de ciencia abierta, en particular sobre la transparencia de materiales, datos y procedimientos de análisis, son parte creciente de las políticas de promoción y financiación de la ciencia, tanto a nivel supranacional (por ejemplo, UNESCO, Unión Europea, África) como nacional (por ejemplo, en EE. UU., distintos países de Europa) (Burgelman et al., 2019; Office of Science and Technology Policy, 2023).
En Argentina, las políticas de acceso abierto a las publicaciones y los datos se han recogido en la Ley Nacional de Repositorios Digitales Abiertos (Ley 26.899; 2013), que obliga a los investigadores financiados con fondos públicos a depositar una copia de los artículos producidos y de los datos utilizados en repositorios digitales (Arza et al., 2016). Esta política de apertura ya se está implementando; por ejemplo, el Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET) ofrece y alienta a los investigadores a alojar las bases de datos de investigaciones en su propio repositorio digital. Asimismo, algunas disciplinas -en particular como física, matemáticas y astronomía- ya han incorporado el uso de repositorios abiertos como parte de la práctica de colaboración abierta online en sitios como arXiv.org (Arza et al., 2016).
Estudios sobre conocimiento y percepción de científicos sobre crisis de replicación y prácticas de ciencia abierta
¿Cuánto se conoce de la problemática, y de las prácticas que se proponen frente a ella, y cómo perciben esto los investigadores? Se ha indagado en la relevancia de las prácticas de ciencia abierta para los investigadores desde la perspectiva de su propia investigación (Lilja, 2020), las percepciones de las prácticas de ciencia abierta y las prácticas de investigación cuestionables entre investigadores de comunicación de orientación cuantitativa (Bakker et al., 2020), las expectativas y perspectivas de la transparencia y la apertura en la práctica científica actual por parte de investigadores australianos (Lacey et al., 2020), el conocimiento y las percepciones de ciencia abierta entre investigadores de Colombia (Pardo Martínez y Poveda, 2018). Por ejemplo, Baker (2016) llevó a cabo una encuesta dirigida a varios científicos de distintas ciencias, para saber si los mismos creían en la crisis de reproducibilidad. Los resultados mostraron que más de la mitad de los encuestados creía en una crisis significativa, mientras que el 38 % creía en una crisis leve. Al indagar sobre sus causas, más del 60 % señaló a la presión por publicar y al reporte selectivo como dos de los factores más influyentes. Poco más de la mitad también la atribuyó a una supervisión deficiente, una replicación insuficiente en el laboratorio o bajo poder estadístico, mientras que una cantidad menor señaló la dificultad en repetir técnicas especializadas (Baker, 2016).
Arza et al. (2016) realizaron un estudio sobre experiencias en ciencia abierta, mediante encuestas a científicos en general en Argentina, y entrevistas en estudios de caso en las áreas de astronomía, ciencias ambientales, ciencias de la computación, agronomía, biología. La encuesta fue realizada en 2015; obtuvieron 1463 respuestas válidas, de un cuestionario de sólo cuatro preguntas que fue enviado por correo electrónico a 18500 científicos del ámbito público. Las respuestas obtenidas fueron representativas de la población del CONICET en términos de situación en la carrera de investigador y becarios, y área de investigación. La encuesta indagaba acerca de diversas prácticas de ciencia abierta en tres etapas del proceso de investigación (diseño, recolección y análisis de datos, y difusión). Como resultado, cabe destacar que se encontró más frecuente la adopción de prácticas de apertura en la etapa de difusión que en la de análisis, y sobre todo, que en la de diseño de la investigación. También observaron desconocimiento y confusión sobre qué significa la ciencia abierta y cuáles son sus posibles beneficios.
En particular, en psicología y en el ambiente iberoamericano, se ha relevado mediante encuesta las percepciones con respecto a prácticas de investigación cuestionables, y a ciencia abierta, en España y a investigadores de una sociedad científica en Argentina. En la encuesta española (Frías Navarro et al., 2021) investigadores en los campos de psicología (N = 348) respondieron sobre sus conocimientos y percepción sobre: crisis en la ciencia, calidad de la enseñanza de la investigación, calidad de la investigación que se publica, prácticas de investigación cuestionables, procedimientos estadísticos (en torno a la significación estadística), replicación, y presión por publicar. Entre sus resultados, destacan que gran parte de la muestra considera que existe una crisis en la ciencia, referida principalmente a falta de inversión económica, y por otro lado los encuestados dudan de la calidad de los resultados publicados. Por su parte, la encuesta argentina, realizada dentro de la comunidad de investigadores de una sociedad científica, la Asociación Argentina de Ciencias del Comportamiento (Belaus et al., 2018), indagó sobre la experiencia, importancia percibida y barreras de prácticas de ciencia abierta, y fue respondida por 32 investigadores. Concluyeron que la falta de entrenamiento es la principal barrera, y por otra parte con lo referido a la experiencia hay un predominio de nunca hablar de eso ni haber hecho el pre-registro; sin embargo, este fue considerado medianamente importante por parte de los investigadores.
El presente trabajo tiene el objetivo de explorar el conocimiento y las percepciones de investigadores de psicología argentinos pertenecientes a la Facultad de Psicología de la Universidad de Buenos Aires, sobre las problemáticas y soluciones propuestas planteadas en párrafos anteriores. La Universidad de Buenos Aires (UBA) es la que posee mayor cantidad de alumnos y docentes en Argentina. Se encuentra séptima en el ranking QS de facultades a nivel latinoamericano, y la más numerosa en términos de alumnos y docentes (Quacquarelli Symonds, 2023). Por ello, resulta relevante estudiar su conocimiento y percepción sobre el tema. El desconocimiento de las herramientas para dirigir un plan de investigación conforme a los requerimientos de la ciencia abierta sitúa a los investigadores del área local en una posición de creciente desventaja relativa a otros centros de investigación. Esta situación podría ser particularmente perjudicial en el caso de la psicología. Un estudio reciente que incluyó alumnos y egresados de la Facultad de Psicología de la UBA muestra que existe una pobre consideración del estatus científico de la disciplina y que la formación de grado no sólo no mejoraría el panorama, sino que podría contribuir a alejar a los profesionales del pensamiento científico (Mustaca y Franco, 2018). Muy difícilmente los profesionales se esmeren en adquirir herramientas técnico-conceptuales para mejorar la reproducibilidad, replicabilidad y rigurosidad de sus investigaciones si no parten de una concepción científica de su disciplina. Dada la escasez de investigaciones de este tipo dentro del área local, se plantea explorar, en términos generales y con alcance descriptivo, el grado de conocimiento acerca de la crisis de replicación y replicabilidad en la ciencia y la ciencia abierta entre dichos investigadores. En línea con las investigaciones previas (Belaus et al., 2018; Frías-Navarro et al., 2021) se realizó una encuesta donde se relevó su conocimiento y percepción u opinión sobre: crisis en la investigación científica (crisis de replicación), procedimientos estadísticos y publicación, estudios de replicación y prácticas de ciencia abierta.
Método
Pre-registro
Antes de iniciar la recolección de datos, se subió una descripción general del trabajo junto con todos los materiales utilizados a la página del proyecto en el repositorio web del Open Science Framework (OSF, https://osf.io/rg4dm/].
Participantes
La muestra estuvo conformada por 90 investigadores de psicología de la Facultad de Psicología de la Universidad de Buenos Aires (UBA), con edades comprendidas entre 20 y 80 años (M = 37.34, DE = 12.66). La mayoría de los participantes se desempeñaba como Ayudante de Trabajos Prácticos (ATP) (N = 36), seguido por Profesor Adjunto (N = 15), Ayudante-alumno (rentado o no) (N = 13), Jefe de Trabajos Prácticos (N = 10), Alumno (N = 8), Profesor Titular (N = 6) y Otro (N = 13). Con respecto a la metodología utilizada en sus propias investigaciones, un 49 % de la muestra declaró utilizar una metodología cuantitativa, un 28 % mixta y un 23 % cualitativa. En cuanto a la formación de los encuestados, se encuentra un predominio de doctorado (N = 39), seguido por la licenciatura (N = 34), la maestría (N = 15), la especialización (N = 12) y el postdoctorado (N = 1).
Los datos se recogieron a través de la difusión por correo electrónico, utilizando 473
correos de investigadores ubicados en la plataforma oficial de la facultad, y a través de
plataformas de redes sociales. Se proporcionó un enlace al cuestionario online del estudio alojado en la plataforma Google Forms. Se recibieron 95 respuestas, de las cuales se eliminaron cinco por no cumplir los criterios de inclusión y exclusión. Como criterio de exclusión pre-registrado se consideró, para la definición de investigador, haber formado parte de un proyecto de investigación acreditado, y/o haber publicado como coautor en una revista indexada con referato, ambos en los últimos cinco años.
Materiales
Se empleó un cuestionario informatizado, basado en encuestas previas (Belaus et al., 2018; Frías-Navarro et al., 2021), a través de la plataforma Google Forms. El mismo estuvo compuesto por tres partes: 1) características sociodemográficas, 2) conocimiento acerca de crisis de replicabilidad y 3) conocimiento acerca de ciencia abierta.
Características sociodemográficas. En una primera instancia, se les preguntó a los participantes la edad, el nivel educativo alcanzado, sus áreas de investigación, su posición actual en la facultad y la metodología de investigación que utilizaban de manera predominante. Además, se indagó si los encuestados habían formado parte de un proyecto de investigación acreditado (por ejemplo, inserto en el CONICET, participación en proyectos subsidiados por el CONICET, la UBA, otros similares) en los últimos cinco años, y si habían publicado en una revista indexada con referato en el mismo período.
Conocimiento acerca de crisis de replicabilidad. El conocimiento acerca de la crisis
de replicabilidad se evaluó mediante la pregunta “¿Cree que hay una crisis en la ciencia?” junto a su justificación. También expresaron su grado de acuerdo sobre afirmaciones sobre la ciencia, con las siguientes opciones de respuesta: a) nada de acuerdo, b) algo de acuerdo, c) no sé, d) bastante de acuerdo, e) muy de acuerdo.
Conocimiento acerca de ciencia abierta. Constaba de un conjunto de ítems referidos a: a) la mejor opción que represente el conocimiento y experiencia con cada práctica de ciencia abierta, b) la importancia que los mismos les otorgan a las prácticas mencionadas anteriormente como medios para mejorar la eficiencia de las investigaciones en su área, y c) ítems de respuesta múltiple evaluando cuáles son sus barreras mayores para adoptar prácticas de ciencia abierta, así como la opción de responder abiertamente sobre dichas barreras. Los encuestados disponían de las siguientes opciones de respuesta sobre conocimiento y experiencia con ciencia abierta: a) Nunca lo hice, pero escuché hablar de eso, b) Nunca lo hice, pero sé cómo hacerlo, c) Nunca lo hice, ni escuché hablar de eso, d) Lo intenté, pero no lo completé, e) Sí, lo he hecho, f) Sí, lo estoy haciendo. Con respecto al grado de importancia, considera que es: a) No sé, b) Nada importante, c) Poco importante, d) Medianamente importante, e) Muy importante.
Luego de obtener una versión preliminar del cuestionario, fue sometida a una discusión en un grupo focal compuesto por un investigador formado y tres investigadores en formación (becarios doctorales) con experiencia inicial en prácticas de ciencia abierta. El objetivo de este grupo focal fue ajustar la validez de contenido, mediante la discusión sobre el contenido y la forma de los ítems con expertos en el tema que pertenecían a la población de posibles destinatarios del cuestionario. Así se terminó de delinear el cuestionario final.
Diseño y procedimiento
Debido a la escasa investigación existente sobre las percepciones sobre crisis de replicabilidad y ciencia abierta entre investigadores, este trabajo fue no-experimental, descriptivo y exploratorio.
Después del pre-registro del proyecto en el OSF, la recolección de datos comenzó el 16 de abril de 2021. Las invitaciones fueron enviadas a los investigadores requiriendo su colaboración para la realización de una tesis de licenciatura. La encuesta incluyó una primera descripción de la misma (duración y propósito) y explicitó su carácter anónimo y voluntario, requiriendo el consentimiento informado del participante. Se respetaron los lineamientos éticos para la investigación en humanos conforme a lo establecido por la Asociación Psicológica Americana (APA, 2018), las normas bioéticas internacionales (Declaración de Helsinki) y la Ley Nacional N° 25.326 de Protección de los Datos Personales (2000). La recolección de datos fue finalizada el 8 de julio de 2021.
El análisis de datos principal fue llevado a cabo utilizando Python 3 (VanRossum y Drake, 2009) con la librería pandas (McKinney, 2011), y se halla en un repositorio web público, alojado en la plataforma GitHub (https://github.com/francosbenitez/thesis-analysis)
Resultados
Percepciones sobre crisis en la investigación científica
El 56 % de la muestra percibió la existencia de una crisis en la ciencia. De este grupo, quienes adhieren de forma predominante a una metodología cualitativa creyeron más en dicha crisis (71 %). Estos participantes podían proporcionar en forma abierta sus justificaciones sobre las causas, y el análisis de contenido de estas respuestas (N = 50) arrojó que la falta de inversión económica (28.30 %), la falta de replicabilidad (13.21 %) y la falta de difusión/diseminación de la literatura científica (11.32 %) constituyen las tres causas principales.
En respuesta a la afirmación de la crisis en la ciencia (N = 50) se encontraron las siguientes razones (podían marcar más de una respuesta): falta de inversión económica (N = 15), falta de replicabilidad (N = 7), falta de difusión/diseminación (N = 6), sistema científico (N = 4), la ciencia siempre está en crisis (N = 4), presión para publicar para mejorar el CV (N = 3), mayor búsqueda de cantidad (N = 2), inestabilidad de la carrera de investigación y académica (N = 2), y otros argumentos expresados solo por un participante (N = 20).
Conocimiento y percepción de prácticas de investigación cuestionables
La Tabla 1 muestra las respuestas de conocimiento y percepción de algunas prácticas de investigación cuestionables: calidad de los resultados publicados, resultados estadísticamente significativos, falacias estadísticas, replicación y novedad de las hipótesis.
Tabla 1.
Conocimiento y percepción sobre ciencia abierta. Porcentaje de acuerdo con cada una de las categorías de respuesta frente al ítem.
| Grado de acuerdo% | M | DE | |||||
| Nada | Algo | No sé | Bastante | Muy | |||
| Confianza en la calidad de los resultados publicados | |||||||
| Creo que, en general, los errores que se pueden haber cometido en un estudio científico siempre se detectan y corrigen antes de ser publicados. | 51.11 | 32.22 | 6.67 | 8.89 | 1.11 | 1.77 | 0.99 |
| Las tareas de revisión y corrección de los manuscritos que llevan a cabo los revisores de las revistas garantizan de forma fiable la calidad de los resultados científicos. | 28.89 | 44.44 | 4.44 | 17.78 | 4.44 | 2.24 | 1.18 |
| Opinión sobre resultados estadísticamente significativos | |||||||
| Gran parte de los investigadores solamente publica los estudios en donde obtienen diferencias estadísticamente significativas. | 4.44 | 28.89 | 4.44 | 35.56 | 26.67 | 3.51 | 1.28 |
| A las revistas científicas no les interesa publicar resultados que no son estadísticamente significativos. | 10.00 | 17.78 | 3.33 | 40.00 | 28.89 | 3.60 | 1.34 |
| Cuando leo un artículo tengo mayor confianza en la calidad del estudio si los resultados son estadísticamente significativos. | 43.33 | 18.89 | 6.67 | 20.00 | 11.11 | 2.37 | 1.48 |
| Que un resultado no fuera estadísticamente significativo sería un criterio para no seguir investigando esas variables. | 70.00 | 21.11 | 5.56 | 1.11 | 2.22 | 1.44 | 0.84 |
| Una conclusión científica (por ejemplo, si un tratamiento es mejor que otro) debe estar basado en si el p-valor es o no es estadísticamente significativo. | 28.89 | 33.33 | 5.56 | 22.22 | 10.00 | 2.51 | 1.38 |
| Falacias estadísticas | |||||||
| Un resultado estadísticamente significativo es un resultado importante. | 16.67 | 37.78 | 5.56 | 31.11 | 8.89 | 2.78 | 1.30 |
| El valor de p < .05 confirma que el hallazgo será útil para la comunidad científica. | 33.33 | 37.78 | 13.33 | 11.11 | 4.44 | 2.16 | 1.14 |
| El valor de p = .001 confirma que el tamaño del efecto ha sido grande. | 34.44 | 21.11 | 24.44 | 12.22 | 7.78 | 2.38 | 1.29 |
| Actitudes y creencias sobre los estudios de replicación | |||||||
| Cuando los resultados de diferentes investigadores son contradictorios entonces sería necesario llevar a cabo un estudio de replicación sobre la misma temática. | 4.44 | 23.33 | 1.11 | 33.33 | 37.78 | 3.77 | 1.30 |
| La realización de estudios de replicación es necesaria para el avance de la ciencia. | 3.33 | 25.56 | 0.00 | 18.89 | 52.22 | 3.91 | 1.36 |
| Si los resultados sobre una determinada temática son unánimes por parte de diferentes equipos de investigación entonces los estudios de replicación no son necesarios. | 43.33 | 38.89 | 4.44 | 11.11 | 2.22 | 1.90 | 1.06 |
| Los estudios de replicación solamente tienen sentido cuando no se detectan diferencias estadísticamente significativas en el estudio original. | 63.33 | 17.78 | 16.67 | 2.22 | 0.00 | 1.58 | 0.85 |
| No es necesario replicar un estudio cuando ya se detectaron efectos estadísticamente significativos en el estudio original. | 71.11 | 11.11 | 15.56 | 2.22 | 0.00 | 1.49 | 0.84 |
| Novedad de las hipótesis | |||||||
| El principal objetivo de las revistas científicas es publicar hallazgos novedosos. | 23.33 | 28.89 | 1.11 | 30.00 | 16.67 | 2.88 | 1.48 |
| La ciencia avanza más con estudios que plantean hipótesis novedosas que con estudios de replicación de otras investigaciones. | 44.44 | 32.22 | 3.33 | 12.22 | 7.78 | 2.07 | 1.30 |
Nota: Pregunta: "Valore cada una de las siguientes cuestiones relacionadas con su opinión sobre la ciencia".
Con respecto a la confianza en la calidad de los datos publicados, la gran mayoría de los investigadores acordó en que “las tareas de revisión y corrección de los manuscritos que llevan a cabo los revisores de las revistas garantizan de forma fiable la calidad de los resultados científicos”: el 44.4 % de los participantes estuvo algo de acuerdo y el 17.8 % muy de acuerdo. Sin embargo, aproximadamente el 42.2 % estaba de acuerdo y el 51.1 % en desacuerdo con que “en general, los errores que se pueden haber cometido en un estudio científico siempre se detectan y corrigen antes de ser publicados”.
En relación a cuestiones estadísticas, sólo el 4.4% de los encuestados se mostró en desacuerdo con la afirmación según la cual los investigadores sólo publican estudios donde encuentran diferencias estadísticamente significativas. Del mismo modo, sólo el 10 % de los encuestados mostró desacuerdo frente a la aseveración según la cual las revistas no están interesadas en publicar resultados que no sean estadísticamente significativos.
Aproximadamente un 70 % de los encuestados mostraron algún grado de aceptación de las falacias estadísticas comunes entre investigadores, siendo la falacia de que un resultado estadísticamente significativo es un resultado importante la más aceptada (agrupando al 77.7 % en distintos grados de acuerdo con esa aseveración).
Sólo el 3.3 % de los encuestados consideró que los estudios de replicación no son necesarios para el avance de la ciencia. Además, la mayoría mostró un gran desacuerdo con la afirmación según la cual los estudios de replicación sólo son necesarios cuando no se detectan diferencias estadísticamente significativas en el estudio original (63.3 % y 71.1 % de desacuerdo en los dos ítems relativos a esta temática). En conjunto, la mayoría de la muestra valoraba la replicación. Sin embargo, cuando los resultados publicados de una temática son unánimes, la muestra se encontró dividida en cuanto a la necesidad de replicación (43.3 % en desacuerdo y 52.2 % de acuerdo, en una escala desde algo de acuerdo a muy de acuerdo).
En cuanto a la novedad de los estudios, el 75.6 % (desde algo de acuerdo hasta muy de
acuerdo) de los participantes creía que el principal objetivo de las revistas científicas es
publicar hallazgos novedosos. Sin embargo, el acuerdo con la consideración de que la ciencia avanza con hipótesis novedosas antes que con replicaciones es menor (44.4% en desacuerdo y 52.2 % de acuerdo).
Conocimiento y experiencia de las prácticas de ciencia abierta
La mayoría de los encuestados (75.6 %) estaban por publicar o habían publicado en revistas de acceso abierto. Del mismo modo, gran parte de los investigadores (66.6 %) manifestó asegurarse de reportar toda la información de manera detallada en sus estudios para que otros investigadores puedan replicarlos. Sin embargo, más de la mitad de los encuestados (66.6 %) afirmó no colocar los materiales de sus estudios en repositorios públicos, mientras que casi un tercio (33.3 %) lo estaban haciendo o efectivamente lo habían hecho. Números similares se encuentran cuando se considera la colocación de los datos y los scripts de análisis de los estudios en repositorios públicos, siendo un 16.7 % y 13.3 %, respectivamente, quienes efectivamente lo habían hecho en los últimos cinco años, con un 11.1 % y 10 %, de igual modo, de quienes lo estaban haciendo al momento de la encuesta (Tabla 2).
Tabla 2.
Conocimiento y experiencia con prácticas de ciencia abierta
Porcentajes de acuerdo con cada una de las categorías de respuesta frente al ítem
| Nunca lo hice, ni escuché hablar de eso | Nunca lo hice, pero escuché hablar de eso | Nunca lo hice, pero sé cómo hacerlo | Lo intenté, pero no lo completé | Sí, lo estoy haciendo | Sí, lo he hecho | M(DE) | |||||||
| Replicar un estudio previo. | 2.22 | 23.33 | 32.22 | 2.22 | 12.22 | 27.78 | 4.33(0.67) | ||||||
| Pre-registrar un estudio antes de iniciar la recolección de datos. | 31.11 | 35.56 | 14.44 | 2.22 | 8.89 | 7.78 | 3.62(1.11) | ||||||
| Poner datos recolectados a disposición mediante plataformas o repositorios públicos. | 7.78 | 35.56 | 28.89 | 0.00 | 11.11 | 16.67 | 4.42(0.76) | ||||||
| Compartir los métodos analíticos (e.g., scripts de análisis) en plataformas o repositorios públicos. | 8.89 | 41.11 | 23.33 | 3.33 | 10.00 | 13.33 | 4.33(0.96) | ||||||
| Poner los materiales (e.g., cuestionarios, procedimientos) a disposición mediante plataformas o repositorios públicos. | 1.11 | 34.44 | 24.44 | 6.67 | 13.33 | 20.00 | 4.48(0.90) | ||||||
| Reportar toda la información necesaria detalladamente para que otras personas puedan replicar mi estudio. | 0.00 | 16.6 | 12.22 | 4.44 | 22.22 | 44.44 | 4.67(0.72) | ||||||
| Compartir una pre-impresión (pre-print) publicándola en un repositorio público o semipúblico. | 6.67 | 35.56 | 26.67 | 2.22 | 8.89 | 20.00 | 3.66(1.31) | ||||||
| Usar revisión por pares abierta. | 20.00 | 26.67 | 15.56 | 4.44 | 8.89 | 24.44 | 3.93(1.08) | ||||||
| Publicar en revistas de acceso abierto. | 0.00 | 7.78 | 13.33 | 3.33 | 18.89 | 56.67 | 4.56(0.86) | ||||||
| Adaptar un test psicométrico. | 7.78 | 35.56 | 18.89 | 2.22 | 11.11 | 24.44 | 4.12(1.19) | ||||||
| Participar en proyectos abiertos y colaborativos a gran escala. | 5.56 | 34.44 | 21.11 | 5.56 | 13.33 | 20.00 | 4.43(0.79) | ||||||
| Nota: Pregunta: Marque la opción que mejor represente su conocimiento y experiencia con cada práctica en los últimos 5 (cinco) años. | |||||||||||||
Cuando se consideran los temas más desconocidos por los participantes, aparecen el pre-registro y la revisión por pares abierta, con un 31.1 % y un 20 %, respectivamente. Del mismo modo, el pre-registro se halla como la práctica que los investigadores menos implementaron, con un 7.8 % que sí lo habían hecho y un 8.9 % que lo estaban realizando. No obstante, entre el 30 % y 40 % de los investigadores, aunque no los había puesto en práctica, había escuchado hablar acerca del pre-registro y la puesta de los materiales, datos y scripts de análisis de los estudios en repositorios públicos
Percepción de las prácticas de ciencia abierta
En cuanto a la valoración percibida (Tabla 3), la práctica que mayor importancia tuvo para los encuestados (77.8 % la consideró muy importante) fue reportar toda la información detalladamente para facilitar la replicación de otros investigadores, ningún investigador la consideró nada importante. Del mismo modo, el 90 %, 88.9 % y 84.5 % de la muestra, respectivamente, consideró colocar los datos, los materiales y los métodos analíticos en repositorios públicos como prácticas importantes (desde medianamente importante a muy importante).
En cuanto a la importancia del pre-registro, un 23.3 % de los investigadores indicó que no sabía. Esto concuerda con lo mencionado anteriormente en cuanto a ser la temática de la que menos escucharon hablar y la que menos pusieron en práctica. Resultados similares se observaron cuando se consideró la importancia de la revisión abierta y los pre-prints, con un 17.8 % y un 11.1 %, respectivamente, de quienes prefirieron no opinar al respecto. Cuando consideramos la importancia de la replicación, se halla un acuerdo en la importancia del 93.3 % (51.1 % la consideró medianamente importante y 42.2 % muy importante)
Tabla 3.
Importancia percibida de las prácticas de ciencia abierta. Porcentaje de acuerdo con cada una de las categorías de respuesta frente al ítem
| Prácticas | Nada importante% | Poco importante% | No sé | Medianamente importante | Muy importante | M | DE |
| Replicar un estudio previo (2). | 0.00 | 2.22 | 4.44 | 51.11 | 42.22 | 4.33 | 0.67 |
| Pre-registrar un estudio antes de iniciar la recolección de datos (2). | 5.56 | 10.00 | 23.33 | 38.89 | 22.22 | 3.62 | 1.11 |
| Poner datos recolectados a disposición mediante plataformas o repositorios públicos (2). | 0.00 | 3.33 | 6.67 | 34.44 | 55.56 | 4.42 | 0.76 |
| Compartir los métodos analíticos (e.g., scripts de análisis) en plataformas o repositorios públicos (2). | 1.11 | 6.67 | 7.78 | 26.67 | 57.78 | 4.33 | 0.96 |
| Poner los materiales (e.g., cuestionarios, procedimientos) a disposición mediante plataformas o repositorios públicos (2). | 1.11 | 5.56 | 4.44 | 22.22 | 66.67 | 4.48 | 0.90 |
| Reportar toda la información necesaria detalladamente para que otras personas puedan replicar mi estudio (2). | 0.00 | 3.33 | 4.44 | 14.44 | 77.78 | 4.67 | 0.72 |
| Compartir una pre-impresión (pre-print) publicándola en un repositorio de confianza (2). | 6.67 | 18.89 | 11.11 | 28.89 | 34.44 | 3.66 | 1.31 |
| Usar revisión por partes abierta (2). | 1.11 | 12.22 | 17.78 | 30.00 | 38.89 | 3.93 | 1.08 |
| Publicar en revistas de acceso abierto (2). | 1.11 | 4.44 | 4.44 | 17.78 | 72.22 | 4.56 | 0.86 |
| Adaptar un test psicométrico (2). | 3.33 | 12.22 | 7.78 | 22.22 | 54.44 | 4.12 | 1.19 |
| Participar en proyectos abiertos y colaborativos a gran escala (2). | 0.00 | 3.33 | 8.89 | 28.89 | 58.89 | 4.43 | 0.79 |
Nota: Pregunta: Elija la opción que mejor represente cuán importante considera que es cada una de las siguientes prácticas para mejorar la calidad y eficiencia de las investigaciones en su campo.
Percepción de barreras frente al uso de las prácticas de ciencia abiertaPercepción de barreras frente al uso de las prácticas de ciencia abierta
Cuando se indaga acerca de las dificultades de los encuestados para adoptar prácticas
de ciencia abierta (Tabla 4), permitiendo marcar más de una respuesta, se halló que la falta de información y entrenamiento (70 %), la falta de incentivos (65.56 %), la falta de financiamiento específico (57.78 %) y la falta de requerimientos por parte de los organismos reguladores (54.44 %) eran los cuatro principales motivos. En un análisis posterior, por nivel educativo alcanzado o enfoque predominante (cuali o cuantitativo), estos resultados no difieren. Debajo de tales motivos, se hallan la falta de apoyo por parte de investigadores avanzados (36.67 %), la falta de tiempo (35.56 %) y la falta de infraestructura (31.11 %) como otras razones que dificultan la puesta en práctica de la transparencia en la investigación.
Tabla 4.
| Barreras | % |
| Falta de información y entrenamiento. | 70.00 |
| Falta de incentivos. | 65.56 |
| Falta de financiamiento específico. | 57.78 |
| Falta de requerimiento por parte de financiadores, instituciones u otros organismos reguladores. | 54.44 |
| Falta de apoyo por investigadores avanzados (por ej., supervisores, directores del centro de investigación). | 36.67 |
| Falta de tiempo. | 35.56 |
| Falta de infraestructura (por ej., insuficiente espacio de almacenamiento abierto). | 31.11 |
| Las replicaciones no son valoradas. | 22.22 |
| Falta de interés por jóvenes investigadores (v g, practicantes, tesistas de grado, doctorandos). | 15.56 |
| No tengo el estatus científico suficiente para hacer revisiones abiertas. | 14.44 |
| Las prácticas de ciencia abierta extienden la investigación y la hacen más trabajosa. | 11.11 |
| Me parece desilusionante que si me tomo mucho trabajo no me valga para nada. | 10.00 |
| No estoy familiarizado con las prácticas de ciencia abierta. | 8.89 |
| El nivel de adopción de prácticas de ciencia abierta es suficiente en mi entorno (área, lugar de trabajo). | 5.56 |
| No percibo ninguna barrera. | 4.44 |
| Hostilidad y rechazo a las prácticas de ciencia abierta. | 4.44 |
| Las prácticas de ciencia abierta limitan la producción de un proyecto. | 2.22 |
| El pre-registro coarta la libertad del investigador. | 1.11 |
Nota: Pregunta: ¿Cuáles le parecen que son las mayores barreras para la aceptación y puesta en práctica de prácticas de ciencia abierta en su campo y/o lugar de trabajo? Marque todas las opciones que considere correctas.
En el análisis de las respuestas abiertas (de campo libre), frente a la pregunta sobre barreras para las prácticas de ciencia abierta (N = 24), las principales mencionadas fueron la falta de apoyo institucional (29.17 %) y la falta de tiempo (20.83 %).
Discusión
En primer lugar, en relación con la crisis en la ciencia, frente al 63 % de aceptación que obtuvo la muestra española del estudio realizado por Frías-Navarro et al. (2021), los encuestados del presente estudio mostraron un 56 % de acuerdo. En la encuesta de Baker (2016), aunque con una pregunta distinta (¿Hay una crisis de reproducibilidad?), el acuerdo de una crisis en la ciencia alcanzó el 90 % (desde aquellos que la consideraron “ligera” hasta aquellos que la concibieron como “significativa”). Cuando se consideran los motivos de una crisis en la ciencia, tanto en la muestra española como en la considerada en este trabajo se halla la falta de inversión económica como la principal justificación por parte de los encuestados. Sin embargo, mientras que en la muestra española no se hallaron justificaciones de la crisis en términos de replicabilidad, los encuestados en el presente estudio consideraron la falta de ella (13.21 %) como una de las posibles causas. Estas diferencias, nuevamente, pueden deberse a un sesgo de muestras, o al aumento de la difusión del tema en los últimos años.
En segundo término, al indagar acerca de la formación estadística de los investigadores, los resultados encontrados concuerdan con los observados en la muestra española, siendo la falacia de que un resultado estadísticamente significativo es un resultado importante la más aceptada. El hecho de que gran porcentaje de los investigadores encuestados acuerden con las tres falacias estadísticas mencionadas sugiere la necesidad de una mejor formación estadística para los investigadores.
En cuanto a la importancia de la replicación, en la muestra del presente estudio, al igual que en la española, la mayoría de los encuestados reafirmó su relevancia. Sin embargo, al considerar si es necesaria una replicación cuando los resultados publicados van en una determinada dirección, los resultados de esta investigación se hallaron ligeramente divididos (43.33 % estuvieron nada de acuerdo y 52.22 % de acuerdo, desde algo de acuerdo a muy de acuerdo). Este resultado difiere del hallado por Frías-Navarro et al. (2021), en tanto el 72.4 % de sus encuestados se mostró de acuerdo -desde algo de acuerdo a muy de acuerdo- con rechazar la necesidad de replicación. Del mismo modo, la consideración de que la ciencia avanza con hipótesis novedosas antes que con replicaciones, mostró similar división (44.44 % en desacuerdo y 52.22 % de acuerdo, desde algo de acuerdo a muy de acuerdo), mientras que en la muestra española el 79.86% se mostró de acuerdo. En ambos temas, los resultados en la presente muestra sugieren mayor conciencia (relativa) de la posibilidad de sesgo de publicación; nuevamente pueden deberse a un sesgo de la muestra, o a un mayor conocimiento del problema.
En cuanto a las experiencias de los investigadores con las prácticas de ciencia abierta, la mayoría consideró asegurarse de reportar sus estudios de una manera detallada, pero aquellas prácticas que incluyen compartir datos, scripts o detalle de los procedimientos estadísticos, y materiales no fueron habituales, inclusive a pesar de que en general todas las prácticas de ciencia abierta fueron altamente valoradas por los encuestados. Este no es un caso excepcional, puesto que estas prácticas son relativamente nuevas y no muy habituales si no se exigen (Hardwicke et al., 2022; Houtkoop et al., 2018).
Al indagar acerca de las principales barreras frente a la ciencia abierta, se hallaron los mismos cuatro motivos principales que en la encuesta realizada por Belaus et al. (2018), esto es, la falta de información y entrenamiento, la falta de incentivos, la falta de financiamiento específico y la falta de requerimientos por parte de los organismos reguladores. De este modo, considerando la gran valoración que las prácticas de ciencia abierta han recibido por parte de los encuestados, se llega a la conclusión de que la ausencia de la implementación efectiva de la investigación transparente se debe a la poca información disponible y a la ausencia de incentivos por parte de los organismos de subvención locales. Además, vale destacar que un número reducido de la muestra del estudio estuvo informada acerca de la denominada crisis de replicabilidad, por lo que incluir temáticas relacionadas a este asunto podría ser beneficioso para generar interés en estas nuevas prácticas de investigación. Y si bienCrüwell et al. (2019) conciben que “teaching open science and the replication crisis is a pedagogical challenge [enseñar ciencia abierta y la crisis de replicabilidad es un desafío pedagógico]” (p. 21), estos autores, junto a Blincoe y Buchert (2020) y Strand y Brown (2019), consideran que esta enseñanza no sólo beneficia a aquellos investigadores-estudiantes en llevar a cabo su propia investigación, sino también a cualquier estudiante en tanto lo capacita para llegar a ser un consumidor crítico de investigaciones previas.
Las principales limitaciones de los resultados aquí expuestos giran en torno al tipo de muestra utilizada y a la baja proporción de respuesta. En el primer caso, del mismo modo que en las encuestas española y argentina, la muestra de este estudio fue autoseleccionada. Es posible que aquellos encuestados que conocieran acerca de los temas abordados estuvieran más predispuestos a responder el cuestionario. En el segundo caso, considerando que se enviaron 473 mails y se obtuvieron 95 respuestas, la tasa de respuestas fue de aproximadamente 20 %. El porcentaje de respuestas que recibieron Frías-Navarro et al. (2021) fue aún menor, con un 10.23 %. Esta baja tasa de respuestas es un hecho común en la investigación en ciencias sociales actual (Daikeler et al., 2020).
En cuanto a las investigaciones futuras, sería deseable una muestra amplia para comparar distintas poblaciones de investigadores argentinos y latinoamericanos. De este modo, se puede tener una medida fiable de cuáles son las prácticas de investigación, preocupaciones y motivaciones de aquellos profesionales que producen el conocimiento científico en esta región. Asimismo, investigaciones futuras podrían seguir la evolución del conocimiento y las percepciones en torno a la problemática y las prácticas de ciencia abierta, teniendo en cuenta el aumento en los requerimientos al respecto por parte de revistas y fuentes de financiación. Es posible que surjan nuevos problemas e inquietudes necesarios de relevar.
Referencias
American Psychological Association. (2018). Ethics Committee Rules and Procedures. https://www.apa.org/ethics/committee-rules-procedures-2018.pdf
Agnoli, F., Wicherts, J. M., Veldkamp, C. L. S., Albiero, P. y Cubelli, R. (2017). Questionable research practices among italian research psychologists. PLOS ONE, 12(3), e0172792. https://doi.org/10.1371/journal.pone.0172792
Anvari, F. y Lakens, D. (2018). The replicability crisis and public trust in psychological science. Comprehensive Results in Social Psychology, 3(3), 266-286. https://doi.org/10.1080/23743603.2019.1684822
Arlinghaus, N. (2018). Questionable Research Practices, Preregistration, and More – Exploring Self-Report Opinions of Swedish and Dutch PhD Students. http://lup.lub.lu.se/student-papers/record/8951468
Arza, V., Fressoli, J. M., Arancibia, F., Arancio, J., Martín, U., Castillo, D. y Vasen, F. (2016). Proyecto: Ciencia abierta en Argentina: experiencias actuales y propuestas para impulsar procesos de apertura. http://www. ciecti. org. ar/wpcontent/uploads/2016/09/CIECTI-Proyecto-CENIT. pdf.
Baker, M. (2016). 1,500 scientists lift the lid on reproducibility. Nature News, 533(7604), 452.
Bakker, B. N., Jaidka, K., Dörr, T., Fasching, N. y Lelkes, Y. (2020). Questionable and open research practices: Attitudes and perceptions among quantitative communication researchers. PsyArXiv. https://doi.org/10.31234/osf.io/7uyn5
Bauchner, H. (2018). Notice of Retraction: Wansink B, Cheney MM. Super Bowls: Serving Bowl Size and Food Consumption. JAMA. 2005;293(14):1727-1728. Journal of the American Medical Association, 320(16), 1648. https://doi.org/10.1001/jama.2018.14249
Belaus, A., Luna, F. G. y Reyna, C. (2018). Experiencias e importancia percibida de Ciencia Abierta en investigadores/as de la Facultad de Psicología de la Universidad Nacional de Córdoba. https://doi.org/10.17605/OSF.IO/F8QW9
Bem, D. J. (2011). Feeling the future: Experimental evidence for anomalous retroactive influences on cognition and affect. Journal of Personality and Social Psychology, 100(3), 407-425. https://doi.org/10.1037/a0021524
Blincoe, S. y Buchert, S. (2020). Research preregistration as a teaching and learning tool in undergraduate psychology courses. Psychology Learning and Teaching, 19(1), 107-115. https://doi.org/10.1177/1475725719875844
Bower, B. (2012). The hot and cold of priming: Psychologists are divided on whether unnoticed cues can influence behavior. Science News, 181(10), 26-29. https://doi.org/10.1002/scin.5591811025
Burgelman, J. C., Pascu, C., Szkuta, K., Von Schomberg, R., Karalopoulos, A., Repanas, K. y Schouppe, M. (2019). Open Science, Open Data, and Open Scholarship: European policies to make science fit for the twenty-first century. Frontiers in Big Data 2, (43). https://doi.org/10.3389/fdata.2019.00043
Cesario, J., Jonas, K. J. y Carney, D. R. (2017). CRSP special issue on power poses: What was the point and what did we learn? Comprehensive Results in Social Psychology, 2(1), 1-5. https://doi.org/10.1080/23743603.2017.1309876
Chambers, C. (2017). The seven deadly sins of psychology: A manifesto for reforming the culture of scientific practice (pp. xii, 274). Princeton University Press. https://doi.org/10.1515/9781400884940
Crüwell, S., van Doorn, J., Etz, A., Makel, M. C., Moshontz, H., Niebaum, J. C., Orben, A., Parsons, S. y Schulte-Mecklenbeck, M. (2019). Seven easy steps to Open Science. Zeitschrift für Psychologie, 227(4), 237-248. https://doi.org/10.1027/2151-2604/a000387
Cumming, G. (2008). Replication and p Intervals: P Values predict the future only vaguely, but confidence intervals do much better. Perspectives on Psychological Science: A Journal of the Association for Psychological Science, 3(4), 286-300. https://doi.org/10.1111/j.1745-6924.2008.00079.x
Daikeler, J., Bošnjak, M. y Lozar Manfreda, K. (2020). Web versus other survey modes: An updated and extended meta-analysis comparing response rates. Journal of Survey Statistics and Methodology, 8(3), 513-539. https://doi.org/10.1093/jssam/smz008
Errington, T. M., Denis, A., Perfito, N., Iorns, E. y Nosek, B. A. (2021). Challenges for assessing replicability in preclinical cancer biology. eLife, 10, e67995. https://doi.org/10.7554/eLife.67995
Fanelli, D. (2009). How many scientists fabricate and falsify research? A systematic review and meta-analysis of survey data. PLOS ONE, 4(5), e5738. https://doi.org/10.1371/journal.pone.0005738
Franco, A., Malhotra, N. y Simonovits, G. (2016). Underreporting in Psychology experiments: Evidence from a study registry. Social Psychological and Personality Science, 7(1), 8-12. https://doi.org/10.1177/1948550615598377
Fraser, H., Parker, T., Nakagawa, S., Barnett, A. y Fidler, F. (2018). Questionable research practices in ecology and evolution. PLOS ONE, 13(7), e0200303. https://doi.org/10.1371/journal.pone.0200303
Frías-Navarro, D., Pascual-Soler, M., Perezgonzalez, J., Monterde-i-Bort, H. y Pascual-Llobell, J. (2021). Spanish scientists’ opinion about science and researcher behavior. The Spanish Journal of Psychology, 24, e7.https://doi.org/10.1017/SJP.2020.59
Galati, A. y Markant, D. (2018). Examining the impact of open and transparent research practices in an undergraduate research methods course in Psychology. [Presentación de subvención, University of North Carolina at Charlotte].
https://teaching.uncc.edu/sites/teaching.uncc.edu/files/media/sotl/Galati-Markant.pdf
Gigerenzer, G. (2018). Statistical rituals: The replication delusion and how we got there. Advances in Methods and Practices in Psychological Science, 1(2), 198-218. https://doi.org/10.1177/2515245918771329
Hardwicke, T. E., Thibault, R. T., Kosie, J. E., Wallach, J. D., Kidwell, M. C. e Ioannidis, J. P. A. (2022). Estimating the prevalence of transparency and reproducibility-related research practices in psychology (2014–2017). Perspectives on Psychological Science, 17(1), 239-251. https://doi.org/10.1177/1745691620979806
Hoekstra, R., Finch, S., Kiers, H. A. L. y Johnson, A. (2006). Probability as certainty: Dichotomous thinking and the misuse ofp values. Psychonomic Bulletin y Review, 13(6), 1033-1037. https://doi.org/10.3758/BF03213921
Houtkoop, B. L., Chambers, C., Macleod, M., Bishop, D. V. M., Nichols, T. E. y Wagenmakers, E. J. (2018). Data sharing in Psychology: A survey on barriers and preconditions. Advances in Methods and Practices in Psychological Science, 1(1), 70-85. https://doi.org/10.1177/2515245917751886
Ioannidis, J. P. A. (2005). Why most published research findings are false. PLOS Medicine, 2(8), e124. https://doi.org/10.1371/journal.pmed.0020124
John, L. K., Loewenstein, G. y Prelec, D. (2012). Measuring the prevalence of questionable research practices with incentives for truth telling. Psychological Science, 23(5), 524-532. https://doi.org/10.1177/0956797611430953
Lacey, J., Coates, R. y Herington, M. (2020). Open science for responsible innovation in Australia: Understanding the expectations and priorities of scientists and researchers. Journal of Responsible Innovation, 7(3), 427-449. https://doi.org/10.1080/23299460.2020.1800969
Lakens, D. (2021). The practical alternative to the p value is the correctly used p value. Perspectives on Psychological Science, 16(3), 639-648. https://doi.org/10.1177/1745691620958012
Ley Nacional No. 25.326 de Protección de los Datos Personales (2000). https://www.argentina.gob.ar/normativa/nacional/ley-25326-64790/texto
Ley Nacional No. 26.899 de Repositorios Digitales Abiertos (2013). https://www.argentina.gob.ar/normativa/nacional/ley-26899-223459
Lilja, E. (2020). Threat of policy alienation: Exploring the implementation of Open Science policy in research practice. Science and Public Policy, 47(6), 803-817. https://doi.org/10.1093/scipol/scaa044
Makel, M. C., Plucker, J. A. y Hegarty, B. (2012). Replications in Psychology research: How often do they really occur? Perspectives on Psychological Science, 7(6), 537-542. https://doi.org/10.1177/1745691612460688
McKinney, W. (2011). Pandas: a foundational Python library for data analysis and
statistics. Python for High Performance and Scientific Computing, 14(9), 1-9.
Mede, N. G., Schäfer, M. S., Ziegler, R. y Weißkopf, M. (2021). The «replication crisis» in the public eye: Germans’ awareness and perceptions of the (ir)reproducibility of scientific research. Public Understanding of Science (Bristol, England), 30(1), 91-102. https://doi.org/10.1177/0963662520954370
Morling, B. y Calin-Jageman, R. J. (2020). What Psychology teachers should know about Open Science and the New Statistics. Teaching of Psychology, 47(2), 169-179. https://doi.org/10.1177/0098628320901372
Mueller-Langer, F., Fecher, B., Harhoff, D. y Wagner, G. G. (2019). Replication studies in economics - How many and which papers are chosen for replication, and why? Research Policy, 48(1), 62-83. https://doi.org/10.1016/j.respol.2018.07.019
Munafò, M. R., Nosek, B. A., Bishop, D. V. M., Button, K. S., Chambers, C. D., Percie du Sert, N., Simonsohn, U., Wagenmakers, E. J., Ware, J. J. e Ioannidis, J. P. A. (2017). A manifesto for reproducible science. Nature Human Behaviour, 1(1), 1-9. https://doi.org/10.1038/s41562-016-0021
Mustaca, A. E. y Franco, P. (2018). Percepción de estudiantes y graduados sobre el estatus de la Psicología en Argentina. Interdisciplinaria, Revista de Psicología y Ciencias Afines, 35(2), 327-340. https://doi.org/10.16888/ interd.2018.35.2.5
Necker, S. (2014). Scientific misbehavior in economics. Research Policy, 43(10), 1747-1759. https://doi.org/10.1016/j.respol.2014.05.002
Nickerson, R. S. (2000). Null hypothesis significance testing: a review of an old and
continuing controversy. Psychological Methods, 5(2), 241-301.
https://doi.org/10.1037/1082-989X.5.2.241
Nosek, B. A., Spies, J. R. y Motyl, M. (2012). Scientific Utopia: II. Restructuring Incentives and Practices to Promote Truth Over Publishability. Perspectives on Psychological Science, 7(6), 615-631. https://doi.org/10.1177/1745691612459058
Nosek, B. A. y Errington, T. M. (2020). What is replication? PLOS Biology, 18(3), e3000691. https://doi.org/10.1371/journal.pbio.3000691
Office of Science and Technology Policy (2023). Biden-Harris Administration announces new actions to advance open and equitable research. Comunicado de Prensa, Casa Blanca, Gobierno de EEUU. https://www.whitehouse.gov/ostp/news-updates/2023/01/11/fact-sheet-biden-harris-administration-announces-new-actions-to-advance-open-and-equitable-research/
Open Science Collaboration. (2015). Estimating the reproducibility of psychological science. Science, 349(6251), aac4716. https://doi.org/10.1126/science.aac4716
Pardo Martínez, C. I. y Poveda, A. C. (2018). Knowledge and perceptions of open science among researchers - A case study for Colombia. Information, 9(11), 292. https://doi.org/10.3390/info9110292
Quacquarelli Symonds (2023). QS World University Rankings 2023: Top global universities. https://www.topuniversities.com/world-university-rankings/2023
Rabelo, A. L. A., Farias, J. E. M., Sarmet, M. M., Joaquim, T. C. R., Hoersting, R. C., Victorino, L., Modesto, J. G. N. y Pilati, R. (2020). Questionable research practices among Brazilian psychological researchers: Results from a replication study and an international comparison. International Journal of Psychology, 55(4), 674-683. https://doi.org/10.1002/ijop.12632
Renkewitz, F. y Heene, M. (2019). The Replication Crisis and Open Science in Psychology. Zeitschrift für Psychologie, 227(4), 233-236. https://doi.org/10.1027/2151-2604/a000389
Ritchie, S. (2020). Science Fictions: Exposing Fraud, Bias, Negligence and Hype in Science. Macmillan Publishers.
Schmidt, S. (2009). Shall we really do it again? The powerful concept of replication is neglected in the social sciences. Review of General Psychology, 13(2), 90-100. https://doi.org/10.1037/a0015108
Simmons, J. P., Nelson, L. D. y Simonsohn, U. (2011). False-Positive Psychology: Undisclosed flexibility in data collection and analysis allows presenting anything as significant. Psychological Science, 22(11), 1359-1366. https://doi.org/10.1177/0956797611417632
Simonsohn, U., Nelson, L. D. y Simmons, J. P. (2014). P-curve: A key to the file-drawer. Journal of Experimental Psychology: General, 143(2), 534–547. https://doi.org/10.1037/a0033242
Spies, J. R. (2013). The Open Science Framework: Improving Science by Making It Open and Accessible. [Doctoral thesis, University of Notre Dame, United States]. https://thesiscommons.org/t23za/
Strand, J. F. y Brown, V. A. (2019). Publishing open, reproducible research with undergraduates. Frontiers in Psychology, 10. https://www.frontiersin.org/article/10.3389/fpsyg.2019.00564
Stroebe, W. (2019). What can we learn from Many Labs teplications? Basic and Applied Social Psychology, 41(2), 91-103. https://doi.org/10.1080/01973533.2019.1577736
Turner, E. H., Cipriani, A., Furukawa, T. A., Salanti, G. y de Vries, Y. A. (2022). Selective publication of antidepressant trials and its influence on apparent efficacy: Updated comparisons and meta-analyses of newer versus older trials. PLoS Medicine, 19(1), e1003886.
Van Rossum, G. y Drake, F. L. (2009). Python 3 Reference Manual. Scotts Valley, CA:
Wagenmakers, E. J., Beek, T., Dijkhoff, L., Gronau, Q. F., Acosta, A., Adams, R. B., Albohn, D. N., Allard, E. S., Benning, S. D., Blouin-Hudon, E. M., Bulnes, L. C., Caldwell, T. L., Calin-Jageman, R. J., Capaldi, C. A., Carfagno, N. S., Chasten, K. T., Cleeremans, A., Connell, L., DeCicco, J. M., … Zwaan, R. A. (2016). Registered Replication Report: Strack, Martin, y Stepper (1988). Perspectives on Psychological Science, 11(6), 917-928. https://doi.org/10.1177/1745691616674458
Wasserstein, R. L., Schirm, A. L. y Lazar, N. A. (2019). Moving to a World Beyond “p < 0.05”. The American Statistician, 73(sup1), 1-19. https://doi.org/10.1080/00031305.2019.1583913
Información adicional
redalyc-journal-id: 180