FILOSOFÍA DE LA CIENCIA DEL CAMBIO CLIMÁTICO: MODELOS, PROBLEMAS E INCERTIDUMBRES*
PHILOSOPHY OF CLIMATE SCIENCE: MODELS, PROBLEMS AND UNCERTAINTIES
FILOSOFÍA DE LA CIENCIA DEL CAMBIO CLIMÁTICO: MODELOS, PROBLEMAS E INCERTIDUMBRES*
Revista Colombiana de Filosofía de la Ciencia, vol. 20, núm. 41, pp. 201-234, 2020
Universidad El Bosque

Resumen: El objetivo de este artículo es mostrar los problemas de la filosofía de la ciencia que enfrentan los investigadores del cambio climático. El tópico de la carga teórica de la observación aparece dentro del campo como una indispensabilidad de modelos teóricos en la detección y atribución del cambio climático. La infra-determinación empírica de los modelos se acompaña de una incertidumbre de valores (de series instrumentales y datos proxy) y una incertidumbre estructural, relativa a la especificación de los acoplamientos y forzamientos radiativos. Se examina, además, el realismo de los modelos globales en conexión con su calibración y las proyecciones climáticas.
Palabras clave: calentamiento global, detección, atribución, modelos climáticos, incertidumbres, epistemología, realismo científico.
Abstract: The aim of this paper is to show the epistemological problems that researchers of climate change face. The topic of theory-laden observation appears within the field as an indispensability of theoretical models in detecting and attributing climate change. The empirical underdetermination of models is accompanied by an uncertainty of values (of instrumental series and proxy-data) and a structural uncertainty (relative to couplings and radiative forcings). Finally, the article examines the realism of global climate models in connection with their calibration, deterministic chaos and climate projections.
Keywords: global warming, detection, attribution, climate models, uncertainties, epistemology, scientific realism.
1. INTRODUCCIÓN: LA(S) CIENCIA(S) DEL CAMBIO CLIMÁTICO
El cambio climático es un problema poliédrico. Tiene una cara científica, pero también una cara económica, otra política y aun otra filosófica, que interseca con la epistemología. En cuanto problema científico, se trata de una cuestión multidisciplinaria, porque en ella intervienen climatólogos, meteorólogos, físicos, matemáticos, programadores informáticos, geólogos, biólogos, entre otros. La razón de esta polidisciplinariedad radica en que el llamado clima global es un sistema complejo, formado por cinco subsistemas: la atmósfera, la hidrosfera, la litosfera, la criosfera y la biosfera (Intergovernmental Panel on Climate Change [IPCC] 2013a). En consecuencia, más que una ciencia del cambio climático o una ciencia del clima (climate science), se encuentra una pluralidad de ciencias involucradas en la investigación del cambio climático. Son las ciencias del sistema Tierra: climatología, meteorología, oceanografía, geología, ecología, etcétera.
El despegue de las ciencias de la Tierra se produjo durante la Guerra Fría, cuando Estados Unidos y la antigua Unión Soviética pugnaron por controlar tanto el espacio como las profundidades marinas. La Tierra o, más bien, ciertas partes del planeta, como la atmósfera, fueron conducidas al laboratorio (Pogdorny 2005). No obstante, pese a que el rótulo hiciera fortuna en la década de 1980 impulsado por la NASA, no existe una ciencia unificada del sistema Tierra, sino una variedad de ciencias que estudian diferentes aspectos interconectados del medioambiente global (Álvarez Muñoz 2004).
El objetivo de este artículo es señalar los problemas epistemológicos a que se enfrentan los científicos del cambio climático. A continuación, en la segunda sección, introducimos la cuestión de cómo definir el clima y en la tercera exponemos brevemente el consenso de la comunidad científica sobre el calentamiento global antropogénico. En la cuarta, analizamos los problemas que suscita el concepto de temperatura media global y recogemos una primera fuente de incertidumbre: los valores de las series instrumentales. En la quinta sección, al tiempo que estudiamos las variaciones de la temperatura global en el pasado, examinamos la incertidumbre de los valores asociados a datos proxy.
Tras estudiar la detección del cambio climático, discutimos su atribución. Así, en la sexta sección, reconstruimos la estimación de los forzamientos radiativos y, en especial, del efecto invernadero debido al dióxido de carbono. En la siguiente sección, tras describir los modelos climáticos globales, explicamos cómo se usan para realizar inferencias causales. Después, en la octava sección, consideramos los problemas relacionados con la proyección climática, deteniéndonos, en particular, en el caos determinista y la cuestión de cómo asignar probabilidades a los ensembles de modelos. En la parte final, examinamos cómo la calibración de los parámetros del modelo implica que su verificación o falsación se torne difícil, de lo que resulta una incertidumbre estructural inherente a los modelos climáticos.
2. LA DEFINICIÓN DE CLIMA
Mientras que el tiempo meteorológico cambia hora a hora, el clima es el estado promedio, es decir, el estado más frecuente, menos anómalo, de la atmósfera sobre un lugar a lo largo de treinta años. Es la distribución del tiempo meteorológico sobre ese lugar durante ese intervalo de años (IPCC 2013a). Sin embargo, conviene advertir el convencionalismo que flota sobre la definición de clima; porque, aunque los geógrafos tradicionalmente preferían periodos más largos, meteorólogos y climatólogos consensuaron periodos-base de treinta años y, últimamente, algunos investigadores proponen periodos incluso más cortos. Esta norma estándar fue adoptada por la Organización Meteorológica Mundial (WMO, por su sigla en inglés) (fundada en 1950) recogiendo prácticas históricas que se remontaban a la primera mitad del siglo XX. Pero la referencia a un periodo-base de treinta años se estableció porque la primera vez que se hizo esa recomendación solo se disponía de datos correspondientes a ese número de años (WMO 2011).
Frente a esta definición empirista, los científicos del clima manejan actualmente otra, en la que el clima ya no es la distribución estadística de las condiciones meteorológicas observadas sino el atractor —en el sentido de la teoría matemática de los sistemas dinámicos— del modelo climático bajo estudio (Parker 2018;Werndl 2016). Esta definición teorética soslaya el convencionalismo asociado a la definición empirista, pero no se ha impuesto en la comunidad científica, porque su referencia directa no es la observación de un lugar determinado sino un modelo matemático.
3. EL CONSENSO SOBRE EL CALENTAMIENTO GLOBAL ANTROPOGÉNICO
La teoría del cambio climático consiste básicamente en la conjunción de dos hipótesis que poseen un grado distinto de corroboración: a) existe un calentamiento global de la Tierra y b) la causa dominante del calentamiento global es el efecto invernadero provocado por las emisiones de dióxido de carbono y otros gases de origen antrópico.1
En su quinto y último informe de evaluación (AR5), el Panel Intergubernamental para el Cambio Climático de las Naciones Unidas (IPCC, por su nombre en inglés) afirma que el calentamiento del sistema climático es inequívoco y cifra el calentamiento global de 1880 a 2012 en 0.85 ºC (IPCC 2013b). Además, concreta que “en el hemisferio norte es probable que el periodo 1983-2012 haya sido el periodo de 30 años más cálido de los últimos 1400 años” (IPCC 2013b).2
En la figura 1 podemos observar la evolución de la temperatura media global. Se observa que el ritmo de calentamiento del planeta desde el final de la Pequeña Edad de Hielo, a finales del siglo XIX, no ha sido constante. Entre 1940 y 1975, el calentamiento se frenó, dando paso a un ligero enfriamiento. Pero, desde 1980, el ritmo de calentamiento se ha acentuado notablemente. No obstante, entre 1998 y 2012 este ritmo volvió a frenarse (un hecho, como veremos, difícil de reproducir y explicar por los modelos climáticos).
Ahora bien, todo lo que sabemos del cambio climático depende, como vamos a comprobar, de modelos dinámicos o estadísticos, tanto de modelos teóricos (de cómo se construyen los modelos globales para reproducir las observaciones y hacer predicciones) como de modelos de los datos (es decir, de cómo se modelan las observaciones). Los datos hacen los modelos globales, pero los modelos de los datos también hacen los datos, pues no hay datos en bruto y los registros climáticos son periódicamente reanalizados mediante diversas técnicas (data assimilation, analysis, reanalysis). La carga teórica de la observación es uno de los tópicos de la filosofía de la ciencia más presentes en las ciencias del cambio climático: “there is no such thing as an observation separate from modeling” (Edwards 2010 352). Tanto la detección como la atribución del cambio climático dependen fundamentalmente del empleo de modelos, pero esta metodología no está libre de problemas epistemológicos.3 Comencemos estudiando las cuestiones que se plantean en la detección del cambio climático y, en especial, cómo se define esa temperatura global de la que hablan los expertos.

Izquierda: Anomalía de la Temperatura con respecto al periodo 1951-1980 en ºC
Arriba: Temperatura media global estimada a partir de datos en tierra y océano.
Dentro: Media Anual; Serie suavizada; Incertidumbre total.
Incertidumbre total sobre tierra y mar.
Fuente: NASA GISS https://data.giss.nasa.gov/gistemp/graphs_v4/4. LA DEFINICIÓN DE LA TEMPERATURA MEDIA GLOBAL Y LA INCERTIDUMBRE EN LAS SERIES INSTRUMENTALES
Mientras que la temperatura local en un cierto lugar, al igual que el tiempo meteorológico, se observa y se mide, la temperatura global del planeta, como el clima, es fruto de un cálculo, de una estimación estadística, dado que no se conoce la temperatura más que en una cantidad discreta de lugares y momentos. No existe algo así como un termómetro global que pudiéramos poner a la Tierra para conocer su temperatura precisa, porque el planeta no está en equilibrio termodinámico. La temperatura global es, por tanto, el resultado de un promedio que puede calcularse de diferentes maneras a partir de los datos que arrojan las estaciones meteorológicas, los globos sonda, las boyas marinas y los satélites (Essex et ál. 2007).
Generalmente, la temperatura media de un lugar concreto se calcula del siguiente modo: se suma la máxima y la mínima de cada día, dividiendo por dos, obteniéndose la temperatura media del día;4 se repite este protocolo durante cada día del año y, finalmente, se calcula la media de todas estas temperaturas (WMO 2011). No obstante, no todos los Estados lo hacen o lo han hecho así: en la antigua Unión Soviética, por ejemplo, la temperatura media diaria se calculaba sumando las temperaturas a la 1, las 7, a las 13 y a las 19 horas, dividiendo a continuación por cuatro (Edwards 2010).
Existe, además, un problema de cantidad y calidad con los datos de partida: no siempre ha existido una red de estaciones meteorológicas espacial y temporalmente bien distribuida (el uso de globos sonda se generalizó a partir de 1950 y el de satélites climáticos a partir de 1980). En efecto, solo los registros de mil estaciones del mundo abarcan todo el siglo XX, y todas ellas están situadas en tierra y en el hemisferio norte, cerca en su mayoría de ciudades europeas y norteamericanas. Por su emplazamiento, muchas de las estaciones están sujetas al efecto isla de calor de las ciudades. Este y otros sesgos (como los cambios en la instrumentación o en la localización) obligan a homogeneizar las series instrumentales, eliminando los datos anómalos y ajustando el resto. Sin embargo, los procedimientos de homogeneización e interpolación no son unívocos y, como ejemplo de las tensiones ocasionadas en el tratamiento de datos, el anuncio del Instituto Goddard de Estudios Espaciales de la NASA (GISS) en el 2010 de que 2009 había sido el segundo año más cálido del planeta desde que se tiene registro (solo detrás del 2005) fue cuestionado por el Cen-tro Hadley de la Oficina Meteorológica del Reino Unido (Schmidt 2010).
En suma, el mallado de observatorios con que se ha calculado la variación de la temperatura global a lo largo del siglo pasado es pobre y está mal repartido, pues el hemisferio sur y los océanos no están en general cubiertos. Los científicos del clima tienen aquí una primera fuente de incertidumbre: una incertidumbre de valores. Mientras que en su artículo pionero Guy Stewart Callendar (1938) tomó en cuenta los datos de unas 200 estaciones para reconstruir la evolución de la temperatura global, Brohan et ál. (2006) consideró 4349, cifra que Richard A. Muller ha aumentado hasta las 36 866 (Rohde et ál. 2013), a fin de estimar con mayor precisión la curva de temperaturas entre 1850 y 1950, donde más incertidumbre hay.5
5. LA INCERTIDUMBRE EN LOS DATOS PROXY
Dando por satisfactoria la construcción de ese estimador del clima terrestre denominado temperatura global y apoyándose en otros indicadores físicos (volumen de los glaciares, cobertura de nieve, entre otros), los científicos se preguntan si resulta anormal el calentamiento global en casi un grado centígrado durante el último siglo.
Para ello, acuden a la paleoclimatología, que estudia las variaciones climáticas de la Tierra a lo largo de su historia.
La variabilidad es una de las características esenciales de la temperatura global, que cambia continuamente como consecuencia de diversos factores (como erupciones volcánicas o el fenómeno de El Niño). Si se mira con atención la gráfica de la evolución de la temperatura global desde 1880 hasta el presente (véasefigura 1), se observa cómo la temperatura global ha bajado y subido, y que el actual periodo de calentamiento comenzó aproximadamente en 1975, justo cuando terminó un periodo de enfriamiento que tuvo su inicio en 1940. Durante la Guerra Fría, una fracción de la comunidad científica barajaba la teoría del enfriamiento global. Algunos científicos afirmaban que la actividad humana, al aumentar la contaminación atmosférica, estaba haciendo el aire más opaco, lo cual dificultaba la llegada de la radiación solar.
Si se sigue regresando en el tiempo, se observa que durante el primer tercio del siglo XX se produjo otro periodo de calentamiento, pues el calentamiento como tendencia no es algo reciente, sino que se inició en el siglo XIX, como consecuencia del final de la Pequeña de Edad de Hielo (producto de un mínimo solar y de una elevada actividad volcánica, que duró desde el siglo XV hasta entrado el XIX). Esta etapa puso fin, a su vez, al Periodo Cálido Medieval, coincidente con un máximo solar. Más atrás se encuentra el óptimo climático del Holoceno, un periodo cálido que comenzó alrededor del 7500 a. C. y duró hasta el 2500 a. C., cuando se inició un enfriamiento gradual que no concluyó hasta el Periodo Cálido Medieval (Marcott et ál. 2013).
En determinados momentos de la historia geológica del planeta, la temperatura media global ha fluctuado abruptamente (IPCC 2013a). Sin embargo, la brevedad de las series meteorológicas instrumentales, que no se retrotraen más allá de 1850, obliga al empleo de datos proxy o datos climáticos extraídos indirectamente para el establecimiento de las tendencias climáticas, como el análisis del aire fósil atrapado en burbujas de testigos de hielo, la datación de sedimentos lacustres o el estudio de los anillos de los árboles. El problema es que los científicos se encuentran aquí con una incertidumbre de valores reforzada. Así recoge esta clase de incertidumbre el AR5:
The fundamental limitations for deriving past temperature variability at global/hemispheric scales are the relatively short instrumental period and the number, temporal and geographical distribution, reliability and climate signal of proxy records. The database of high-resolution proxies has been expanded since ar4, but data are still sparse in the tropics, southern hemisphere and over the oceans (IPCC 2013a 411).
La reconstrucción de las temperaturas del pasado a partir de datos proxy no siempre es fiable, como puso de manifiesto la controversia sobre el palo de hockey de Mann et ál. (1998), un gráfico donde parecía como si durante el último milenio no hubiese pasado nada relevante hasta el calentamiento del siglo XX. Sin embargo, varios grupos publicaron estudios críticos que matizaban la gráfica (McIntyre & McKitrick 2003;Storch et ál. 2004).6 Actualmente, el IPCC (2013b) reconoce que entre los años 950 y 1250 las temperaturas fueron tan cálidas en algunas regiones como a finales del siglo XX. Se ha pasado del palo de hockey del informe de 2001 al plato de espaguetis del informe de 2013 (Frank et ál. 2010). A día de hoy, se dispone de múltiples reconstrucciones de la temperatura en el hemisferio norte usando diferentes proxies. No obstante, los paleoclimatólogos continúan trabajando para reducir la incertidumbre en las variaciones seculares de la temperatura, así como en extender su validez espacial.
6. EL EFECTO INVERNADERO Y LA ESTIMACIÓN DE LOS FORZAMIENTOS CLIMÁTICOS
Tras haber estudiado la detección del cambio climático en el presente y en el pasado, vamos a analizar cómo se realiza su atribución. Para ello hay que fijarse en el dióxido de carbono, un gas de efecto invernadero (geI), que retiene parte de la energía que la superficie de la Tierra emite como consecuencia de haber sido calentada por el Sol, recreando analógicamente lo que sucede en un invernadero común.
En 1824, Joseph Fourier conjeturó que algunos gases contribuyen a calentar la atmósfera. En 1861, John Tyndall identificó en el laboratorio algunos de estos gases, como el vapor de agua o el CO2. En 1896 el científico sueco Svante Arrhenius publicó un artículo sobre la influencia del CO2 sobre la temperatura en superficie,7 pero fue Callendar (1938) quien propuso la conexión entre calentamiento y CO2 antropogénico. Basándose en las mediciones de temperatura y CO2 que logró reunir, Callendar planteó que la producción artificial de dióxido de carbono influía en la temperatura, pero su investigación fue recibida como una coincidencia, dado que las mediciones de que disponía eran en su mayoría de estaciones por encima del paralelo 45º norte.
La comunidad científica volvió a interesarse por la cuestión en la década de los cincuenta. Como parte del Año Geofísico Internacional 1957-1958, comenzó a medirse la concentración de CO2 en el observatorio de Mauna Loa. La monitorización continuada determinó, pasados los años, una curva monótona creciente: la curva de Keeling.8 En 1979, Jule Gregory Charney, uno de los líderes en la modelización y predicción del tiempo meteorológico, encabezó un informe elaborado para la Academia Nacional de Ciencias de EE. UU. donde concluía que el incremento en la concentración atmosférica de CO2 conllevaría un calentamiento generalizado de la Tierra. Y, a finales de la siguiente década, en 1988, James Hansen, director del GISS, compareció ante el Senado de EE. UU. para alertar de que el calentamiento global era una realidad y su causa no era otra que el efecto invernadero provocado por el hombre (pues en el CO2 atmosférico cada vez se encuentra mayor abundancia de cierto isótopo del carbono relacionado con la combustión de combustibles fósiles).
Ahora bien, al igual que ocurría con la temperatura, los científicos, una vez que disponen de mediciones de la concentración de CO2 en el presente, buscan compararlas con medidas de la concentración de CO2 en el pasado, para saber si se desvían de lo normal. Sin embargo, la estimación de los niveles de CO2 anteriores al siglo XX no es fácil, ya que requiere del empleo de proxies, con lo cual aparece de nuevo una incertidumbre de valores.
Gracias a los estratos geológicos, se sabe que en la actualidad hay menos CO2 en la atmósfera que en otros momentos de la historia de la Tierra, como el Eoceno inicial, cuando hubo concentraciones superiores a las 1000 ppm y temperaturas superiores a las actuales (IPCC 2013a). También se sabe que la concentración actual de CO2 excede el rango que se ha mantenido durante los últimos 800 000 años (IPCC 2013a).
Atendiendo ahora al efecto en la temperatura, el dióxido de carbono no es, ni mucho menos, el principal geI, que es el vapor de agua (responsable al menos del 60 %). Los científicos distinguen entre el efecto invernadero natural (que hace habitable la Tierra) y el efecto invernadero artificial, inducido por el hombre como consecuencia de la emisión industrial de CO2, metano, óxido nitroso y otros gases.
La dinámica del clima es mucho más compleja que aseverar que el CO2 aumenta y la temperatura sube. La variabilidad de los niveles de CO2 difícilmente explica el aumento de las temperaturas entre 1920 y 1940, cuando había bajos niveles, y mucho menos el enfriamiento producido entre 1940 y 1975, cuando se dio un notable crecimiento de las emisiones de origen humano. Además, los estudios paleoclimáticos muestran que la temperatura no sigue estrictamente los niveles de CO2: en múltiples reconstrucciones a escalas geológicas los picos de la temperatura acontecen unos 800-1300 años antes que los picos en la concentración de CO2 (Stott et ál. 2007).
Aparte de los GEI, los científicos del clima barajan que detrás de la subida de la temperatura global pueden estar otros factores, tanto naturales como humanos, entre los cuales pueden darse complejas realimentaciones. Por un lado, factores naturales como la actividad solar. En el clima terrestre existe una fuerte influencia de los ciclos solares y el forzamiento solar ha podido ser en algún momento tan influyente como el forzamiento inducido por los geI. La actividad del Sol ha sido inusualmente alta durante el siglo XX, pudiendo estar detrás del calentamiento anterior a 1940, pero, a lo sumo, solo del 30 % del calentamiento observado desde 1975 (Solanki & Krivova 2003). Por otro lado, procesos de origen humano, no relacionados directamente con la emisión de GEI, como el calor generado por la urbanización de los continentes o por los cambios en el uso del suelo, pueden contribuir también significativamente al calentamiento (Kalnay & Cai 2003).
Análogamente, al igual que existen factores naturales que tienden a enfriar el planeta (por ejemplo, la actividad volcánica), hay también factores humanos proclives a ello. Uno es el llamado oscurecimiento global, un fenómeno que refiere a la reducción gradual de la cantidad de luz solar que alcanza la superficie terrestre desde la década de 1940, y que es provocado por el incremento de partículas en suspensión como la carbonilla y los sulfatos. Pero aún no se conocen bien los efectos de los aerosoles; porque, aunque directamente parecen enfriar el clima global, enmascarando la acción de los GEI, también pueden contribuir a su calentamiento (por ejemplo, cuando el hollín se deposita sobre nieve, cambiando su albedo). De hecho, “la incertidumbre sobre el forzamiento debido a los aerosoles sigue siendo la contribución dominante a la incertidumbre global sobre el forzamiento neto antropógeno” (IPCC 2013b 114).
Pero, ¿cómo se conjugan todos estos factores (GEI, irradiación solar, aerosoles, entre otros) y sus forzamientos radiativos en el clima global? ¿Cuál es la combinación de estos factores que explica el calentamiento global observado? La atribución del cambio climático depende indispensablemente de la utilización de modelos climáticos.
7. LOS MODELOS GLOBALES Y LA ATRIBUCIÓN DEL CAMBIO CLIMÁTICO
El esfuerzo por modelar matemáticamente el clima fructificó durante la Guerra Fría, coincidiendo con el desarrollo en un contexto militar de las primeras computadoras. Lentamente se fue construyendo una jerarquía de modelos climáticos, desde los más simples (los modelos de balance de energía de M. Budyko y W. Sellers) hasta los más sofisticados, que tratan de cubrir toda la superficie terrestre. Los primeros modelos de circulación general fueron planteados por Norman Phillips, y mejorados por Suki Manabe y Richard Wetherald en la década de 1960. Estos modelos atmosféricos, empleados primero en la predicción meteorológica y luego en estudios climáticos, fueron incorporando acoplamientos y forzamientos adicionales.
En los actuales modelos de clima global con acoplamiento, el clima del planeta se representa mediante un sistema de ecuaciones diferenciales con varios ingredientes:
1) las ecuaciones que reflejan la evolución de las variables climáticas de acuerdo a leyes físicas (ecuaciones de Navier-Stokes, principios de conservación, etc.) y que describen el movimiento de un fluido compresible y estratificado sobre una esfera rugosa en rotación; 2) las ecuaciones que recogen los procesos de intercambio entre la atmósfera y los océanos, los continentes o la cobertura de hielo, y 3) ciertas ecuaciones que representan procesos de gran influencia en el clima, como la evaporación o la convección, pero que se producen a una escala espacial muy pequeña en comparación con los procesos climáticos globales.
Dada su extrema complejidad, el sistema de ecuaciones no tiene solución analítica explícita, y su resolución solo puede abordarse de forma aproximada mediante métodos numéricos, con la ayuda de supercomputadoras. Para ello, hay que trocear la atmósfera en paralelepípedos, de unos 100-150 km de lado, y representar procesos atmosféricos como la convección o la formación de nubes, que ocurren a una escala inferior a la de la rejilla, mediante la introducción artificial de parámetros, que emulan esos fenómenos. De lo contrario, si se aumentara la resolución espacial para evitar estas incómodas parametrizaciones, el tiempo de cómputo se dispararía. En la comunidad científica internacional existe cerca de una treintena de modelos del clima global terrestre.
Estos modelos climáticos son la clave de la atribución del cambio climático detectado, porque están orientados a evaluar conjuntamente los factores naturales y humanos que afectan el clima, su forzamiento (positivo o negativo) en la evolución de la temperatura global. Una vez que los modelos consiguen reproducir la serie observacional de la temperatura media global, de la concentración de CO2, entre otros aspectos, entre 1880 y la actualidad, los científicos estudian si los forzamientos antropogénicos son estrictamente necesarios. Cuando los modelos se dejan correr actuando solo los factores naturales (irradiación solar, actividad volcánica, etc.), no reproducen la evolución de la temperatura global hasta el presente. En cambio, cuando se permite actuar en conjunto a ambas clases de forzamientos, ponderados de cierta manera, sí se reproduce aceptablemente el calentamiento global. El balance de todos los forzamientos naturales y antrópicos explicaría los 0.85 ºC de incremento de la temperatura global del planeta (véase figura 2).
La atribución antropogénica del cambio climático se basa fundamentalmente en esta metodología con modelos, porque:
Attribution of observed changes is not possible without some kind of model of the relationship between external climate drivers and observable variables. We cannot observe a world in which either anthropogenic or natural forcing is absent, so some kind of model is needed to set up and evaluate quantitative hypotheses (IPCC 2013a 873).
No obstante, no hay que confundir la evidencia estadística hallada con el descubrimiento de la causa o las causas que operan detrás, ya que la atribución causal exige complementar la asociación estadística encontrada con la especificación de los mecanismos físico-químicos subyacentes.9 Correlación no implica causalidad.10 Es el problema filosófico de la inferencia causal o, con más precisión, de la inferencia de la causa más probable, un refinamiento de la inferencia de la mejor explicación, por cuanto esta clase de inferencia teórica comporta un componente existencial (Cartwright 1983).

Izquierda: Anomalía de la temperatura (ºC) Arriba dentro: Forzamiento natural; y las seríes son: CMIP3 (los modelos participantes en la fase 3 del Proyecto de Intercomparación de Modelos Acoplados, 2006), CMIP5 (los modelos participantes en la fase 5 del Proyecto de Intercomparación de Modelos Acoplados, 2014) y observaciones. Abajo dentro: Forzamiento natural y humano; y las series son las antedichas
Fuente: IPCC (2013a 895)Los científicos del clima, sin perjuicio del conocimiento aún incompleto de todos los mecanismos de interacción (por ejemplo, de los aerosoles), aportan otras huellas (fingerprints) de cambio climático antropogénico para reforzar su argumentación causal, como el enfriamiento de la atmósfera en capas altas y su calentamiento en capas bajas, o que el calentamiento es más acusado de noche que de día.
Sin embargo, conviene reparar en cómo la inferencia de la causa más probable funciona en este contexto de manera diferente que, por ejemplo, en la física de partículas. Mientras que en física tenemos aparatos, como los aceleradores de partículas, que acotan en su interior los fenómenos bajo estudio, siendo factible manipularlos, el control y la reproducción, el sistema climático global desborda el marco de cualquier dispositivo experimental, por lo que los modelos y las simulaciones sustituyen a los aparatos y los experimentos.11
8. CAOS E INCERTIDUMBRE EN LA PREDICTIBILIDAD DEL CLIMA GLOBAL
Los modelos climáticos no solo se emplean para reproducir la evolución de la temperatura global o de otras variables climáticas desde el pasado hasta el presente. También se utilizan para predecir su futura evolución, encontrando otra fuente de incertidumbre: el caos determinista. En 1963, Edward Lorenz advirtió que la atmósfera determina un sistema no lineal con régimen caótico, lo que cercenó la aspiración de Charney de que añadiendo cada vez más grados de libertad los modelos se estabilizasen (Madrid Casado 2011). En el ar5, el IPCC precisa:
El conocimiento de los estados actual y anteriores del sistema climático suele ser imperfecto, los modelos que mediante esos conocimientos generan predicciones climáticas son, por consiguiente, también imperfectos, y el sistema climático es inherentemente no lineal y caótico, todo lo cual hace que la predictibilidad del sistema climático sea inherentemente limitada. Incluso aunque se utilicen modelos y observaciones arbitrariamente precisos, existen limitaciones a la predictibilidad de un sistema no lineal como el clima (IPCC 2013b 199).
En los sistemas caóticos, el presente determina el futuro, pero una aproximación del presente no determina aproximadamente el futuro. Pequeñas diferencias en las condiciones iniciales o en la formulación del modelo resultan en diferentes evoluciones. Incluso en ausencia de forzamientos externos, pueden experimentarse cambios drásticos. Así, el hiato observado en el ritmo de ascenso de la temperatura media global entre 1998 y 2012, que los modelos no logran reproducir, se achaca a la variabilidad interna del clima (IPCC 2013b). En la figura 3 puede observarse cómo la mayoría de modelos no reproducen el hiato 1998-2012, quedando la serie observada (en trazo negro grueso) por debajo de ellos, y también cómo las pequeñas diferencias en las condiciones iniciales o en la formulación del modelo producen trayectorias que conducen a predicciones significativamente diferentes para la temperatura global en el 2050.
Todo modelo climático depende, por un lado, de las condiciones iniciales (de los valores climáticos actuales) y, por otro, de las condiciones de contorno, es decir, de la especificación de los acoplamientos de la atmósfera con el océano o los continentes. Las condiciones iniciales son de mayor trascendencia en la predicción meteorológica y en la predicción climática a corto plazo (a la escala de unas pocas décadas), definiendo lo que se llama un problema de valor inicial. Por contra, las condiciones de contorno dominan la predicción climática a mediano o largo plazo y definen un problema de frontera o contorno.
Para Tim Palmer (2005), el caos determinista afectaría más a la predicción meteorológica (que depende sensiblemente de las condiciones iniciales) que a la predicción climatológica, ya que en esta última no se estudia el tiempo o estado concreto de la atmósfera a 50 o 100 años (o sea, una trayectoria particular), sino el clima, esto es, la distribución estadística de los estados meteorológicos después de esos años o, por decirlo con la definición alternativa mencionada en la segunda sección, la forma del atractor del sistema dinámico climático (que se supone será parecido al real).
El problema es que el caos no se reduce a la sensibilidad con respecto a las condiciones iniciales, porque también puede aparecer como consecuencia de la propagación de errores de cómputo, así como por perturbaciones en los parámetros del modelo (una pequeña diferencia entre el valor del parámetro del modelo y el valor real del parámetro puede ocasionar predicciones divergentes). Mientras que asociamos el caos ligado a las condiciones iniciales con el efecto mariposa (butterfly effect), algunos autores proponen asociar el caos ligado a los pequeños cambios en la estructura del modelo con un supuesto efecto polilla (hawkmoth effect). El efecto mariposa sería a las condiciones iniciales lo que el efecto polilla a la estructura del modelo. Este concepto aparece in nuce en Thompson:
The term “Butterfly Effect” has greatly aided communication and understan- ding of the consequences of dynamical instability of complex systems. It arises from the title of a talk given by Edward Lorenz in 1972: “Does the flap of a butterfly’s wings in Brazil set off a tornado in Texas?” I propose that the term “Hawkmoth Effect” should be used to refer to structural instability of complex systems. The primary reason for proposing this term is to continue the lepi- doptera theme with a lesser-known but common member of the order. The Hawkmoth is also appropriately camouflaged, and less photogenic (2013 213).
Pero, ¿se ha comprobado que pequeñas variaciones en la especificación de los modelos climáticos conduzcan a grandes cambios en las predicciones finales? ¿Son los modelos climáticos sensiblemente dependientes a la pormenorización de su estructura? ¿Existe una inestabilidad estructural en los modelos climáticos? Se trata de un tema abierto. Mientras que los filósofos de la ciencia ligados a la London School of Economics responden afirmativamente (Frigg et ál. 2014), amparándose en el carácter no lineal de estos modelos, otros lo hacen de modo negativo, indicando que no se puede generalizar y hay que ir caso por caso, estudiando modelo a modelo (Nabergall, Navas y Winsberg 2019;Winsberg 2018).12
Para intentar controlar el caos, se utiliza la predicción por conjuntos (ensemble prediction), una técnica diseñada por Tim Palmer y Eugenia Kalnay, entre otros, que consiste en usar conjuntos de condiciones iniciales distintas o diferentes modelos climáticos a la vez. La ejecución de un modelo con variaciones en las condiciones iniciales suele usarse en la predicción meteorológica. Con el empleo de múltiples modelos se busca minimizar, en cambio, el error en la determinación de las condiciones de contorno y los parámetros, ya que esta clase de error es la decisiva en la predicción climática.13 En ocasiones, se utilizan simultáneamente ambos procedimientos, construyendo un sistema global de predicción por conjuntos, que tiene en cuenta la incertidumbre tanto en las condiciones iniciales como en las condiciones de contorno. Mediante ensembles multimodelo, el IPCC (2013b) predice que para finales del presente siglo es de esperar un calentamiento entre 0.91 y 5.41 ºC (la predicción más pesimista), siendo verosímil que exceda los 1.5 ºC, respecto a niveles preindustriales (1850-1900).
Los resultados de los diferentes modelos no son idénticos y la disparidad refleja el grado de incertidumbre en el conocimiento del futuro del clima global, puesto que, a mayor coincidencia entre modelos, menor incertidumbre. Cuando dos tercios de los modelos disponibles coinden en un resultado, se dice que ese resultado es robusto(Lloyd 2009). Así, mientras que las predicciones de aumento de la temperatura y la precipitación globales o la evolución del hielo ártico son robustas, las predicciones sobre las variaciones regionales de la temperatura y la precipitación, la evolución del hielo antártico o el incremento en la frecuencia de sucesos extremos no son tan robustas (Gettelman & Rood 2016).
Otro ejemplo de predicción robusta nos lo aporta la estimación de la sensibilidad climática, es decir, del cambio de temperatura en respuesta a una duplicación de la concentración de CO2. El AR5 ha establecido que más de dos tercios de los modelos climáticos determinan que la sensibilidad climática está entre 1.5 y 4.5 ºC, aunque ese rango ha permanecido prácticamente sin cambios desde la estimación de Charney y su equipo en 1979, como consecuencia de la ignorancia del efecto de los aerosoles y los procesos de formación de nubes en un planeta más caliente.
Ahora bien, los resultados que producen los modelos computarizados son básicamente simulaciones con un importante componente de incertidumbre que debe evaluarse. En el AR5 se aporta un tratamiento binario de la incertidumbre en términos cuantitativos y cualitativos, de probabilidad y confianza, respectivamente. Por ejemplo: “en el hemisferio norte, es probable que el periodo 1983-2012 haya sido el periodo de treinta años más cálido de los últimos 1400 años (nivel de confianza medio)” (IPCC 2013b 5). Esto quiere decir que este resultado tiene una probabilidad basada en la evidencia de al menos el 66 % y se emite, con esa probabilidad, con una evaluación media del acuerdo o consenso científico respecto a él. Según el IPCC (2013b), la confianza en la validez de un resultado (cuantificado probabilísticamente) se da cualitativamente y toma en consideración la evidencia disponible y el nivel de acuerdo.
El problema es que probabilidad y confianza no aparecen siempre bien diferenciadas, porque para el IPCC la probabilidad de un resultado, que se expresa cuantitativamente, es fruto del análisis estadístico de las observaciones, los resultados de los modelos o bien del juicio del experto. Pero, con esto último, el IPCC confunde probabilidad y confianza, es decir, cuándo pueden asignarse probabilidades numéricas empleando métodos estadísticos y cuándo residen en un juicio de expertos, al igual que la confianza (Curry & Webster 2011). Hay, por consiguiente, dificultad en hacer una interpretación común de la noción de probabilidad empleada por el IPCC.
Que el 90 % de los (veintitantos) modelos climáticos globales predigan cierto resultado no puede confundirse con que la probabilidad del resultado sea 0.9 (ofreciendo una imagen de falsa precisión). Ese porcentaje no quiere decir que la frecuencia de ocurrencia del suceso en la realidad sea de 9 de cada 10, sino que se presenta en 9 de cada 10 simulaciones ejecutadas por el conjunto de modelos. Porque un ensemble de modelos no constituye una muestra aleatoria simple extraída de un hipotético espacio de todas las estructuras modélicas posibles (lo que al menos permitiría hablar, en la interpretación frecuentista, de un 90 % de confianza). Las diferentes simulaciones de un mismo modelo, en que se perturban las condiciones iniciales o los parámetros, no son independientes entre sí. Tampoco son independientes entre sí los diferentes modelos globales, porque, aunque desarrollados por equipos distintos, suelen compartir módulos (Knutti 2008). Como reconoce el IPCC:
The sample size of MMes [Multi-Model Ensembles] is small, and is confounded because some climate models have been developed by sharing model components leading to shared biases. Thus, MMe members cannot be treated as purely independent (IPCC 2013a 753).
Pese a ello, en los ensembles multimodelo se calcula la media de los diferentes resultados de los modelos, sin considerar con cuántas simulaciones contribuye cada modelo o cómo son de interdependientes (IPCC 2013a).14 El rango de resultados no puede tomarse, por tanto, como una exploración de todos los resultados posibles (Knutti 2010).
Si el conjunto de modelos no es independiente entre sí, la robustez de un resultado carece a priori de valor gnoseológico, puesto que el acuerdo entre modelos puede estar causado más por su dependencia mutua que por la verdad del resultado. En el fondo, los científicos del clima trabajan con ensembles de oportunidad, que incorporan todos los modelos disponibles presuponiendo que los diferentes modelos son lo suficientemente distintos entre sí como para explorar las incertidumbres asociadas no solo a las condiciones iniciales sino también a los parámetros y las condiciones de contorno (Santos Burguete 2018).
En suma, la asignación de probabilidades, siguiendo el principio de que a mayor coincidencia entre simulaciones, menor incertidumbre en la predicción, determina en el mejor de los casos una probabilidad bayesiana objetiva. Sin embargo, cuando en la cuantificación se introduce también el juicio de los expertos, se obtiene una probabilidad bayesiana subjetiva, que valora una creencia. Se trata, por tanto, de “una aplicación informal de los conceptos bayesianos” (Schmidt & Sherwood 2015 159), sin considerar exactamente priores y verosimilitudes ni calcular distribuciones a posteriori.
Prudentemente, desde el 2001 el IPCC prefiere emplear el término proyección al de predicción para referirse a los resultados de las simulaciones, dado que cada simulación depende esencialmente de una serie de supuestos que definen un escenario, relativo a cómo va a evolucionar la cuantía de las emisiones de geI dependiendo de la economía o la población mundial. Las proyecciones son predicciones condicionadas a escenarios que caracterizan la evolución de algunos forzamientos radiativos. A la incertidumbre en la observación de las condiciones iniciales y a la incertidumbre en la implementación de las condiciones de contorno y los parámetros del modelo, se añade para la proyección climática a largo plazo, a finales de siglo, la incertidumbre asociada a los escenarios. Mientras que la incertidumbre en las condiciones iniciales domina a corto plazo, la incertidumbre asociada a los escenarios domina a largo plazo, al tiempo que la incertidumbre en las condiciones de contorno y los parámetros opera a cualquier escala temporal (Santos Burguete 2018).
Finalmente, otra fuente de incertidumbre relacionada con los modelos climáticos y la predicción tiene que ver con la variable espacial más que con la variable temporal. Nos referimos a las proyecciones regionales —no ya globales— de cambio climático.
La resolución aproximada del modelo en un tiempo de cómputo razonable exige la consideración de una malla espacial no excesivamente fina, con la artificialidad que eso conlleva (una extensión como la Península Ibérica, por ejemplo, queda cubierta por poco más de unas cinco docenas de celdas). Cuando los modelos se dejan correr, se asume que los valores globales del estado futuro del sistema climático serán similares a los valores medios arrojados por los modelos, pero no puede asegurarse que los valores locales coincidan, como consecuencia del caos y otras fuentes de incertidumbre. Estas insuficiencias dificultan el análisis a nivel regional del cambio climático y sus impactos.
Para reducir la incertidumbre asociada a las proyecciones regionales, los científicos emplean dos grupos de técnicas de reducción de escala (downscaling). El downscaling dinámico opera aumentando la resolución espacial de los modelos globales. Por su parte, el downscaling estadístico combina las predicciones de los modelos dinámicos globales con el uso de modelos estadísticos empíricos o semiempíricos: mediante el modelo global se predice el valor futuro de una variable global y, posteriormente, mediante el modelo estadístico, se estima, a partir de ese valor, el valor futuro de la variable local bajo estudio, basándose en la relación estadística entre ambas en el presente, aunque esta metodología depende de que los datos estadísticos accesibles sean representativos y la estimación no suponga una extrapolación excesiva (Gettelman & Rood 2016).
9. CALIBRACIÓN Y EVALUACIÓN DE LOS MODELOS CLIMÁTICOS
Las incertidumbres inherentes a la representación que los modelos hacen de los distintos procesos climáticos —como acoplamientos y forzamientos— pueden agruparse bajo el rótulo incertidumbre estructural. A pesar de que reproduzcan las tendencias climáticas del periodo de evaluación (1880-hoy), puede que los modelos no representen correctamente la dinámica del clima. Los científicos se encuentran, a propósito de la verdad que cabe atribuir a los modelos climáticos, con el debate sobre el realismo científico.
Toda verificación o validación de la estructura de los modelos es inherentemente parcial, a riesgo de caer en la falacia de la afirmación del consecuente, porque de que el modelo M implique el resultado H y se observe H, no se puede concluir la verdad de M(Oreskes et ál. 1994). Del hecho de que el modelo reproduzca fracciones de climas pasados o se confirme algún pronóstico, no se puede concluir que las ecuaciones representen fielmente el clima real, porque más de un modelo puede producir esas salidas, a la manera que más de una curva puede pasar por una serie de puntos dados. Es el problema de la infradeterminación empírica de los modelos. Varios modelos pueden ser empíricamente equivalentes pero lógicamente incompatibles, porque representan determinados procesos físicos de modos diferentes.
Además, cabe la posibilidad de que el éxito se deba a una razón falsa, a una compensación de errores o a la calibración de los parámetros. Dejando aparte la circunstancia de que el modelo puede acertar por una cancelación de errores (que antes o después se descubriría al probar el modelo en condiciones diferentes), vamos a centrarnos en el delicado problema de la calibración (tuning) de los parámetros del modelo. Los científicos del clima ajustan los parámetros con las series observadas, de modo que los datos del siglo XX son usados tanto para calibrar el modelo como para confirmarlo, en lo que parece un ejercicio de “doble contabilidad” (Frigg et ál. 2020 secc. 5). Se trata de un procedimiento insatisfactorio pero funcional hasta cierto punto, pues fuerza la adecuación empírica. El IPCC reconoce que
With very few exceptions modelling centres do not routinely describe in detail how they tune their models. Therefore the complete list of observational constraints toward which a particular model is tuned is generally not available. […] Model tuning directly influences the evaluation of climate models, as the quantities that are tuned cannot be used in model evaluation (IPCC 2013a 749-750).
Cabe preguntarse, entonces, hasta qué punto la adecuación empírica de los modelos se debe a la correcta representación de los procesos climáticos o al ajuste ad hoc de sus parámetros: “Agreement with observations is often (and maybe misleadingly) used to demonstrate progress even if it might partly result from tuning or compensating errors” (Knutti 2010 400).
El calibrado de los parámetros puede enmascarar problemas fundamentales en la estructura del modelo. Por ejemplo, el ajuste a la amplitud del calentamiento observado durante el siglo XX puede hacerse, o bien retocando la sensibilidad climática, o bien retocando el forzamiento radiativo. En la primera opción, si se aumenta la sensibilidad climática, puede sobreestimarse el calentamiento global futuro. Por contra, en la segunda opción, si se aumenta el forzamiento radiativo total, puede subestimarse el futuro calentamiento (Hourdin et ál. 2017).
Este inconveniente, unido a que los modelos climáticos presentan una modularidad difusa (los diferentes módulos —para la circulación de la atmósfera, la dinámica de los océanos, etc.— funcionan entrelazados), acarrea, para Lenhard y Winsberg (2010), que el holismo permeé la ciencia del clima (un ejemplo lo proporciona el calibrado del incremento de la temperatura global durante el siglo XX antes mencionado). De acuerdo con la tesis de Duhem-Quine, los científicos pueden retocar los modelos en diferentes puntos para que salven los fenómenos, pero no pueden saber en principio en qué módulo está el fallo.
A resultas de esto, el IPCC se decanta por hablar más de la evaluación de modelos que de su validación o verificación, es decir, de su confrontación directa con la realidad.15 Esta evaluación consiste en una comparación entre los modelos disponibles, respecto a la simulación de la época preindustrial o la época actual, la estimación de la sensibilidad climática y las proyecciones para el siglo XXI. Pero, como señala Edwards, “the relatively greater agreement among climate models used in the IPCC reports could conceivably be due to questionable parameterization and tuning practices” (2010 355), aunque ciertamente “the models that plausibly reproduce the past, universally display significant warming under increasing greenhouse gas concentrations, consistent with our physical understanding” (IPCC 2013a 750).
Se constatan así las limitaciones del falsacionismo esgrimido por algunos científicos del clima cuando filosofan sobre su quehacer: “If a prediction produced by a model is shown to be in conflict with measurements, then the model itself can be said to have been falsified” (Randall & Wielicki 1997 403). Los modelos climáticos no se someten a severas contrastaciones empíricas que puedan refutarlos, sino que rutinariamente se parchean buscando reproducir las observaciones recalcitrantes, circunstancia que algunos científicos en activo reconocen (Schmidt & Sherwood 2015).
Los modelos climáticos están cargados de datos, pero unos datos, como vimos, que dependen a su vez de modelos: los datos hacen los modelos y los modelos hacen los datos (Edwards 2010). Los modelos se construyen con datos, pero, bidireccionalmente, los datos se interpretan gracias a los modelos. La imagen que emerge de esta simbiosis encaja, a nuestro entender, con la imagen circularista de la actividad científica descrita por Gustavo Bueno (1992b), Ian Hacking (1992) o Andrew Pickering (1995), donde los modelos, las observaciones y los instrumentos de medida se acoplan mutuamente, en una dialéctica de resistencia-acomodación.
Pero, incluso cuando los modelos son consistentes con todos los datos climáticos presentes, hay que asumir que las ecuaciones y las parametrizaciones pueden ser extrapoladas más allá del rango de evaluación. No hay garantía —solo confianza— de que concuerden con los datos futuros (Schmidt & Sherwood 2015). La razón fundamental para esta inducción pesimista es, a nuestro juicio, que la aplicación de los argumentos más fuertes a favor del realismo científico, que se relacionan con la intervención y la práctica experimental (tal y como ésta se da en tramos de la física, la química o la biología molecular), está vedada en el campo de las ciencias del cambio climático.
Las herramientas de que disponen los climatólogos para estudiar el clima global son principalmente la modelización matemática y la simulación mediante supercomputadoras, lo que define a la ciencia del cambio climático como una ciencia de modelos, antes teórica y observacional que práctica y experimental (más parecida, en este sentido, a la cosmología que a la física del estado sólido). Los modelos climáticos son, en esencia, herramientas para tratar de comprender el clima, explicando ciertos fenómenos y proyectando otros. La presencia de parametrizaciones pone de relieve que el estatuto gnoseológico de los modelos climáticos está más próximo al instrumentalismo que al realismo, ya que no se construyen exclusivamente sobre la base de la física o la química asentadas.
Además, una simulación no es un experimento, sino un sustituto del experimento, ya que en ella no manipulamos las cosas mismas sino líneas de código, mediante las cuales se persigue reproducir un proceso mediante otro proceso de naturaleza numérica. En las simulaciones no se manejan entidades reales sino entidades matemáticas (o, más bien, en silicio), lo que impide referirse a las simulaciones como verdaderos experimentos, a riesgo de confundir el simulacro con la realidad.16 Estamos ante un debatido estilo de hacer ciencia, basado en las simulaciones, más allá de la díada clásica teorización-experimentación (Petersen 2012).
CONCLUSIONES
Los modelos climáticos indican que el calentamiento global no puede explicarse solo por factores naturales, siendo los GEI antropogénicos la causa más importante del cambio climático. Sin embargo, en ciertos aspectos, el conocimiento es todavía incompleto. Hay diversas fuentes de incertidumbre, relacionadas con problemas clásicos de la filosofía de la ciencia (carga teórica de la observación, infradeterminación empírica de los modelos, entre otros), a las que los científicos se enfrentan. A lo largo del artículo hemos distinguido tres clases. En primer lugar, una incertidumbre de valores u observacional, pues los datos extraídos de series instrumentales o de datos proxy de la temperatura, la concentración de CO2 y otras variables, que funcionan como inputs de los modelos, pueden ser escasos o inexactos para ciertas regiones del mundo e intervalos de tiempo. En segundo lugar, una incertidumbre estructural, dado que la modelización de procesos clave (como acoplamientos, forzamientos y parametrizaciones), así como la resolución numérica, puede ser excesivamente simple e imperfecta. Y, en tercer lugar, una incertidumbre temporal, ligada a la presencia del caos determinista y la dependencia de las proyecciones de los escenarios.
Por último, conectando la filosofía de la ciencia con la ontología, terminamos apuntando cómo las diversas ciencias del cambio climático han determinado eso que hoy llamamos sistema climático global o, simplemente, clima global, una noción aceptada por la Organización Meteorológica Mundial en 1975. En la Tierra no hay un único clima sino una pluralidad, un mosaico de climas muy diferentes, de igual modo que no hay un cambio climático que afecte a todas las regiones del planeta por igual. No obstante, los científicos, gracias a la construcción de una red meteorológica mundial de estaciones, boyas y satélites orbitando alrededor de la esfera terrestre (la World Weather Watch de la WMO), así como al diseño de una jerarquía de modelos climáticos con cada vez más acoplamientos, nos han puesto ante esa nueva realidad interconectada que es el clima global (Bueno 1992b;Morton 2013).
TRABAJOS CITADOS
Álvarez Muñoz, Evaristo. Filosofía de las ciencias de la tierra. Oviedo: Pentalfa, 2004.
Brohan, Philip et ál. “Uncertainty Estimates in Regional and Global Observed Temperature Changes: A New Data Set from 1850”. Journal of Geophysical Research 111 (2006): D12106. https://doi.org/10.1029/2005JD006548
Bueno, Gustavo. “En torno a la doctrina filosófica de la causalidad”. Revista Meta 1 (1992a): 207-227.
Bueno, Gustavo. Teoría del cierre categorial. Oviedo: Pentalfa, 1992b.
Callendar, Guy S. “The Artificial Production of Carbon Dioxide and Its Influence on Temperature”. Journal of the Royal Meteorological Society 64.275 (1938): 223-240. https://doi.org/10.1002/qj.49706427503
Cartwright, Nancy. How the Laws of Physics Lie. Oxford: Clarendon Press, 1983.
Cartwright, Nancy. The Dappled World. Cambridge: Cambridge UP, 1999
Curry, Judith A. y Peter J. Webster. “Climate Science and the Uncertainty Monster”. Bulletin of the American Meteorological Society 92.12 (2011): 1667-1682. https://doi.org/10.1175/2011BAMS3139.1
Edwards, Paul N. A Vast Machine. Computer Models, Climate Data, and the Politics of Global Warming. Massachusetts: MIT Press, 2010.
Essex, Cristopher et ál. “Does a Global Temperature Exist?” Journal of Non-Equilibrium Thermodynamics 32.1 (2007): 1-27. https://doi.org/10.1515/JNETDY.2007.001
Fleming, James R. “Joseph Fourier, the ‘Greenhouse Effect’, and the Quest for a Universal Theory of Terrestrial Temperatures”. Endeavour 23.2 (1999): 72-75. https://doi.org/10.1016/S0160-9327(99)01210-7
Frank, David et ál. “A Noodle, Hockey Stick, and Spaghetti Plate: a Perspective on High-Resolution Paleoclimatology: A Noodle, Hockey Stick, and Spaghetti Plate”. WIRES Climate Change 1.4 (2010): 507-516. https://doi.org/10.1002/wcc.53
Frigg, Roman, Seamus Bradley, Hailiang Du y Leonard Smith. “Laplace’s Demon and the Adventures of His Apprentices”. Philosophy of Science 81.1 (2014): 31-59. https://doi.org/10.1086/674416
Frigg, Roman, Richard Bradley, Katie Steele, Erica Thompson y Charlotte Werndl. “The Philosophy of Climate Science”. Internet Encyclopedia of Philosophy, 2020. https://iep.utm.edu/climate/
Gettelman, Andrew y Richard B. Rood. Demystifying Climate Models. A Users Guide to Earth System Models. Switzerland: Springer, 2016.
Hacking, Ian. “The Self-Vindication of the Laboratory Sciences”. Science as Practice and Culture. Ed. A. Pickering. Chicago: Chicago uP, 1992. 29-64.
Hourdin, Frédéric et ál. “The Art and Science of Climate Model Tuning”. Bulletin of the American Meteorological Society (2017): 589-602. https://doi.org/10.1175/BAMS-D-15-00135.1
Intergovernmental Panel on Climate Change [IPCC]. Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge: Cambridge UP, 2013a.
Intergovernmental Panel on Climate Change [IPCC]. Resumen para responsables de políticas. Resumen técnico. Cambridge: Cambridge UP, 2013b.
Kalnay, Eugenia y Ming Cai. “Impact of Urbanization and Land-Use Change on Climate”. Nature 423 (2003): 528-531. <https://10.1038/nature01675>
Katzav, Joel. “Hybrid Models, Climate Models, and Inference to the Best Explanation”. The British Journal for the Philosophy of Science 64.1 (2013): 107-129. https://doi.org/10.1093/bjps/axs002
Knutti, Reto. “Should We Believe Model Predictions of Future Climate Change?” Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences 366.1885 (2008): 4647-4664. https://doi.org/10.1098/rsta.2008.0169
Knutti, Reto. “The End of Model Democracy?” Climatic Change 102 (2010): 395-404. https://doi.org/10.1007/s10584-010-9800-2
Lenhard, Johannes y Eric Winsberg. “Holism, Entrenchment, and the Future of Climate Model Pluralism”. Studies in History and Philosophy of Modern Physics 41.3 (2010): 253-262. https://doi.org/10.1016/j.shpsb.2010.07.001
Lloyd, Elisabeth. “Varieties of Support and Confirmation of Climate Models”. Proceedings of the Aristotelian Society, Supplementary Volumes 83 (2009): 213-232. https://www.jstor.org/stable/20619136
Madrid Casado, Carlos M. La mariposa y el tornado. Teoría del caos y cambio climático. Barcelona: rba, 2011.
Mann, Michael E. et ál. “Global-Scale Temperature Patterns and Climate Forcing Over the Past Six Centuries”. Nature 392.6678 (1998): 779-787. https://doi.org/10.1038/33859
Marcott, Shaun A. et ál. “A Reconstruction of Regional and Global Temperature for the Past 11,300 Years”. Science 339.6124 (2013): 1198-1201. <https://10.1126/science.1228026>
McIntyre, Stephen y Ross McKitrick. “Corrections to the Mann et al. (1998) Proxy Data Base and Northern Hemispheric Average Temperature Series”. Energy & Environment 14.6 (2003): 751-771. https://doi.org/10.1260/095830503322793632
Morton, Timothy. Hyperobjects: Philosophy and Ecology after the End of the World. Minnesota: Minnesota UP, 2013.
Nabergall, Lukas, Alejandro Navas y Eric Winsberg. “An Antidote for Hawkmoths: on the Prevalence of Structural Chaos in Non-Linear Modeling”. European Journal for Philosophy of Science 9.2 (2019): 1-28. https://doi.org/10.1007/s13194-018-0244-2
Norton, Stephen y Frederick, Suppe. “Why Atmospheric Modeling is Good Science”. Changing the Atmosphere: Expert Knowledge and Environmental Governance. Eds. Clark Miller y Paul Edwards. Cambridge: MIT Press, 2001. 88-133. https://doi.org/10.7551/mitpress/1789.003.0006
Oreskes, Naomi et ál. “Verification, Validation, and Confirmation of Numerical Models in Earth Sciences”. Science 263.5147 (1994): 641-646. <https://10.1126/science.263.5147.641>
Palmer, Tim. “Global Warming in a Nonlinear Climate - Can We Be Sure?” Europhysics News 36.2 (2005): 42-46. https://doi.org/10.1051/epn:2005202
Parker, Wendy S. “Climate Science”. The Stanford Encyclopedia of Philosophy. Ed. Edward N. Zalta. 2018. https://plato.stanford.edu/archives/sum2018/entries/climate-science/
Petersen, Arthur C. Simulating Nature: A Philosophical Study of Computer-Simulation Uncertainties and Their Role in Climate Science and Policy Advice. Florida: CrC Press, 2012.
Pickering, Andrew. The Mangle of Practice: Time, Agency and Science. Chicago: Chicago UP, 1995.
Podgorny, Irina. “La Tierra en el laboratorio: las ciencias de la Tierra en el siglo XX”. Filosofía de las ciencias naturales, sociales y matemáticas. Ed. Ana Estany. Madrid: Trotta, 2005. 129-162.
Randall, David A. y Bruce A. Wielicki. “Measurements, Models, and Hypotheses in the Atmospheric Sciences”. Bulletin of the American Meteorological Society 78.1 (1997): 399-406. https://journals.ametsoc.org/view/journals/bams/78/3/1520-0477_1997_078_0399_mmohit_2_0_co_2.xml
Rohde, Robert et ál. “A New Estimate of the Average Earth Surface Land Temperature Spanning 1753 to 2011”. Geoinformatics & Geostatistics: an Overview 1.1 (2013): 1. <https://10.4172/2327-4581.1000101>
Santos Burguete, Carlos, Ed. Física del caos en la predicción meteorológica. Madrid: AEMET, 2018.
Schmidt, Gavin. “nasa Climatologist Gavin Schmidt Discusses the Surface Temperature Record”. nasa, 2010. https://www.nasa.gov/topics/earth/features/gavin-schmidt.html
Schmidt, Gavin A. y Steven Sherwood. “A Practical Philosophy of Complex Climate Modeling”. European Journal Philosophy of Science 5.1 (2015): 149-169. https://doi.org/10.1007/s13194-014-0102-9
Solanki, Sami Khan y Natalie Krivova. “Can Solar Variability Explain Global Warming Since 1970?” Journal of Geophysical Research 108.5 (2003): 71-78. <https://10.1029/2002JA009753>
Storch, Hans von et ál. “Reconstructing Past Climate from Noisy Data”. Science 306 (2004): 679-682.
Stott, Lowell D. et ál. “Deep Sea Temperatures Warmed before Atmospheric CO2 and Tropical Temperatures Began to Rise at the Last Glacial Termination”. Science 318 (2007): 435.
Thompson, Erica. Modelling North Atlantic Storms in a Changing Climate. PhD diss. Imperial College, 2013.
Werndl, Charlotte. “On Defining Climate and Climate Change”. The British Journal for the Philosophy of Science 67.2 (2016): 337-364. <https://10.1093/bjps/axu048>
Winsberg, Eric. Philosophy and Climate Science. Cambridge: Cambridge UP, 2018.
Winsberg, Eric. “Computer Simulations in Science”. The Stanford Encyclopedia of Philosophy. Ed. Edward N. Zalta. 2019. https://plato.stanford.edu/archives/win2019/entries/simulations-science/
World Meteorological Organization [WMO]. Guide to Climatological Practices. Genova: WMO, 2011.
Notas
Enlace alternativo
https://revistas.unbosque.edu.co/index.php/rcfc/article/view/3193/2907 (pdf)