RESUMEN: En este artículo se utiliza la tipología de Dudley Shapere de los problemas científicos para clasificar y analizar las principales preguntas de la física en la transición del siglo XIX al XX. Se exploran las concepciones de espacio, campo, entropía, éter, energía y materia en las décadas previas a la llegada de la relatividad y la mecánica cuántica. Así, se recorren las ideas de Poincaré, Faraday, Boltzmann, Maxwell, Helmholtz y Lorentz, entre otros, para comprender las condiciones epistemológicas del cambio de siglo y evaluar, a la vez, las virtudes y defectos de la tipología shapereana.
Palabras clave: cambio científico, problemas conceptuales, física, siglo XIX, Shapere.
ABSTRACT: In this paper, Dudley Shapere’s typology of scientific problems is applied to classify and analyse the main questions of physics in the transition form 19th to 20th century. A variety of conceptions of space, field, entropy, ether, energy, and matter are explored, all of them proposed during the previous decades to the arrival of Relativity and Quantum Mechanics. Ideas of Poincaré, Faraday, Boltzmann, Maxwell, Helmhotlz and Lorentz, among others, allow us understand the epistemological conditions in the late 19th century, and evaluate, at the same time, the virtues and limitations of Shapere’s typology.
Keywords: scientific change, conceptual problems, physics, 19th century, Shapere.
Artículos
La evolución de los conceptos de la física del siglo xix: un análisis a partir de la tipología de Shapere
The Conceptual Evolution of 19th Century Physics: An Analysis Based On Shapere’s Typology
Recepción: 12 Febrero 2021
Aprobación: 02 Julio 2021
Publicación: 29 Junio 2022
El surgimiento de la teoría de la relatividad y de la mecánica cuántica, a principios del siglo pasado, marcaron el inicio de la física contemporánea. A primera vista, estas teorías representaron una abrupta ruptura con buena parte de la tradición clásica de los siglos XVIII y XIX de origen newtoniano. No obstante, la historia es mucho más compleja. Durante el siglo XIX surgieron un conjunto de teorías y conceptos para describir los fenómenos físicos estudiados en la época, los cuales no pertenecían propiamente al esquema newtoniano ni se derivaban directamente de él, aunque tampoco estaban en franca ruptura con este. La teoría electromagnética de James Clerk Maxwell, la mecánica estadística de Ludwig Boltzmann, los desarrollos en la geometría y las transformaciones de Hendrik Antoon Lorentz, por ejemplo, presentaron cierta continuidad y hasta consolidación de la física que se venía desarrollando durante los siglos XVII y XVIII, al tiempo que establecieron las bases para la física contemporánea. Analizar estos desarrollos, utilizando instrumentos teóricos, resulta de interés para comprender dichos cambios científicos.
En filosofía de la ciencia es común reconstruir la transición de la física clásica del siglo XIX a la física cuántica y relativista del siglo XX, aludiendo al hecho de que las nuevas teorías resolvían anomalías.1 En el caso de la relatividad, el perihelio anómalo de Mercurio recibió una explicación más convincente y precisa con la curvatura del espacio-tiempo debida a la presencia del Sol; en el caso de la mecánica cuántica, los cuantos de energía ofrecieron la comprensión del mundo subatómico que la continuidad no conseguía brindarle. Aquí constataremos que una anomalía resuelta, no obstante, es insuficiente para generar el reemplazo de una teoría. Como es bien sabido en los estudios de la ciencia, el que una segunda teoría sea capaz de resolver un problema que una teoría anterior fallaba en resolver no siempre ha implicado que la nueva teoría suplante a la vieja.2 Los procesos de cambio científico suelen ser más complejos y paulatinos.
Entonces, cabe preguntarse, en el contexto del cambio de la física decimonónica a la del siglo XX: además de la resolución de las anomalías asociadas al perihelio de Mercurio y al cuerpo negro, ¿qué otros problemas se solucionaron con la física contemporánea? ¿Qué elementos determinan las transformaciones en el cambio de siglo? El objetivo del presente artículo es responder a algunos de estos cuestionamientos. Para ello, analizaremos la capacidad de resolución de problemas de las teorías en juego, utilizando la tipología de problemas o “inadecuaciones científicas” que el filósofo de la ciencia Dudley Shapere propuso en 1985. Aquí es donde radica la originalidad de nuestra aportación, ya que si bien reconocemos que se han escrito otros artículos y libros sobre la transición de la física clásica a la contemporánea, muchos de ellos tienen exclusivamente un enfoque histórico y, que las autoras sepamos, ninguno aplica como el presente artículo las herramientas de la filosofía de la ciencia shapereana para hacer un balance de las continuidades y discontinuidades entre la tradición que se venía desarrollando con el modelo newtoniano y las que surgieron a principios del siglo XX.
Nuestro artículo estará estructurado de la siguiente manera: En la sección 2 presentaremos la tipología shapereana de problemas científicos. En la sección 3 llevaremos a cabo el ejercicio de enlistar varios de los problemas de la física de finales del siglo XIX y daremos algunas pistas sobre cómo es que fueron resueltos. La sección 4 estará dedicada a clasificar y analizar dichos problemas usando la tipología de Shapere. Por último, en la sección 5, se enfatizará la transición hacia la física actual y se presentarán nuestras consideraciones finales respecto a la visión shapereana de la ciencia.
La clasificación que presentaremos a continuación fue propuesta por Dudley Shapere en el artículo de 1985 “Objectivity, rationality and scientific change”. Como preámbulo a la clasificación, el autor define lo que entenderá por áreas de investigación científica o dominios y lo que entenderá por teoría científica:
Un dominio es un conjunto de elementos de información plausible que tienen las siguientes características:
a. Los elementos están asociados con base en una supuesta relación que se mantiene entre ellos;
b. Existe una problemática en torno al cuerpo de información;
c. La problemática es importante; [Y] se espera que una teoría dé cuenta de los elementos del dominio, de una manera completa y satisfactoria. (Shapere 1985 641, traducción propia)
Esta definición de los dominios muestra que Shapere concibe la ciencia como una actividad guiada por la motivación humana de resolver problemáticas específicas: ¿cómo está compuesta la materia?, ¿qué mecanismos definen la transmisión de genes?, ¿cómo se dan los enlaces entre átomos?, ¿qué determina la coloración del mar?, ¿cómo garantizar la efectividad de una vacuna? Son precisamente esas problemáticas las que van definiendo los dominios de la ciencia en agrupaciones de elementos que resultan relevantes para resolverlas.
Los dominios presentan una variedad de problemas que, siguiendo al autor, se pueden sistematizar en las siguientes clases:
I. Problemas de dominio. Son aquellos que conciernen al objeto de investigación y hay tres subtipos principales:
I.a. Completud del dominio: pueden existir razones para suponer que la lista de elementos en el dominio está incompleta, como ocurría con los huecos en la tabla periódica, los cuales sugerían la existencia de elementos desconocidos.
I.b. Descripción del dominio: estos problemas tienen que ver con qué tantos detalles se han podido especificar de los elementos del dominio o con cuánta precisión se ha conseguido medirlos.
I.c. Coherencia del dominio: se trata de qué tan claro está un enfoque unificado respecto a todos los elementos del dominio o si existe algún elemento cuya pertenencia al dominio esté en duda. Estos problemas nos muestran que la identificación de un dominio es siempre revisable a la luz de nuevos descubrimientos. Quizás ese elemento que no encaja puede derivar en la subdivisión de un dominio en dos distintos.
II. Problemas de éxito teórico: se espera que una teoría especifique las características de todos los elementos de un dominio de manera precisa. No deben incluirse en la teoría entidades ni propiedades cuya existencia no se haya encontrado tras una búsqueda cuidadosa.
Se dice que una teoría es exitosa si cumple con estos requisitos. Vemos, por tanto, que el éxito de las teorías se juzga con respecto a su dominio. Además de qué tan bien da cuenta de su dominio, una teoría puede tener otros subtipos de problemas que llamaremos:
III. Problemas de adecuación teórica:
III.a. Consistencia teórica: cuando, a pesar de ser exitosa, la teoría presenta contradicciones internas o incoherencias.
III.b. Completud teórica: cuando presenta problemas, ya no sobre la completud de la teoría con respecto a su dominio, sino sobre otro tipo de ambigüedades o vaguedades respecto a la mejor formulación de la teoría, arbitrariedad de parámetros fundamentales o incluso la necesidad de una teoría más profunda.
III.c. Afirmaciones sobre la realidad: cuando tenemos buenas razones para suponer que la teoría propuesta es “irreal” en el sentido de “poco-realista”, por ejemplo, cuando la teoría es aplicable solamente a cuerpos esféricos cuya interacción con el medio es despreciable.
III.d. Comparabilidad interteórica: cuando una teoría no es compatible ni derivable de otra teoría que esperaríamos que fuera igualmente válida.
La naturaleza del espacio es uno de los temas que más ocupó a los científicos decimonónicos. Les interesaba entender cuál era su estructura, si había alguna razón específica para su tridimensionalidad y, por supuesto, si estaba primordialmente lleno de materia o estaba vacío. Para abordar el tema del espacio, presentaremos las perspectivas que se planteaban en aquella época desde dos disciplinas distintas: física y geometría.
En física las reflexiones y problemáticas en torno al espacio durante el siglo XIX ocurrieron en varias direcciones. El éxito de la teoría newtoniana implicaba la aceptación implícita del espacio absoluto, no obstante, su ausencia en la física práctica ocasionará que dicho concepto comience a ser problematizado. Como afirma Max Jammer,
Es interesante señalar cuán poco fue afectado el desarrollo real de la ciencia de la mecánica, por las consideraciones generales sobre la naturaleza del espacio absoluto. Ninguno de los grandes autores franceses que escribieron sobre mecánica —Lagrange, Laplace y Poisson— estuvo muy interesado en el problema del espacio absoluto. Todos ellos aceptaron la idea como una hipótesis de trabajo, sin preocuparse por su justificación teórica. Al leer las introducciones de sus obras, se descubre que ellos tenían la sensación de que la ciencia se las podía arreglar muy bien sin hacer consideraciones generales sobre el espacio absoluto (1954 179).
Por otro lado, buena parte de los físicos recibieron cierta influencia de la estética trascendental de Inmanuel Kant e interpretaron frecuentemente el espacio como una intuición universal que organizaba el modo en que percibimos los objetos o variaciones de dicha idea (Jammer 1954 176-179).
Como veremos a continuación, tanto el compromiso con la tradición newtoniana, como el carácter kantiano de la geometría se van a transformar. En primer lugar, en términos prácticos, la mecánica no es afectada por el concepto de espacio absoluto: figuras tan relevantes como Joseph-Louis Lagrange o Pierre-Simon Laplace lo toman como hipótesis de trabajo, como afirma Jammer. Es decir, muestran cierto desinterés por la cuestión, ya que el conocimiento y la descripción del espacio en la física es relativo a los cuerpos. Como el espacio absoluto es empíricamente inaccesible, en las descripciones usamos lugares relativos, de los cuales este es su representante simbólico, ya que, como dice Jean Eisenstaedt, lo relativo remite a lo absoluto, y los lugares relativos son los marcos de referencia inerciales. Si un cuerpo está libre de fuerza respecto a un marco de referencia inercial, se encuentra en reposo o en movimiento rectilíneo uniforme. Pero si existe un marco de referencia así, hay una infinidad de ellos, todos son equivalentes y en conjunto definen el espacio absoluto: “[L]a ley fundamental de la mecánica es válida en espacios absolutos y es la misma en todos los marcos de referencia inerciales” (Eisenstaedt 2005 22-24). De tal forma, ya no es necesario ese marco de referencia inmóvil y fundamental según el cual el movimiento es absoluto, basta con que consideremos el conjunto de los marcos de referencia inerciales.
Ya en la segunda mitad del siglo XIX, la ausencia práctica del espacio absoluto se hace explícita en la bien conocida crítica de Ernst Mach a Isaac Newton, en la que propone que la suposición del espacio absoluto es innecesaria (Jammer 1954 182-184). Siguiendo los pasos del empirismo de David Hume, Mach argumenta que, una vez que decidimos conservar únicamente aquello que podamos demostrar empíricamente, reconocemos que el tiempo y el espacio absolutos son “ficciones metafísicas” que deben, por tanto, abandonarse.
De hecho, ya el matemático, físico, filósofo e ingeniero Henry Poincaré dice que quien habla de espacio absoluto emplea un término sin significado. En el libro Ciencia e hipótesis (2002) escribe que no existe un espacio absoluto, pues solo concebimos movimientos relativos. Al mismo tiempo, en una conferencia insiste en la validez del principio de relatividad “según el cual las leyes de los fenómenos físicos deben ser los mismos para un observador fijo que para uno en movimiento rectilíneo uniforme, sin poder discernir si estamos en dicho movimiento” (Eisenstaedt 2005 225).6 De esta forma podemos percibir cierto debilitamiento del concepto de espacio absoluto, fundamentalmente porque dicho concepto no representa ninguna manifestación empírica o consecuencia práctica.
Durante el siglo XIX surgen tanto las geometrías no euclideanas como las denominadas geometrías curvas a raíz de eliminar el quinto postulado sobre las líneas paralelas (Carl Friedrich Gauss, Nicolai Lobachevski, Janos Bolyai),7 y eventualmente se suscitó la idea de que no había método para decidir lógica o matemáticamente la geometría del espacio físico, de tal manera que se abre la posibilidad de que esta fuera distinta a la euclidiana.
Ahora bien, la relevancia de la geometría no euclidiana para cuestionar la estructura del espacio físico se muestra más claramente a partir de Bernhard Riemann (1978). Él generalizó el concepto de distancia,8 y con ello construyó un concepto más general del espacio, con curvatura, para lo cual supuso que el concepto de distancia era intrínseco al espacio. Más aún, Riemann hace un guiño a ideas centrales de la relatividad cuando sugiere que las propiedades geométricas del espacio pueden dar cuenta del movimiento (Jammer 1954 202-205).
Otra posición crucial para la transición del espacio newtoniano al relativista en el campo de la geometría fue la de Poincaré. Es sabido que era un convencionalista que, si bien conocía perfectamente las geometrías curvas, consideraba que la geometría euclidiana era el instrumento más práctico y cómodo para dar cuenta de nuestra experiencia del espacio. El francés afirmaba que las medidas empíricas que hacemos del espacio no son del espacio mismo, sino de los objetos dados empíricamente en él (varillas, rayos de luz), eso implica que la experiencia no puede decirnos nada de la estructura geométrica del espacio, solo de las relaciones entre objetos materiales. Por lo tanto, la geometría elegida es solo una convención para describir mejor las leyes de la naturaleza de forma más simple y eso lo cumple la geometría euclidiana (véase Jammer 1954). Para Poincaré parece haber una intuición geométrica que no es del todo abstracta, sino que deriva de hechos que nos resultan familiares.
En suma, podemos ver que tanto desde la física como desde la geometría se va preparando el escenario para abandonar el espacio absoluto y comenzar el paradigma de una física geometrizada. Sin embargo, se trató de un proceso que involucraba un conjunto de problemas, además de compromisos ontológicos y epistémicos que irán modificándose paulatinamente.
El viejo problema de la física newtoniana de la “fantasmal” acción a distancia que implicaban las fuerzas gravitatorias instantáneas nunca fue solucionado, tanto que el marco metafísico alternativo de Rene Descartes y Gottfried Leibniz, basado en la continuidad, aún ofrecía alternativas (Berkson 1985 [1974] 18-25). Aunque, como es bien sabido, el modelo newtoniano dominaba por una cuestión de eficiencia y generalidad predictiva, de la cual no gozaban las propuestas alternativas, para muchos este asunto quedó abierto o sin solución.
Por ello, parte de los desarrollos del siglo XIX están dirigidos a recuperar el principio de continuidad de Leibniz, en el que se defiende la acción física por contigüidad en oposición a la acción a distancia.9 Es plausible que la construcción del concepto de campo provenga del de fuerza en el dominio de la teoría electromagnética, pero a partir de la idea de solucionar dicho problema. Así, alrededor de 1850 los físicos británicos establecen la idea de que un campo representa (media) la distribución espacio-temporal de una magnitud física, en este caso las magnéticas y eléctricas, y estas se pueden medir en torno a cada punto en una región del espacio para cada instante de tiempo.
El origen de tal desarrollo se encuentra en las líneas de fuerza que Michael Faraday propone en el siglo XIX con esta convicción antinewtoniana. Según él, la fuerza tiene una localización definida (está en un lugar) y se mueve por el campo con una velocidad finita que depende de las fuerzas contiguas (Berkson 1985 [1974] 50). Como son contiguas, cualquier cambio en la cantidad de fuerza de una región debe ser compensada con el aumento de la misma cantidad en la región inmediatamente vecina. Además, como consecuencia de su rechazo de la acción a distancia, Faraday estaba convencido de la unidad y conservación de las fuerzas, ya que de lo contrario se crearía fuerza o energía donde no la había.
Según Faraday, la fuerza es una sustancia universal que llena el espacio. Cada punto del campo de fuerza tiene una cierta cantidad de fuerza asociada con él y, según su dirección y magnitud, causará movimiento en sus puntos vecinos (Berkson 1985 [1974] 51). De tal forma, las líneas de fuerza representan la distribución de fuerzas y, más tarde, representarán la trayectoria que seguiría una partícula en ese punto. No obstante, tales líneas salen de la tradición newtoniana y eran más afines a la filosofía natural alemana, pero carecían de una formulación matemática clara. Ello genera una discusión sobre la plausibilidad de su existencia “real”. En este sentido, Faraday considera que hay dos argumentos que probarían dicha existencia: a) Que pueden curvarse;11 b) Que tardan tiempo en propagarse (Harman 1982 78).
Como afirma P.M. Harman, el trabajo de James Clerk Maxwell constituye el intento más sistemático de formalizar las ideas de Faraday sobre el campo magnético (Harman 1982 84). Luego Maxwell encontró una forma (con cálculo vectorial) de representar el cambio de la fuerza electromotriz. Así, formuló ecuaciones matemáticas y luego se dedicó a encontrar una explicación de las leyes que había formulado con la intención de llegar finalmente a una teoría unificada de la electricidad y el magnetismo.
El inglés formalizará buena parte de las ideas, más bien empíricas, de Faraday. Tanto en la teoría de Maxwell, como en la de Faraday, un cuerpo no actúa directamente sobre otro, sino progresivamente a través del campo (y del éter). Sin embargo, para Maxwell, sí hay división entre materia y fuerza, igual que en la teoría de Newton. Las fuerzas en Maxwell proceden de intensidades del campo que actúan sobre la materia situada en el mismo punto que el campo. Por lo tanto, hay que utilizar funciones continuas para describir el campo y ecuaciones diferenciales para describir la variación de tales funciones. De tal forma, en teoría podemos encontrar dos tipos de leyes: las que determinan la tendencia del movimiento de un punto de fuerza debido a los puntos de fuerza circundantes y las que dan las condiciones de variación de la fuerza de un punto de fuerza determinado. Esto implica que se necesita una mecánica de campo de fuerzas diferente a la newtoniana. La fuerza no puede disminuir y ser compensada por un aumento repentino en otro lugar (gracias a una ecuación de continuidad). Así mismo, la velocidad debe ser función del campo en un punto, y su entorno inmediato y las variaciones deben tardar un tiempo finito en propagarse
De esta forma, a partir de su modelo, Maxwell dedujo las ecuaciones del campo electromagnético y la teoría de la luz, sabiendo que tenía que obtener ciertos resultados cuantitativos. La principal condición que puso es que obedeciera las leyes de la mecánica newtoniana, pero había que modificarlas para una teoría de cambios de acción contigua, según las condiciones que ya hemos mencionado. Esto colocó a Maxwell en la condición de explicar los fenómenos electromagnéticos en términos del éter, supeditado a las leyes de Newton. Como consecuencia, en el artículo de 1861 On physical lines of force (1961), Maxwell pasó a un tratamiento del campo electromagnético desde un punto de vista mecánico, proporcionando una teoría sistemática de la propagación de las fuerzas eléctricas y magnéticas (Harman 1982 89).
El mecanismo usado tenía masa y elasticidad justamente para asegurar la finitud de propagación. Si lograba deducir la velocidad de las ondas en el mecanismo a partir de estas propiedades, entonces tendría una predicción que sería contrastable, de forma independiente, con la teoría de la elasticidad que determinaba la velocidad de las ondas transversales en un mecanismo sujeto a las leyes de Newton.13 De esta forma, la velocidad dependía del medio. Luego Maxwell liberó las ecuaciones del mecanismo para poder seguir desarrollando el modelo. Con ello quedó claro que, a pesar de que el mecanismo se derivaba de su compromiso newtoniano, las hipótesis realmente no dependían de este.
Por lo tanto, Maxwell realiza una interpretación operativa de su modelo: las magnitudes electromagnéticas son fundamentales y el campo es una realidad independiente (como causa de la acción). Los campos actúan directamente sobre la materia conductora. Así, materia y campo son entes distintos e interpenetrables. Es decir, el fundamento ya no es el mecanismo, que antes era material, y ahora hay dos entidades fundamentales: radiación y materia. En esta interpretación el campo actúa directamente sobre la materia situada en el mismo punto que la intensidad que actúa.
En general, Maxwell logró hacer una representación matemática del estado electrotónico y del campo electromagnético a partir de las ideas de Faraday. En 1865 publicó un artículo sobre su teoría de campo refinada, con una interpretación mecánica de partículas de materia moviéndose en el éter como generadoras de los fenómenos electromagnéticos, pero usando un formalismo que no echaba mano de un modelo mecánico específico. Con ello, Faraday y Maxwell configuran ontológica y formalmente el concepto de campo, sustituyendo la idea de fuerza como acción a distancia newtoniana, sin dejar de ser newtonianos (particularmente Maxwell), al menos explícitamente, y preparando el terreno para las teorías de campo que dominarán la física del siglo XX.
Por otro lado, el descubrimiento de Faraday de la rotación magnética de la luz polarizada mostraba la existencia de una relación íntima entre luz y magnetismo, por lo cual resultaba natural asignar al mismo éter los efectos electromagnéticos y luminosos. Ello sugería que las ondas luminosas podían ser fenómenos electromagnéticos. Maxwell, usando sus ecuaciones nuevas demostró que la velocidad de las ondas electromagnéticas es coincidente con la velocidad de la luz, de la manera que identificó la luz con un fenómeno electromagnético (Harman 1982 93).
Finalmente, en 1887, Heinrich Rudolf Hertz comprobó las consecuencias empíricas de las ondas electromagnéticas: investigó la influencia de un imán en la creación de ondas luminosas y halló que la velocidad de las ondas depende de la capacidad inductiva de un dieléctrico. A partir de entonces, los problemas se van a enfocar en la interacción entre la materia y la radiación.
Así, en la teorización de los fenómenos electromagnéticos, podemos encontrar tres elementos cruciales para configurar la física contemporánea. Los conceptos de campo y éter permiten restituir el principio de continuidad y un nuevo formalismo elaborado en función de este. El mecanismo heurístico, usado por Maxwell, supone cierta convicción de su parte por la teoría de Newton, no obstante, las hipótesis electromagnéticas en el fondo no dependían de él. En ese sentido representan una ruptura parcial con este y su idea de acción a distancia.
El concepto de éter, íntimamente conectado con el desarrollo de la teoría electromagnética y con el concepto de espacio, como ya hemos dejado ver, fue crucial tanto para el desarrollo de la física del siglo XIX, en particular para las teorías de las ondulaciones, como para entender las rupturas y continuidades con la física contemporánea.
Por un lado, a inicios del siglo XIX Thomas Young sugiere que el calor y la luz son la misma cosa: una onda. Así mismo, Augustin Fresnel en 1815 presenta un artículo sobre la difracción de la luz en el que usa una “teoría de las vibraciones u ondulaciones”. Los trabajos de Young y Fresnel resultan complementarios (como los de Faraday y Maxwell). Fresnel conceptualizó y matematizó las ideas de Young, que logran explicar fenómenos que tenían grandes dificultades con la teoría corpuscular (de emisiones), como la interferencia, la difracción y la polarización. En suma, Fresnel crea una teoría ondulatoria de la luz que posteriormente será interpretada a partir del electromagnetismo de Maxwell y la unificación con los fenómenos electromagnéticos, como vimos en el apartado anterior.
En este contexto, caracterizar al éter resulta central. En términos generales este es inmóvil, como ya mencionamos también, un espacio físicamente absoluto en el que las ondas luminosas están “congeladas”, ya que el movimiento luminoso es la vibración del éter. Esto explica varios fenómenos que se habían conocido principalmente a través de la astronomía del siglo XVIII sobre el comportamiento de la luz, como lo es la independencia de su velocidad respecto a la fuente. La velocidad de la luz solo depende de las características del éter y no de la fuente luminosa. Sin embargo, no se sabía a ciencia cierta qué ocurría con los cuerpos en movimiento (como la Tierra), ¿el éter era perturbado por los cuerpos que atraviesa y lo atraviesan? (Eisensteadt 2005 177).
El problema con esta pregunta es que había que dar cuenta de resultados obtenidos hasta entonces que eran contradictorios y eso complicaba el modelo requerido del éter. Por ejemplo, según los experimentos de François Arago interpretados por Fresnel (1818 58), “un mismo prisma refracta siempre la misma luz de la misma forma, cualquiera que sea el lado por el que entre”, a saber, de forma independiente a su velocidad respecto a la Tierra, o sea que esta imprime su movimiento al éter que lo envuelve. No obstante, para explicar la aberración de las estrellas dicha tesis no funciona: si la Tierra perturba al éter y, por tanto, la velocidad de la luz, entonces la velocidad de la luz que nos llega de una estrella es constante en magnitud y dirección respecto a la Tierra, lo cual no explica la elipse de aberración que el movimiento terrestre implica, como ya se sabía en la época. Así, Fresnel concibe que “ni la Tierra ni los cuerpos opacos perturban de manera sensible el éter que atraviesan, pero los cuerpos transparentes sí lo perturban, comunicando una fracción de su velocidad” (Eisenstaedt 2005 177). De tal forma, aunque la Tierra y el prisma están en reposo entre ellos, no están en el mismo estado de movimiento respecto al éter, es decir, este es perturbado parcialmente con el prisma. Esto da cierta cuenta de lo complicado que resultó elaborar un modelo plausible sobre el éter.
En el fondo, el problema de Fresnel, que dominará todo el siglo XIX y permitirá el paso a la teoría de la relatividad, es el de la velocidad de la luz, es decir, el problema de entender si la velocidad de la luz es constante en todos los marcos de referencia inerciales o si se aplica la adición de velocidades como en la cinemática newtoniana. De conservarse la velocidad de la luz en todos los marcos, se abriría la puerta a una idea que era inconcebible en la teoría newtoniana: “que la luz tiene voz y voto en la cinemática” (Eisenstaedt 2005 179).
Debido a lo anterior, muchos experimentos relacionados con la velocidad de la luz se realizarán durante el siglo XIX tanto para saber su valor con precisión, como para compararla en medios más o menos densos o si dependía de la velocidad de la fuente (François Arago, Hippolyte Fizeau, Albert Abraham Michelson, etc.). Dichos experimentos no se entenderán plenamente hasta 1905 cuando el postulado de la relatividad especial de Albert Einstein establezca que dicha velocidad es constante en el vacío independientemente de la velocidad de la fuente.
Después de estos experimentos, que exigían una teoría que diera cuenta de los resultados de forma consistente, el éter perturbado de Fresnel parecía más que nunca ad hoc y presentaba muchas anomalías. En palabras de Fizeau en 1859:
Ninguna de las teorías propuestas parece contar con la aceptación completa de los físicos. En efecto, ante la falta de nociones exactas sobre las propiedades del éter luminoso y su relación con la materia ponderable, ha sido necesario proponer hipótesis, y entre las que se ha planteado, algunas son más o menos probables, pero ninguna puede considerarse demostrada. (Fizeau 1859 349)
La oposición en relación con el éter entre George Gabriel Stokes y Fresnel es: ¿el éter es perturbado total o parcialmente? En este momento la cuestión es la influencia de la velocidad de la Tierra en los fenómenos ópticos. Hay que investigar las modificaciones que sufre la luz en su propagación y propiedades como consecuencia del movimiento de la fuente luminosa y el observador, nos dice Fizeau16 (Eisenstaedt 2005 206). Se realizarán muchos experimentos de este tipo entre 1870 y finales del siglo. Entre ellos, el de Michelson y Morley.
No obstante, una parte de la comunidad científica se mostraba escéptica a propósito de la posibilidad de detectar el movimiento respecto al éter, que se había convertido, como dijimos antes, en el movimiento absoluto. Los experimentos de Éleuthère Mascart (1872 180) son sobresalientes a este respecto ya que en ellos encuentra que
[…] el movimiento de traslación de la Tierra no tiene influencia apreciable sobre los fenómenos de óptica producidos por una fuente terrestre o por la luz solar, que dichos fenómenos no nos permiten apreciar el movimiento absoluto de un cuerpo y que sólo tenemos esperanza de observar los movimientos relativos.
Paralelamente, a principios de la década de los setenta, algunos experimentos muestran que no se podía detectar el movimiento a través del éter en ningún experimento con una fuente luminosa terrestre.
Durante la década de 1880 los resultados experimentales no terminan de ser concluyentes, todo lo contrario: algunos soportan la idea de un éter totalmente perturbado (Stokes) y otros apoyan la teoría de uno parcialmente perturbado (Fresnel). Ninguna de las teorías explica satisfactoriamente el fenómeno de la aberración, y, de hecho, las dos teorías podían explicar las observaciones con cierta aproximación en el primer orden del cociente entre la velocidad de la fuente y la velocidad de la luz (v/c) y con algunas hipótesis adicionales. De hecho, Maxwell mostró que solo existía desacuerdo en efectos de segundo orden (v2/c2).
Finalmente, leyendo a Maxwell Michelson se convence que hace falta un examen más preciso que permita detectar la influencia de la velocidad de la Tierra sobre los fenómenos luminosos y de ahí surge su famosísimo experimento. Como es bien sabido, en él se hacen interferir dos rayos luminosos que no han seguido la misma trayectoria. La primera versión la llevó a cabo Michelson en 1881y la segunda con Edward Morley en 1886 y 1887 con una precisión mucho mejor, pero el resultado fue negativo. Aunque los autores no consideraron dichas observaciones concluyentes, no volvieron a realizar el experimento.
En 1886 Lorentz publica un artículo titulado: “Acerca de la influencia del movimiento de la Tierra en los fenómenos luminosos”, en el que propone una variante que usa la teoría de Fresnel con elementos de la teoría de Stokes, pero esto resulta poco convincente. Por lo que en 1890 propone una perturbación total del éter en la vecindad de la Tierra y finalmente otra con un éter inmóvil que tendrá mucho éxito (Eisenstaedt 2005 214-15).
Para terminar de complicar el panorama, después de que Maxwell elaboró la teoría electromagnética y Hertz detectó las ondas electromagnéticas, la óptica se convirtió en una rama de la electrodinámica y el éter devino, también, en la base de los campos eléctricos y magnéticos. Con ello, resultará muy difícil introducir la perturbación del éter en la teoría de Maxwell. A partir de entonces, y hasta la llegada de la relatividad, tanto Lorentz como Poincaré dominarán el escenario.
Entre 1892 y 1895 Lorentz elabora una teoría en la que el campo electromagnético, descrito por Maxwell, es un estado del éter, fijo e indeformable. Esto hace que las ecuaciones sean invariantes en el primer orden en marcos de referencia inerciales para lo cual introduce un tiempo local y formal (una ficción) relacionado con el tiempo absoluto y luego formula la famosa “contracción” para explicar el resultado negativo del experimento de Michelson y Morley, “compensando” el desfase esperado en el recorrido de los brazos del interferómetro (que no se detectó). En particular, Poincaré se muestra muy crítico de la hipótesis y piensa que hay que encontrar un principio general que les haga salir del problema y de las hipótesis ad hoc.19 En 1904 Lorentz publicará sus célebres transformaciones formalmente equivalentes a las de la cinemática relativista de Einstein, pero que están elaboradas todavía en términos del siglo XIX: éter y toda una compleja dinámica del electrón. No obstante, su muerte está anunciada.
El éter permite dar cuenta de la continuidad espacial y toma el papel de marco de referencia privilegiado, pero luego se pierde propiamente como entidad, conservándose solamente la necesidad de la continuidad, ahora adjudicada a una entidad distinta: el espacio-tiempo relativista. En el siglo XIX se tenían dos tipos de espacio: el newtoniano absoluto, por un lado, que admitía el vacío con interacciones a distancia, y el de las ondas luminosas y electromagnéticas del éter, por el otro, que es un pleno con interacciones contiguas. Además, en el primero se usaba el principio de relatividad de Galileo Galilei (junto con sus respectivas transformaciones) y en el segundo no porque la velocidad de la luz es independiente de la velocidad de la fuente y las velocidades de los objetos en cuestión no se suman. ¿Cómo podría funcionar el principio de relatividad en corpúsculos que no son sensibles a la velocidad de la fuente que los emite? Esta es una problemática que los científicos decimonónicos no podían resolver y que probablemente los motivó eventualmente a aceptar la teoría de la relatividad junto con su espacio-tiempo.
La conservación de la energía se puede rastrear a un supuesto metafísico muy antiguo, quizá hasta Parménides, de que “el ser es ser siempre” (nada puede surgir de la nada), así como la relación entre causa y efecto (el efecto debe igualar la magnitud de la causa). Hay una constante búsqueda en las explicaciones de la naturaleza por encontrar lo que se conserva a través de los cambios, por la permanencia del ser. Ahora bien, en el fondo, la idea de la conservación está también intrínsecamente ligada a la unificación de la física, porque al encontrar lo que se conserva a través de los cambios encontramos el elemento que nos permite explicar a partir de un solo concepto dos aspectos “aparentemente” distintos de la realidad. Así, este supuesto conservador y unificador se encuentra en la base de muchas explicaciones, como la causalidad, y ha resultado muy prolífico, económico e intuitivo a lo largo de la historia de la ciencia.
No obstante, por un lado, este supuesto ha sido debatido a lo largo de la historia, lo que se manifiesta, por ejemplo, en la larga tradición ingenieril que se ha propuesto construir máquinas del movimiento perpetuo. Por otro, a pesar de que la noción de la conservación puede ser muy intuitiva, no siempre ha resultado fácil encontrar qué es eso que se conserva.
La señal más clara del desarrollo que llevará a la conservación de la energía y la consolidación de dicho principio ontológico puede encontrase en la física de Leibniz. Su principio de conservación de la vis viva representa un antecedente de la energía cinética y podemos encontrar en sus desarrollos físicos cierto germen de la energía potencial vis mortua, pero sin la posibilidad de intercambiabilidad y la falta de simetría, características de la mecánica clásica. Posteriormente, el desarrollo de los principios de mínima acción, para la segunda mitad del siglo XVIII, constituyeron una formalización equivalente a dicho principio.
De tal forma, para el siglo XIX podemos detectar tres grandes dominios que convergen, de una u otra forma, en la conservación de la energía: la mecánica, el calor y el electromagnetismo.
Young usó el concepto de energía para referirse al trabajo potencial acumulado en los objetos. Así, a lo largo del siglo XIX se fue llegando a un conjunto de transformaciones que llevó a otros descubrimientos de conversión: eléctricos y magnéticos, eléctricos y calóricos, etc. Se encontraron paulatinamente vínculos entre química y calor, calor y luz, electricidad y química, etc. Nuevamente, notamos que el sueño de unificación guiaba el trabajo de los físicos decimonónicos.
Por otro lado, prevalecía la intuición de la imposibilidad del movimiento perpetuo y se tenían ya los conceptos de calor sensible y calor latente que anunciaban ciertas nociones de conservación de energía porque hay cambios de fase suponiendo la misma energía total. El ciclo de Carnot permitía explicar el funcionamiento de las máquinas que se empiezan a generalizar en una sociedad industrializada. Si bien dicha explicación presuponía la conservación del calor, entendida en términos del flojisto, es decir, como una sustancia que daba cuenta de la combustión, el ciclo daba cuenta de la conversión entre calor y trabajo.
Para la década de 1840 ya hay una creciente apreciación pero no formalización de la energía, a menudo llamada fuerza, su conservación e interconversión, pero en procesos independientes (distintos dominios). Este es el ejemplo típico de lo que se llama un descubrimiento simultáneo (Kuhn 1982). Por un lado, Julius Robert Mayer, con influencia kantiana, establece que nada puede venir de la nada y que la causa es igual al efecto: por tanto, siempre que una fuerza es consumida, la misma cantidad de fuerza, posiblemente en otra siguiente, es generada. A partir de estas ideas, Mayer deriva el equivalente mecánico del calor algebraicamente de las leyes de los gases. Paralelamente, James Prescott Joule en su experimento con la rueda de paletas calculó el equivalente de forma independiente. Con ello infirió que la energía era un tipo de movimiento y no un tipo de sustancia.
Sin embargo, solo las ideas de Hermann von Helmholtz las que tuvieron la generalidad y el rigor requeridos para atribuirles la conservación de la energía. El médico y físico alemán, también con influencia de Kant, consideró la imposibilidad del movimiento perpetuo como una consecuencia de la ley causal. Sus experimentos tratan de mostrar que la fuerza mecánica y el calor producido por un organismo podrían resultar enteramente de su propio metabolismo. Más tarde generalizó este resultado para todos los procesos físicos. La clave de su desarrollo consiste en que elaboró la versión más general, matemática y moderna de su tiempo sobre la conservación de la energía, usando la dinámica, es decir, fundamentó la conservación de la energía en la propia mecánica.
La mecánica estadística es una teoría que nació de modificaciones hechas a la teoría cinética de los gases. En esta (primero formulada por Daniel Bernoulli en 1783, después por Nicolas Sadi Carnot a principios del siglo XIX y posteriormente desarrollada por Rudolf Clausius, William Thomson Kelvin, James Clerk Maxwell y Ludwig Boltzmann a lo largo de ese mismo siglo), se asume que los gases están constituidos por moléculas y que las propiedades del sistema están determinadas, a su vez, por las propiedades de esas moléculas. Por ejemplo, para medir la presión ejercida sobre las paredes de un contendor con gas, el modelo cinético asume que todas las moléculas tienen la misma velocidad, y que cada tercio de moléculas se mueve de forma paralela a cada uno de los ejes del plano cartesiano. La presión se mide, entonces, adjudicando probabilidades a los estados de movimiento de las moléculas.21 El giro estadístico mecánico llega cuando las probabilidades, que antes se predicaban de un estado de movimiento de cada molécula, se transforma en una propiedad del estado del sistema entero del gas.
La mecánica estadística evolucionó de tal forma que, eventualmente, se separó en dos tradiciones distintas: la tradición de Boltzmann y la de Josiah Willard Gibbs. Aunque hoy en día es posible identificar dentro de la comunidad científica los defensores de cada tradición, la actitud más común es usar una u otra dependiendo de lo que resulte más conveniente para el problema que se desea resolver. Para nuestros propósitos, es importante señalar las diferencias entre las dos tradiciones, ya que Gibbs propuso un concepto de entropía distinto al de Boltzmann.
Para explicarlos debemos definir lo que es un “sistema dinámico”, a saber, una representación matemática de una función que describe la trayectoria de un punto (o un conjunto de puntos) en un espacio abstracto conocido como el espacio fásico. Cómo se define el espacio fásico y cuál es su significado físico depende de la aplicación particular. Se toma en cuenta, por ejemplo, si el sistema está aislado energéticamente.
En el enfoque boltzmanniano, el microestado instantáneo de un sistema dinámico es representado por un único punto en el espacio fásico. El valor de una propiedad termodinámica del sistema (como la presión) está representado por ese solo punto en dicho espacio.
En el enfoque gibbsiano, en cambio, el objeto de estudio no es un único sistema, sino un conjunto de sistemas preparados de manera idéntica. El estado de cada uno de los sistemas que pertenecen al conjunto es representado por un punto en el espacio fásico y su evolución se representa por áreas o “manchas” que van cambiando de forma. Cuando el número de sistemas es lo suficientemente grande, el espacio fásico estará habitado, por tanto, por una distribución de densidad que proveerá información acerca de la probabilidad de que un punto caiga en la región de ese espacio.
Hablemos ahora de la segunda ley de la termodinámica y del concepto de entropía que se ve involucrado en ella desde los puntos de vista de Boltzmann y Gibbs. La entropía, grosso modo, es una propiedad proporcional a la cantidad de estados distintos en los que puede encontrarse un sistema dinámico. Si tenemos una molécula grande, digamos, en un contenedor muy pequeño, son muy pocas las posibles posiciones que esas moléculas ocuparán (pensemos, por ejemplo, en cómo se vería una pelota en una caja en la que apenas cabe). Si, en cambio, soltamos cuatro moléculas pequeñas en un enorme contenedor, sus posiciones y velocidades tendrán muchas más posibilidades de cambiar. En términos de la entropía, eso se traduce a que el sistema de la molécula sola tiene una entropía diminuta (con una única posición y una única velocidad posibles), mientras que la entropía del sistema de las cuatro moléculas pequeñas será exponencialmente más grande.
Ahora consideremos un contenedor en el que hemos liberado un poco de gas de color rojo con miles de moléculas. Lo que esperamos que suceda, de manera natural, es que este se esparza por todo el contenedor hasta que no podamos encontrar zonas con concentraciones de gas más notables. En otras palabras, las moléculas tenderán a desordenarse y no a acomodarse todas en una misma esquina o en el centro. Esto significa que la entropía tenderá a aumentar.
Observando este comportamiento en los gases, los físicos decimonónicos establecieron la segunda ley de la termodinámica, según la cual la entropía de un sistema (aislado energéticamente) nunca puede disminuir, solamente crece y, una vez que alcanza el equilibro, se mantiene constante.
La primera vez que la palabra “entropía” apareció en un principio termodinámico fue cuando Clausius propuso, en 1879, la siguiente formulación de la segunda ley: “La entropía del universo tiende a un máximo” (el concepto denotaba el carácter direccional de los procesos físicos). En el mismo año Planck (citado en Uffiink 2004 92) propuso otra formulación similar: “Para todos los procesos en el universo, el total de entropía de los sistemas involucrados nunca disminuye, y por lo tanto todos los procesos son irreversibles”.
Fue Boltzmann quien dirigió la atención hacia los gases, y no al universo en su totalidad, cuando probó que un contenedor de gas con moléculas esféricas, aislado energéticamente, pasaría la enorme mayoría del tiempo en microestados cercanos al equilibrio. En otras palabras, probó que las moléculas pasarían la mayor parte del tiempo distribuidas uniformemente en todo el contenedor y no concentradas en puntos específicos. La descripción de Boltzmann, explicada de otra manera, consiste en dividir mentalmente el contenedor en celdas y calcular el número de partículas por celda. El valor máximo de la entropía se obtendrá cuando el sistema alcance el equilibrio.
Con ello quedó claro que definir la entropía involucraba niveles diferentes de descripción y una variedad de aspectos, como el enorme número de componentes en un sistema termodinámico, la permutabilidad de componentes idénticos, la dinámica de un sistema aislado, la incertidumbre, la información y el control experimental. Además, resulta novedoso que en la física aparezcan leyes estadísticas.
Ante este panorama, el filósofo de la ciencia Rudolf Carnap encontró algunos fallos lógicos en los conceptos de entropía que proponían Boltzmann y Gibbs. Según él, la entropía se podía entender o bien como un concepto subjetivo epistemológico, o bien como un concepto físico objetivo, y él, claramente, se decantaba por esta segunda opción de la objetividad física de la entropía. Es decir, la entropía debía ser como la presión o el calor que sirven como una caracterización cuantitativa de una propiedad objetiva de un estado de un sistema físico. Así, según Carnap, los conceptos termodinámicos debían tener contrapartes definidas en términos de la teoría microscópica. Por ello propuso el siguiente Principio de las magnitudes físicas: “Si una cantidad física recibe un valor, en un tiempo dado, por una descripción gruesa,entonces una descripción fina del mismo sistema en ese mismo momento, debe adscribir un valor compatible a la cantidad” (Carnap 1977 34, traducción propia).
Así, lo que Carnap propuso fue igualar la entropía microscópica con la macroscópica, defendiendo que la entropía macro refleja la “falta de información”, mientras que la descripción física genuina sería la microscópica.
El problema era que había muchas entropías termodinámicas dependiendo de los parámetros que se eligieran. Era inaceptable, desde la perspectiva de Carnap, que el valor de la entropía dependiera del tamaño que un sujeto decidiera dar a las celdas imaginarias en un contenedor de gas. Dados los valores epistemológicos que Carnap defendía, para él era necesario que una propiedad objetiva tuviera una sola referencia y que su valor no dependiera del instrumento matemático aplicado. Carnap sugirió que puede conformarse con una especie de “ley de los grandes números”, en la que se puede confiar en el resultado y no dejar todo al azar.
El logro principal del ensayo de Carnap es la formulación de un concepto de entropía con base en las moléculas y los ambientes que las rodean, un concepto que reemplaza la combinatoria por la geometría. Carnap pone sobre la mesa, así, un mecanismo objetivo para definir la entropía, sin subjetividades del agente epistémico.
Finalmente, hace falta dedicar una última sección a las teorías atómicas y algunas problemáticas que de ellas emanaban. No detallaremos cómo se construyó la teoría de la mecánica cuántica, ya que ello corresponde propiamente al inicio del siglo XX, pero sí enunciaremos los principales problemas que se presentan a finales del XIX en torno a las partículas subatómicas y su comportamiento. Así mismo, anunciaremos brevemente algunos cambios que se darán en la física atómica dado que esto nos permitirá analizar la transición de la física clásica a la contemporánea.
Para finales del siglo XIX los físicos están cada vez más convencidos de que la materia está constituida por átomos, modelados como partículas descritas mediante la mecánica newtoniana, que a su vez da cuenta tanto de los movimientos de los objetos en el marco espacio-temporal de forma continua, como de su evolución dinámica aplicando los principios de conservación de la energía o la cantidad de movimiento. Se sabía ya que en el átomo había cargas positivas y negativas, dado que la materia es eléctricamente neutra, pero no se sabía su configuración precisa.23 Paralelamente, como hemos visto, se consolida el modelo ondulatorio de la radiación, concibiéndose estas dos entidades, ondas y partículas, como ámbitos separados de la realidad. No obstante, en ambos casos se comparten supuestos de realidad básicos que han guiado todo el desarrollo de la ciencia moderna. Estos principios se refieren a la continuidad de los procesos físicos que permitía garantizar las conexiones causales entre eventos, al igual que los ideales de determinismo y objetividad sobre los que se edificó la física clásica. Esta constituye un marco en el que los sistemas existen y evolucionan de forma continua en el espacio y en el tiempo. Además, todo objeto en un sistema tiene propiedades definidas, sean estas observables o no, de tal forma que dichos sistemas (y sus objetos) pasan por estados únicos y definidos.24 Finalmente, dentro de este marco de descripción se considera que el comportamiento de los sistemas clásicos está sometido al principio de causalidad (determinista), según el cual, si conocemos las condiciones iniciales de un sistema, podemos predecir su comportamiento en todo instante futuro (Hernández 2021 20).
No obstante, como en los otros casos, es posible vislumbrar ya en este momento algunos de los problemas y tesis incipientes que darán lugar a la controvertida mecánica cuántica. Por un lado, como radiación y materia son modeladas con entidades distintas, la onda y la partícula, es necesario dar cuenta de la interacción entre ambas, algo que se muestra con particular énfasis en el caso de la termodinámica. Por ejemplo, los intentos por elaborar una bombilla eficiente motivaron los modelos de la relación entre energía y temperatura, que no terminaban de ser satisfactorios con el electromagnetismo de Maxwell.
Por otro lado, la necesidad de encontrar un modelo del átomo satisfactorio que explicase las propiedades generales de la materia y los diferentes elementos de la tabla periódica constituía otro foco de atención. Aunque la mecánica estadística servía para dar cuenta del comportamiento de estos en grandes cantidades, como en la cinética de gases, en su mayoría los físicos estaban convencidos de que cada uno de estos átomos tenía una estructura y comportamiento que podía ser explicado en términos de las leyes clásicas del movimiento. Sin embargo, estos dos desarrollos derivaron, por un lado, en el surgimiento de la primera hipótesis cuántica en 1900 por parte de Max Planck, en la que proponía un comportamiento discontinuo de la radiación (en contra del modelo ondulatorio), y que culminaría veinticinco años después en la nueva teoría cuántica; por otro lado, explicar la dinámica del electrón llevó a la nueva cinemática de la luz: la relatividad especial y más tarde a la general.
En particular, la teoría cuántica terminará no solamente con la clara distinción que se había consolidado en el siglo XIX entre radiación en términos de onda y la materia en términos de partícula, sino que romperá, en el nivel intraatómico, con los principios de determinismo, causalidad y objetividad clásicos, obligando a una de las revoluciones epistémicas más grandes en la historia de la ciencia. Una primera e incómoda consecuencia de la teoría atómica es la inherente incertidumbre. Como es sabido, el principio de Heisenberg estableció que no podrían determinarse simultáneamente los valores de todas las propiedades cuánticas y que estas dependían del dispositivo de medida. Adicionalmente, las descripciones de la mecánica cuántica estándar eran inevitablemente probabilísticas, se referían a conjuntos de partículas y dejaban “indeterminadas” las propiedades de cada una de las partículas en los tiempos anteriores a la medición.
Así, la nueva concepción de la estructura atómica del siglo XX trae consigo una transformación del objeto.26 Mientras el objeto clásico era localizable en el espacio y en el tiempo, real, perceptible y tenía propiedades definidas, el nuevo objeto cuántico, desde la interpretación de Copenhague, estaba parcialmente indeterminado y solamente podía conocerse su posición bajo el precio de perder información sobre otras propiedades. Adicionalmente, Niels Bohr defiende la dualidad onda/partícula, según la cual el comportamiento de los objetos cuánticos será ondulatorio o corpuscular, dependiendo de la interacción que se tenga con ellos. Con esto se acepta por primera vez en la historia de la física que la naturaleza de la materia es contingente y complementaria.
En la siguiente sección nos disponemos a analizar si las problemáticas aquí planteadas se pueden entender como inadecuaciones de la tipología de Shapere.
Iniciaremos esta sección con un breve comentario sobre cómo los problemas que hemos estado discutiendo tienen implicaciones en la definición de los dominios de la ciencia. Decíamos en la introducción que, para Shapere, los problemas planteados por los científicos van definiendo los dominios de la ciencia al agrupar elementos que resultan relevantes para resolverlos y establecer las preguntas que resultarán legítimas en una comunidad científica particular. Cabe preguntarnos, entonces, si las problemáticas de finales del siglo XIX y principios del XX eran exclusivas de algunas áreas específicas de la física, o si provenían más bien de la matemática, o si había problemas compartidos.
Para las autoras es claro que existía un dominio “físico-matemático” en el que especialistas de ambos gremios trabajaron de manera cooperativa (o al menos coincidente) para resolver preguntas que les resultaban de interés a todos. Es un hecho que existían planteamientos conjuntos y que, dicho sea de paso, también había expertos, como Poincaré, Lagrange y Laplace, que tenían formación profesional en ambas áreas. A este respecto, resulta conveniente hacer una observación de carácter disciplinar: a diferencia de lo que ocurre a partir del siglo XX, en el XIX los físicos en general no tenían una formación matemática tan amplia y especializada. Por ello, resulta patente que hay un conjunto de posibilidades físicas que resultan más claras primero para los matemáticos y más tarde para los físicos, como es el caso de la posibilidad de una estructura del espacio físico con una geometría curva o con más de tres dimensiones.
Si bien, como hemos dicho, en el siglo XIX la demarcación de la física y las matemáticas era más clara que ahora, había un conjunto de problemas que se encontraba en la intersección del dominio de ambas o que comenzó en el dominio matemático y fue transitando al físico. Estos problemas eran resultado del proceso de matematización de la física iniciada por la tradición newtoniana y, por otro, anunciaban una era con herramientas mucho más sofisticadas.
Esto no implica, claro está, que cada gremio no tuviera adicionalmente preguntas propias. Por ejemplo, los físicos se preguntaban: ¿debemos reemplazar la noción de espacio absoluto? ¿Hay acción a distancia? ¿Se puede construir una teoría unificada de la electricidad y el magnetismo? ¿Qué se conserva en los procesos de cambio? ¿El éter es el medio de propagación de la radiación? ¿Por qué el principio de relatividad no se cumple en la teoría electromagnética? ¿El éter afecta el movimiento del resto de los cuerpos? ¿El éter lumínico es el mismo que el de las ondas electromagnéticas? ¿El calor y la luz son la misma cosa? ¿Se puede construir una máquina del movimiento perpetuo?
Como anuncia Shapere, la problemática de la física del siglo XIX guía un conjunto de problemas, como los que hemos mencionado, en torno a un cuerpo de información que resulta particularmente transitable e intersectable con otros. En este sentido, el éter sería dominio de la mecánica al ocupar un marco de referencia privilegiado, pero también lo sería del electromagnetismo al ser el medio en el que se propagan las ondas. El calor se va convirtiendo en dominio de la mecánica, pero también lo es de la termodinámica o el electromagnetismo. Al mismo tiempo, algunas de las respuestas a dichos problemas llevarán al ocaso de conceptos y modelos, como el caso del éter y del espacio absoluto, y otras abren tímidamente la puerta al cambio de la física del siglo XX, como el caso del principio de relatividad, la distinción entre materia y energía, la geometría del espacio o la contigüidad del campo. Veremos cómo los conceptos físicos comienzan a tener un giro operacional en el que se pretende eliminar cualquier consideración metafísica de ellos, lo cual, comenzando a articularse más incipientemente durante el siglo XIX, resultará crucial para la física del XX.
A este respecto, en relación con los conceptos que hemos explorado, veamos cómo varias preguntas que guían la investigación, como la del espacio, se van modificando en un sentido operacional: debido a sus dificultades para ser detectado empíricamente, los físicos comienzan a dudar de la realidad del espacio absoluto y con él de la idea intuitiva de ese gran contenedor independiente y pasivo en el que debía ocurrir todo. Eso debilitará, poco a poco, el concepto de espacio absoluto. Pero además de su debilitamiento, debido a que solo se conserva como un representante simbólico, el hecho de que en la teoría electromagnética no se cumpla el principio de relatividad clásico de Galileo genera un problema de consistencia teórica entre esta y la mecánica, justificado en principio por la presencia del éter, pero que también fracasa al no poder ser detectado. Eso hace que el dominio tenga un problema de coherencia durante el siglo XIX (uno con marco de referencia privilegiado y otro sin él) lo cual corresponde a una inadecuación del tipo Ic, relacionado con la coherencia del dominio según la tipología de Shapere. Este hecho resultará crucial para físicos como Poincaré, Lorentz y, particularmente, Einstein, quien se propone unificarlos, para lo cual debería extinguir ambos conceptos.
Adicionalmente, si en 1905 surge una nueva cinemática de la luz, incompatible con la teoría newtoniana, para Einstein queda claro que es necesario completarla con una nueva teoría de la gravitación (para marcos de referencia no inerciales) y, entonces, se consolida la posibilidad de que el espacio físico sea curvo, de más dimensiones y vinculado al principio de contigüidad proveniente de la teoría de campos. Así, con el surgimiento de la teoría general de la relatividad a inicios del siglo XX se alcanza la consistencia teórica, completud (excepto en el dominio atómico), éxito y unidad en las explicaciones sobre los fenómenos gravitatorios.
Por otro lado, la comprensión de la luz se consolida a través de la teoría ondulatoria de Young y Fresnel (recordemos que hasta el siglo XVIII conviven los dos modelos de forma inconsistente, aunque predomina el corpuscular), pero además esta se unifica en la segunda mitad de siglo XIX con la teoría electromagnética de Maxwell. Paralelamente, Young ha sugerido que calor y luz son una misma entidad ondulatoria, lo cual, de nuevo, implica una gran unificación de dominio. Al mismo tiempo, está el desarrollo de la termodinámica, la mecánica estadística y el concepto de energía, que ya no requiere del concepto de onda, sino que se fundamenta a partir de la mecánica por parte de Helmholtz, y que da cuenta de otro hilo unificador.
Encontramos fundamental el proyecto de la unificación de la física como elemento heurístico de este desarrollo, que, si bien será exitoso para dar cuenta de la electricidad, el magnetismo y la naturaleza de la luz, finalmente quedará como secundario o pendiente a raíz del surgimiento de la cuántica y la relatividad. Es curioso notar que el sueño de la unificación funcionó como un motor para las construcciones teóricas de la física del siglo XIX y, llegado el siglo XX, se frustró cuando la relatividad y la mecánica cuántica resultaron incompatibles.27 Sin embargo, cada una de estas teorías por separado, cuántica y relatividad, fue lo suficientemente potente a nivel predictivo y explicativo como para que ambas se afianzaran y formaran piezas esenciales de la ciencia hasta el día de hoy.
Entonces, por un lado, tenemos que hay una gran unificación de la óptica, el calor y el electromagnetismo a través del modelo ondulatorio (que cumpliría con las características de un dominio coherente y completo). Sin embargo, un concepto crucial de este dominio es el éter. Paradójicamente, este rompe con un principio básico de la mecánica, a saber, el principio de relatividad, y personifica el espacio absoluto (inadecuación de tipo IIIa, relacionado con la consistencia teórica). Visto retrospectivamente, las teorías del éter que intentaban explicar el comportamiento de la luz se tornaban complejas, a veces incomprensibles, y además eran incompatibles con el principio de relatividad. Todo ello preparó el camino para una nueva cinemática de la luz. La imposibilidad de detectar al éter y la constancia de la velocidad de la luz darán paso a la teoría de la relatividad, de la que Poincaré y Lorentz ya estaban a medio paso (el primero ya había negado el espacio absoluto y el segundo tenía las transformaciones correctas para la relatividad). Pero la interpretación acertada solo la tuvo Einstein: fue él quien logró extender el principio de relatividad basado tanto en las transformaciones de Lorentz, como en consideraciones cinemáticas que no dependían de las electromagnéticas.28 En consecuencia, a diferencia de Lorentz, Einstein elabora una interpretación realista de las magnitudes obtenidas por dichas transformaciones, i.e. la dilatación del tiempo y la contracción de las longitudes, características que constituirán un espacio-tiempo que ni Lorentz ni Poincaré lograron idear. Por otro lado, la mecánica da fundamento a la termodinámica, pero entra en crisis en relación con la cinemática de la luz, con el principio de relatividad.
Sin embargo, aunque Shapere no nos habla de valores epistémicos, aquí la simplicidad jugó un papel fundamental para decantarse entre la teoría de Lorentz29 y la de Einstein, porque siguiendo el criterio de Shapere ambas son exitosas (dan cuenta de los mismos fenómenos), consistentes y completas (el formalismo es el mismo), por lo que el criterio de elección entre teorías que Shapere proporciona resulta insuficiente (al menos hasta la teoría general de la relatividad).
No obstante, puede resultar útil para el análisis notar que, según Shapere, las teorías del éter presentarían una inadecuación de éxito teórico (ii) porque los físicos de finales del siglo XIX nunca lograron especificar sus características de manera precisa y eso fue generando una crisis del concepto. El modelo del éter, como vimos, sostenía el sistema de las ondulaciones, lo cual complicó su capacidad explicativa porque debía dar cuenta de experimentos que hasta el momento daban resultados en tensión (con arrastre, sin arrastre en otros casos, como un fluido, pero que permita viajar a las ondas a la velocidad de la luz, como un gas, etc.). Además, cuando se unifican los dominios hay que integrar al éter en la teoría de Maxwell y eso no resultó fácil (iiia, sobre consistencia teórica), lo cual deriva en que el éter se vaya convirtiendo en una entidad “poco realista” (iiic, sobre afirmaciones de la realidad).
Otra propuesta científica que también padece de esa inadecuación es el modelo mecánico de Maxwell. El mecanismo que construye para llegar al formalismo electromagnético (molinos, tuercas, engranajes) muestra su compromiso con la física newtoniana: está apelando a lo que Shapere llama la comparabilidad interteórica (iiid), porque es probable que el físico intentara construir una teoría de campo que fuera compatible o hasta derivable de la teoría de Newton (a diferencia de Faraday). Si bien dicho modelo cumplió un poderoso papel heurístico para que Maxwell llegara a sus ecuaciones electromagnéticas, resultaba poco realista, según la clasificación de Shapere (iiic). La ventaja del modelo del éter mecánico de Maxwell es que tiene continuidad con la mecánica de Newton o, más estrictamente, con el mecanicismo que proviene de su tradición, porque no rompe explícitamente con ella (si bien el mecanismo de los remolinos es heurístico, Maxwell no era realista hacia él). En otras palabras, el éter maxwelliano nos permite narrar una transición más suave entre siglos.
Paralelamente, vimos que el concepto de campo surge con la motivación de resolver una anomalía que se quedó en el tintero desde el surgimiento de la teoría newtoniana, es decir, nace con la motivación de recuperar el principio de continuidad de Leibniz. El hilo argumentativo que siguen las líneas de fuerza de Faraday muestra la ruptura de la acción a distancia, que en el fondo es un compromiso ontológico análogo al de la conservación de la energía y que Maxwell logra expresar matemáticamente, en términos de Shapere, con gran éxito teórico (caso ii de la clasificación de Shapere). Vemos que el campo se convierte en la causa de la acción: la expresión epistemológica del mismo supuesto ontológico (proveniente de Leibniz y Kant).
Como resultado, durante el siglo XIX terminan por establecerse dos ontologías distintas para los dos dominios, el campo y las ondas para explicar la radiación, y la partícula para la materia, cada uno con sus principios epistémicos y sus leyes. No obstante, esto es justamente lo que será superado con la mecánica cuántica, como ya anunciamos, pues a partir de la dualidad entre onda y partícula, tanto para la radiación como para la materia, dicha distinción se desdibuja. Precisamente a partir de la problemática de la interacción entre radiación y materia (el problema del cuerpo negro) surgirán las primeras hipótesis cuánticas, que derivarán en la física atómica. De tal forma, si durante el siglo XIX se separan los dominios de la radiación y la materia, luego se unirán de nuevo en la mecánica cuántica,30 además de que se separarán de la física relativista (válida para altas velocidades) y de la tradición clásica en general.
Al mismo tiempo, la unificación de dominio que señala Shapere también resulta crucial para elaborar la conservación de la energía. Hay un claro proyecto de unificación que se manifiesta por diferentes vías en el siglo XIX y la pregunta es cuál es el concepto fundamental que dará cuenta de ello. Existe, durante dicho siglo, una fuerte tendencia a que sea la energía y esto suscita un conjunto de preguntas en torno a esta: ¿qué es lo que se conserva?, ¿qué es la energía (ontológicamente)?, ¿cuál es la diferencia entre fuerza y energía? Pero su elaboración supone, por un lado, que se fundamente en la mecánica newtoniana, lo cual es un elemento de continuidad con la física ya conocida, y, por otro, que se comience a abandonar una ontología sustancialista por otra más relacional: resultando más una abstracción o isomorfismo que un “algo concreto” que se conserva. Esto también anuncia un proceso que dominará la física del siguiente siglo: la presencia de entidades teóricas sin referencia clara, es decir, sin correspondencia con un objeto específico en la realidad.
La discusión sobre la energía se mantendrá abierta durante el siglo XX.31 De nuevo, predominan conceptos operacionales, funciones y experimentos más que sustancias concretas: vemos el advenimiento de una física cada vez más abstracta (matemáticamente) que dificulta una interpretación física según nuestro sistema intuitivo y un realismo de sentido común (esto es evidente en el caso de la cuántica y de la relatividad).
Por otro lado, en relación con el surgimiento del concepto de entropía, comentamos que Rudolf Carnap se encontraba incómodo con el hecho de que existiera una variedad de definiciones incompatibles. Además, cada definición implicaba una manera de medir la entropía, sugiriendo una falta de objetividad. ¿Qué tipo de problema sería este según Shapere? Claramente estamos hablando de un dominio específico: el de la mecánica estadística. Hay un fenómeno definido y un conjunto de ítems identificados. Lo que importaba a Boltzmann, Gibbs, Kelvin y Clausius era el comportamiento de los sistemas dinámicos del universo, en particular aquellos implicados en las máquinas, la generación de trabajo mediante la inyección de energía y, muy específicamente, el comportamiento de los gases. Este dominio, con raíces en la termodinámica, no tiene problemas de completud (I.a de la clasificación de Shapere), dado que la lista de objetos de estudio no tiene huecos. Se conocen los gases bajo escrutinio y no existen dudas respecto a su naturaleza. Lo que presenta este dominio es una inadecuación del tipo I.b (descripción del dominio, según la clasificación de Shapere), a saber, que los científicos expertos en el área no se habían puesto de acuerdo respecto ni a las técnicas matemáticas, ni a las técnicas empíricas para determinar la manera de medir una cantidad llamada “entropía” y la definición del concepto ligada a dicha medición. Ello reflejaba el conflicto interno (del tipo iii.a) ya que era exitoso experimentalmente, pero había al menos dos marcos teóricos alternativos para explicar el comportamiento entrópico: el de Boltzmann y el de Gibbs.
Ambas descripciones se consideran útiles pasando al siglo XX. No se toma una como más fundamental que la otra, ni se considera que una sea mejor candidata para dar cuenta del sustrato microscópico que subyace a las mediciones estadísticas. En el caso de Boltzmann, se considera un único sistema, en el caso de Gibbs, se considera un conjunto de sistemas idénticos, pero ambas son propuestas estadísticas que demostrarán ser útiles. Una vez más vemos la tensión entre una actitud pragmática y una búsqueda de unificación en las teorías físicas.
Vemos que Carnap defiende los valores epistémicos que se habían afianzado desde la física clásica. Aboga, con el mismo estilo positivista de Auguste Comte, que la ciencia debe estar fundamentada únicamente en la observación y debe evitar postular entidades cuya comprobación empírica sea inaccesible. Cabe mencionar que, a pesar de las críticas de Carnap, en la física del siglo XX se siguieron utilizando las concepciones entrópicas de Boltzmann y de Gibbs. La física transitó a concepciones estadísticas, muy a pesar de Carnap y de otros grandes pensadores —entre ellos Max Plank— que se resistían al cambio.
Carnap se aferró al determinismo y a las descripciones completas de los sistemas, al igual que hacía Einstein con la teoría cuántica, ambos científicos renuentes a conformarse con las descripciones estadísticas o probabilísticas como inherentes a la naturaleza. Carnap conocía las distintas interpretaciones de la probabilidad (propensiones, frecuencias, estimaciones subjetivas sobre la posible ocurrencia del evento) y rechazaba particularmente las que implicaban subjetividad. En la tipología shapereana nos parece que esta insistencia por abrazar el determinismo y la objetividad, tanto en Carnap como en Einstein, responde a un problema del tipo iii.d, ya que se busca que las teorías científicas en construcción cumplan con las mismas características de las teorías físicas establecidas previamente.
Por último, resulta interesante mencionar el problema de la completud de la mecánica cuántica. En la tipología de Shapere, las “inadecuaciones por completud teórica” (iii.b) consisten en dudas respecto a la mejor formulación de la teoría. Es indudable que el propio Shapere se inspiró en la mecánica cuántica para incluir este tipo de problemas. Más específicamente, el debate de la teoría cuántica giró en torno al tema de la completud cuando Einstein acusó a la teoría de estar incompleta, entrando en diálogo confrontado con la Escuela de Copenhague. Es bien sabido32 que para Einstein los objetos de la física debían tener magnitudes bien determinadas y bien definidas, y si la mecánica cuántica no era capaz de calcular esto con certeza, entonces era una teoría incompleta. La Escuela de Copenhague, por otro lado, sostenía que no era necesario comprometerse con la existencia de las propiedades antes de realizar una medición y, por tanto, el nuevo objeto físico debía concebirse junto con el acto de observarlo. Así, vemos que la mecánica cuántica podría caer en inadecuaciones de afirmaciones sobre la realidad (iiic). No obstante, existe cierta circularidad en tal debate, ya que en el fondo de la disputa está justamente la propia definición de realidad física.
Recordemos que en la introducción a este artículo las autoras planteamos dos cuestionamientos: ¿qué problemas quedaban sin resolver en la física clásica y se solucionaron con la física contemporánea? y ¿qué otros elementos, además de la eliminación de una anomalía, determinan las transformaciones en la física del cambio de siglo XIX al XX? Aunque consideramos que el análisis presentado en la sección 3 ya ha respondido implícitamente, nos gustaría explicitar en esta sección los problemas y elementos que logramos identificar.
Si Dudley Shapere tiene razón, las teorías físicas contemporáneas deben ser capaces de resolver las inadecuaciones que dejaban irresueltas las teorías físicas clásicas. A lo largo de este artículo hemos tomado esta afirmación como una hipótesis de investigación y ha llegado el momento de ver si es cierta o no.
En definitiva, podemos separar el proyecto unificador del siglo XIX en cuatro grandes aspectos interrelacionados: por un lado, el electromagnetismo y la energía, por el otro, el mecanicismo y la matematización en campos que en el siglo XVIII no lo estaban, como el calor. Si bien el término “mecanicismo” era equívoco, siempre jugó un papel unificador al fundamentar diversos dominios, al menos como elemento heurístico. En este sentido, y como hasta ahora, esta idea ha permanecido solo como un proyecto metafísico con cierto éxito. A este respecto resulta útil seguir a Harman cuando dice que es equivocado pensar que la física clásica formaba una visión monolítica y unificada de la realidad física, y que cabe distinguir entre esta y la física newtoniana (Harman 1982 11). Pues si bien el mecanicismo y la visión matemática de los fenómenos físicos tienen su origen en Newton, la física clásica del siglo XIX derivó en un cuerpo explicativo mucho más complejo y vertebrado que terminó por superarlo.
Como resultado, en la física contemporánea se generan dos cuerpos teóricos aparentemente incompatibles respecto al tema de la máxima velocidad de transmisión de información: la relatividad general y la cuántica, aunque los dominios separados en el siglo XIX de la materia y la radiación vuelven a unirse. ¿Qué hace entonces que el abandono de la física decimonónica sea posible? Veamos: lo que sí logra unificar la mecánica cuántica, en particular la complementariedad o dualidad onda/partícula entendida a la Bohr, es la doble naturaleza de la luz y la materia. Adicionalmente, se logra erradicar la plétora de teorías del éter que no logran ponerse de acuerdo. No obstante, cabe señalar que tanto las teorías del éter como la mecánica cuántica hacen “afirmaciones poco realistas” (iiic, afirmaciones sobre la realidad en la clasificación de Shapere), pero las afirmaciones del éter mecánico de Maxwell en retrospectiva resultan más difíciles de aceptar que las afirmaciones de Bohr acerca de “ignorar” el estado de las partículas antes de medirlas. De alguna manera, la complementariedad de Bohr se queda con la potente unificación y las descripciones adecuadas de las teorías ondulatorias, pero sin el peso de la incómoda entidad “éter”. Esto muestra que las inadecuaciones de realidad (iiic) deben ponerse en contexto para poder ser valoradas. Mediante el principio de complementariedad, la dualidad onda-partícula reconcilia las visiones sobre las radiaciones y la materia que se habían concebido como contrincantes.
Por otro lado, el espacio-tiempo relativista proveerá la continuidad que se necesita en la teorización del espacio pero sin los problemas mecánicos irresolubles de los modelos del éter. En términos shapereanos, el espacio-tiempo es una entidad que provee mucho mejor “coherencia al dominio” (Ic) al amalgamar de una manera más natural todos los elementos, en particular haciendo válido el principio de relatividad en toda la física.
Si bien en este artículo hemos enfatizado en una visión continuista de la física clásica a la contemporánea, sí podemos reconocer que el abandono simultáneo del “éter” y del “espacio absoluto” que le acompañaba marca un momento relevante en la debilitación de la física decimonónica.
Ya sin espacio absoluto y sin éter, los físicos acuñan una concepción del espacio que es importante tanto para el movimiento de los cuerpos como para la propagación de la radiación, que obedece al principio de continuidad y que usa la potente teoría de campos. En la lista que presentamos en la sección 3 no es nada despreciable el número de preguntas que giraban en torno al éter. Una vez que esa entidad se abandona (si bien los físicos se aferraron a ella hasta entrado el siglo xx), todas esas preguntas desaparecen también. Poco a poco la física se va volviendo más operacional y comienzan las críticas a los elementos metafísicos que caracterizarán las primeras décadas del siglo XX.
Además, la física cuántica abraza poco a poco al indeterminismo y se acomoda a una era llena de predicciones altamente eficientes, como nunca antes, que permitirán captar la atención para dejar en las sombras, durante varias décadas, problemas pendientes que hoy en día intentan resolverse.
¿Qué otras inadecuaciones quedaban mejor resueltas en la física relativista que en la decimonónica? La relatividad es capaz de explicar por qué el principio de relatividad clásico de Galileo no se cumple en la teoría electromagnética, es decir, en la luz, y además proporciona unas nuevas transformaciones (las de Lorentz) para componer velocidades.33 Es decir, la comprensión de la constancia de la velocidad de la luz es un éxito rotundo que empujó al abandono de las teorías etéreas, y del espacio absoluto y recto. Sumado a esto, la curvatura del espacio-tiempo explica las interacciones entre astros de una manera más robusta y definitiva que las acciones gravitacionales newtonianas a distancia y en el vacío.
Un hallazgo del análisis aquí realizado es que podemos encontrar un paralelismo entre el debate Einstein/Copenhague y Carnap/Boltzmann. En ambos hay una lucha entre determinismo e incertidumbre, entre certeza y azar. Esto también nos lleva a reflexionar sobre los distintos valores epistemológicos que pueden defender científicos que conviven en un mismo momento de la historia y las diferentes concepciones de la racionalidad científica que defienden. Entonces, ¿qué guía y qué aspectos finalmente determinan las definiciones científicas que permanecen en uso?: siguiendo la línea de la filosofía de la ciencia de Nelson Goodman (véase Cohnitz & Rossberg 2020; Elgin 1997; Heather 2016). Por lo tanto, notamos una carencia en la tipología de Shapere, ya que se requiere un análisis externo y no exclusivamente interno de las teorías científicas para dar cuenta de su institucionalización y evolución.
Otro cuestionamiento con el que nos encontramos en esta investigación fue el siguiente: ¿es posible aplicar el enfoque de Shapere en un momento de la ciencia así, en el que se presentan fuertes cambios conceptuales, o solamente es útil la tipología para analizar una sola teoría en un momento específico? En otras palabras, ¿es aplicable para análisis diacrónicos? Nuestra respuesta es que sí, la tipología shapereana es adecuada para etapas críticas en la ciencia que Thomas Kuhn clasificaría como “ciencia extraordinaria”, es decir, momentos en que se están suplantando unas teorías por otras o existe una variedad de propuestas teóricas en competencia. En las inadecuaciones tipo iii.d, Shapere contempla la posibilidad de que dos teorías sean incompatibles. Si bien en sus sueños de unificación él plantea el escenario deseando que se resuelva con una conciliación entre todas las teorías de la ciencia, o al menos las de un mismo dominio, podemos utilizar ese escenario que él ideó para hacer comparaciones entre teorías sucesivas.
No obstante, creemos importante señalar también otra limitación de la tipología shapereana: los dominios no siempre tienen una delimitación clara y excluyente. En la transición continua, paulatina y pausada de la ciencia decimonónica a la del 100 Samaniego Bañuelos, Fernanda y Hernández Cornejo, Nalliely Revista Colombiana de Filosofía de la Ciencia 22.44 (2022 enero-junio): Págs 59-103 ISSN: 0124-4620 (Imp) & 2463-1159 (Elec). siglo XX, la matemática y la física no pueden separarse como dos dominios completamente independientes y muestra de ello es que existía un número importante de preguntas compartidas por ambos campos, como la de la estructura geométrica del espacio físico y su dimensionalidad. Además, dentro de la propia física hemos visto que los fenómenos transitan de una a otra teoría. Resulta interesante cómo la dinámica de los dominios se ve modificada en función de los cambios en la naturaleza de los objetos de estudio: radiación, materia, espacio.
Una limitación más de la tipología shapereana es que las “incoherencias” en las teorías dependen de su delimitación. Las teorías del éter, en su conjunto, son absolutamente incoherentes (al grado de que unas afirman que el campo magnético gira en torno al eléctrico y otras dicen lo contrario), pero si tomamos cada una por separado, es más fácil verlas como un conjunto de conocimientos con sentido y sin contradicciones internas.
Las autoras consideramos que la tipología de Shapere ha resultado útil para analizar la transición de la física decimonónica a la contemporánea, y que se ha podido realizar el proceso reflexivo sin suscribir, por completo, el unificacionismo de Shapere. Pese a ello, entre las limitaciones que hemos señalado en la visión de Shapere, quizás la que más obstaculizó nuestro análisis es que, al igual que los positivistas lógicos, sigue teniendo una perspectiva internalista de la ciencia, en la que se toman en cuenta los productos científicos y se ignoran los valores tanto epistémicos como no epistémicos. Esta investigación nos ha permitido identificar valores que resultan indispensables para entender este momento de la historia de la física, entre los que destacaríamos “objetividad”, “coherencia”, “indeterminismo”, “economía”, “éxito predictivo” y “poder explicativo”, los cuales a su vez pueden estar parcialmente determinados por otros no epistémicos, pero este aspecto va más allá del alcance de este trabajo.