ARTICLES
La capacidad unificadora de las teorías científicas. Una propuesta alternativa desde el estructuralismo metateórico 1al enfoque kitchereano de patrones explicativos
The unifying power of scientific theories. An alternative proposal from structuralismto Kitcher’s explanatory pattern
La capacidad unificadora de las teorías científicas. Una propuesta alternativa desde el estructuralismo metateórico 1al enfoque kitchereano de patrones explicativos
THEORIA. Revista de Teoría, Historia y Fundamentos de la Ciencia, vol. 34, núm. 1, pp. 111-131, 2019
Universidad del País Vasco/Euskal Herriko Unibertsitatea
Recepción: 13 Diciembre 2017
Aprobación: 14 Abril 2018
Financiamiento
Fuente: ANPCyT
Nº de contrato: PICT-2014-1741
Fuente: UNTREF
Nº de contrato: 32/15 255
Fuente: CONSOLIDER INGENIO
Nº de contrato: FFI2012-37354
Nº de contrato: FFI2013-41415-P
Resumen: este artículo examina la distintividad explicativa de los modelos de optimización del cableado en neurociencia. Los modelos de optimización del cableado se proponen representar los rasgos organizativos de los sistemas neuronales y cerebrales como soluciones óptimas (o casi óptimas) a problemas de optimización del cableado. Afirmo que los modelos de optimización proporcionan explicaciones de diseño. en particular, estos modelos soportan intervenciones ideales sobre las variables de decisión de un problema de diseño relevante, y evalúan el impacto de esas intervenciones sobre la viabilidad del sistema en cuestión.
Palabras clave: Neurociencia, optimización de cableado, mecanismo, explicación darwiniana, explicación de diseño, intervención ideal.
Abstract: This paper examines the explanatory distinctness of wiring optimization models in neuroscience. Wiring optimization models aim to represent the organizational features of neural and brain systems as optimal (or near-optimal) solutions to wiring optimization problems. My claim is that that wiring optimization models provide design explanations. In particular, they support ideal interventions on the decision variables of the relevant design problem and assess the impact of such interventions on the viability of the target system.
Keywords: Neuroscience, Wiring Optimization, Mechanism, Darwinian Explanation, Design Explanation, Ideal Intervention.
Introducción
Uno de los valores que juegan un rol en la evaluación de las teorías científicas es su capacidad unificadora. Suele afirmarse, como casos típicos, que tanto los enfoques de Darwin como los de Newton fueron aceptados en parte por su capacidad de dar cuenta de fenómenos heterogéneos a partir de un marco explicativo único. En este trabajo se intentará colaborar con las discusiones respecto de cómo elucidar dicha capacidad. Con este fin, se tomará, como punto de partida y contrapunto, el trabajo realizado por Philip Kitcher (1981, 1989, 1993), quien considera que la unificación es la virtud más importante que puede predicarse de un enfoque, y que es la clave en la comprensión de qué es una explicación científica. Sin asumir ni negar esto último, nuestro trabajo procura complementar y discutir la elucidación realizada por Kitcher de la capacidad unificadora, apelando para esto al estructuralismo metateórico.1 Esto implicará poner en relación el modo en que Kitcher analiza distintos constructos científicos a través de la reconstrucción de patrones explicativos y la forma en que lo hacen los adherentes al estructuralismo a partir de la reconstrucción de teorías científicas. A lo largo del trabajo, las diferencias y semejanzas entre ambas perspectivas irán aclarándose.
Nuestra estrategia consistirá en dar respuesta a una serie de críticas que se han realizado al aporte de Kitcher, lo cual implica revisar sustancialmente puntos centrales de su punto de vista respecto de la unificación. Cada enfoque al tema de la explicación afronta problemas específicos. Por ejemplo, los enfoques que apelan a la virtud de la unificación como índice de la explicación, suelen tener que dar cuenta del problema de la unificación espuria. Este tipo viciado de unificación sería el que proporcionan teorías o explicaciones que dan cuenta de muchos casos por ser versátiles al punto de la trivialidad («ocurrió x porque un dios lo quiso»). Kitcher afronta este problema apelando a la noción de rigurosidad (la presentaremos más adelante). Por nuestra parte, procuraremos mostrar que dar adecuada cuenta de la capacidad unificadora se hace al costo de sacrificar esta idea de rigurosidad, pues el enfoque de Kitcher falla, justamente, porque sus patrones son demasiado poco versátiles (demasiado rigurosos) para dar cuenta de lo heterogéneas que son las aplicaciones de las teorías unificadoras, cuestión que él mismo quería capturar. Asimismo, consideramos, siguiendo los trabajos más recientes de José Díez (2002, 2014) sobre explicación desde el estructuralismo, que una forma más adecuada de evadir las unificaciones espurias es apelar a la noción de red teórica. La respuesta de Díez al problema de la unificación espuria esconde la clave para la cuestión que nos ocupa: ¿en qué consiste la capacidad unificadora de una teoría?
En la sección 1 presentaremos un panorama de las ideas de Kitcher y brindaremos algunos ejemplos de análisis realizados por él. En la sección 2 introduciremos algunas de las críticas aludidas. En la sección 3 presentaremos brevemente al estructuralismo metateórico, acotándonos a aquellos puntos especialmente pertinentes para el abordaje de la temática de la unificación. En la sección 4 compararemos ambos enfoques, mostrando tanto las características en común como las ventajas relativas del estructuralismo sobre la propuesta unificacionista de Kitcher. En la sección 5, y a partir de lo desarrollado, discutiremos la noción misma de unificación, y finalmente, en la sección 6 ofreceremos al lector las conclusiones.
1. El enfoque de Kitcher
Rechazando por diversos motivos el modo en que los filósofos clásicos intentaban reconstruir teorías, Kitcher propone una nueva concepción (Kitcher 1981, 1989, 1993). Siguiendo la idea de Michael Friedman (1974) de que nuestra comprensión del mundo se incrementa cuando disminuimos el número de supuestos requeridos en la explicación de los fenómenos naturales, y solucionando algunos de sus problemas, propone una elucidación del concepto de «explicación científica» apelando a la noción de patrón de argumento.
Un patrón de argumento es un triplo ordenado consistente en un argumento esquemático, un conjunto de conjuntos de instrucciones de llenado (uno para cada término del argumento esquemático) y una clasificación del argumento esquemático.
Los argumentos esquemáticos son secuencias de enunciados esquemáticos. Un enunciado esquemático es un enunciado en el que algo del vocabulario no-lógico ha sido reemplazado por dummy letters. Por su parte, las instrucciones de llenado son directivas que especifican cómo llenar las dummy letters en los enunciados esquemáticos. Las clasificaciones describen cuáles enunciados en los argumentos esquemáticos son premisas y cuáles conclusiones y qué reglas de inferencia son usadas.
La idea de Kitcher es que los razonamientos que permiten generar explicaciones científicas legítimas son aquellos que permiten una mejor sistematización del conjunto de creencias aceptadas en determinado momento (K). Kitcher llama «sistematización de K» a un conjunto de razonamientos que infiere algunos miembros de K de otros miembros de K. El «almacén explicativo» (‘explanatory store’) de K, e(K), es el conjunto de derivaciones que mejor sistematiza K, y que, siendo la unificación el criterio para la sistematización, constituye el conjunto de derivaciones que mejor unifica K. La unificación se alcanza usando razonamientos que instancian un mismo patrón de razonamiento en la inferencia de muchos enunciados aceptados. El poder unificador se incrementa generando un gran número de enunciados aceptados como las conclusiones de razonamientos aceptables que instancian unos pocos patrones estrictos.
Para determinar este poder unificador, es necesario sopesar la cantidad de enunciados de K que funcionan como conclusiones de razonamientos explicativos (cuantos más, mejor), la cantidad de razonamientos utilizados para generar estos razonamientos explicativos (cuantos menos, mejor) y lo estricto o rigurosos de tales patrones de razonamiento (cuando las condiciones de satisfacción del razonamiento son más difíciles de satisfacer, el patrón de razonamiento es más estricto). Así, las explicaciones legítimas serían aquellas que instancian patrones de razonamientos que pertenecen al almacén explicativo del conjunto de creencias aceptadas.
En esta contribución no disputaremos detalles acerca de la corrección histórica de los análisis de Kitcher, ni acerca de si sus elucidaciones y reconstrucciones representan adecuadamente los respectivos constructos escogidos, ya que tales tópicos, aunque interesantes en sí mismos, no son relevantes para nuestra argumentación general.
En cambio, nuestra alegación se limita a recoger brevemente cuatro de los casos estudiados por Kitcher: la dinámica de Newton, la selección natural, la ascendencia común y la genética clásica de Morgan. Debido a la capacidad unificadora de los dos primeros, éstos se han constituido en los ejemplos paradigmáticos de su posición.
1.1 El caso de la dinámica newtoniana
Kitcher no pretende dar una reconstrucción exhaustiva de la dinámica newtoniana, más bien, lo que pretende es volver más intuitiva su noción de «patrón explicativo». Así, restringe su análisis únicamente al patrón básico utilizado para tratar sistemas que contienen un solo cuerpo (como un péndulo o un proyectil). El argumento esquemático en este caso sería el siguiente (Kitcher 1981, 517):
(1) La fuerza sobre α es β.
(2) La aceleración de α es γ.
(3) Fuerza = masa · aceleración.
(4) (Masa de α) · (γ) = β.ϑ
(5) δ = ϑ.
Instrucciones de llenado: todas las ocurrencias de «α» (cuerpo/s) deben reemplazarse por una expresión que refiera al cuerpo bajo investigación, que las ocurrencias de «β» deben ser reemplazadas por una expresión algebraica que represente la fuerza sobre α, que «γ» debe ser reemplazada por una expresión que dé la aceleración del cuerpo, que «δ» debe reemplazarse por una expresión que refiera a las coordenadas variables del cuerpo y que «ϑ» debe reemplazare por una función explícita de tiempo.
Clasificación: (1)-(3) son premisas, (4) se obtiene de ellas por sustitución de idénticos, y (5) se sigue de (4) apelando a la manipulación algebraica y a las técnicas del cálculo.
1.2 El caso de la selección natural simple
Con el patrón de razonamiento propuesto para la selección natural simple, Kitcher pretende responder a: ¿por qué (prácticamente) todos los miembros de G tienen P? El patrón en este caso es el siguiente (Kitcher 1989, 444; cf. 1993, 28):
(1) Los organismos en G son descendientes de los miembros de una población ancestral G* que habitaba en un ambiente e.
(2) Entre los miembros de G* hubo variación con respecto a T: algunos miembros de G* tenían P, otros tenían P#, P##,…
(3) Poseer P posibilita que un organismo en e obtenga un complejo de beneficios y desventajas C, provocando una contribución esperada a su éxito reproductivo w(C); poseer P# posibilita que un organismo en e obtenga un complejo de beneficios y desventajas C#, provocando una contribución esperada a su éxito reproductivo w(C#);… [continúa para P## y todas las otras formas variantes de T presentes en G*]. w(C) > w(C#), w(C) > w(C##), etc.
(4) Para cualquier propiedad P1, P2, si w(P1) > w(P2) entonces el promedio de descendencia de un organismo con P1 que sobrevive hasta la madurez es mayor que el pro- medio de descendencia de organismos con P2 que sobreviven a hasta la madurez.
La capacidad unificadora de las teorías científicas
(5) Todas las propiedades P, P#, P##,… son heredables.
(6) No surgieron nuevas variantes de T en el linaje que lleva de G* a G (es decir, la única variación con respecto a T comprende las propiedades P, P#, P##,… ya presentes en G*). Los organismos del linaje viven en e.
(7) En cada generación del linaje que lleva de G* a G la frecuencia relativa de organismos con P se incrementa.
(8) El número de generaciones en el linaje que va de G* a G es suficientemente grande como para que los incrementos en la frecuencia relativa de P se acumulen hasta la frecuencia relativa total 1.
(9) Todos los miembros de G tienen P.
Instrucciones de llenado: T se reemplaza por un rasgo determinado (un «carácter-tipo»); P, P#, etc., son reemplazadas por nombres de formas determinadas de ese rasgo; G* por el nombre de una especie ancestral; e por la caracterización del ambiente en donde los miembros de G* vivían; C, C#, etc., deben ser reemplazadas por especificaciones de conjuntos de rasgos; y w(C), w(C#) deben ser reemplazadas por números no negativos.
Clasificación: (1)-(6), (8) son premisas; (7) se deriva de (1)-(6); (9) se deriva de (7) y (8).
Este esquema argumentativo subyace, según Kitcher, a las explicaciones seleccionistas más sencillas dadas por Darwin (como la rapidez de los lobos o la excreción de líquidos dulces por parte de algunas plantas). La selección natural simple serviría para dar cuenta de la formación final de un rasgo o una estructura anatómica (como un ala), pero habría casos más complejos en Darwin en donde se seguiría la historia evolutiva de un rasgo. Tras estas explicaciones más complejas subyacería un patrón más complejo formado por la concatenación de los patrones de selección natural simple (Kitcher 1993, 28-29).
1.3 El caso del origen común
Otra explicación darwiniana es la del origen, o ascendencia, común. Ésta permite dar cuenta de la presencia de ciertos parecidos o semejanzas, como la que existe entre el ala de un murciélago, la mano de un bonobo y la aleta de un delfín. La manera en que Kitcher reconstruye estas explicaciones, que se confrontan con preguntas de la forma «¿Por qué los miembros de G, G* comparten la propiedad en común P?», a partir de su noción de patrón explicativo, es la siguiente (Kitcher 1989, 443; cf. 1993, 27):
(1) G y G* descienden de una especie ancestral común S.
(2) Casi todos los organismos en S tienen la propiedad P.
(3) P fue estable en el linaje que lleva de S a G […].
(4) P fue estable en el linaje que lleva de S a G*.
(5) P es heredable […]
(6) Casi todos los miembros de G y G* tienen P.
Instrucciones de llenado: . debe ser reemplazado por el nombre de un rasgo; G y G* por el nombre de un grupo de organismos (población, especie, género, etc.); y S por el nombre de una especie.
Clasificación: (1)-(5) son premisas; (6) es derivada de (1)-(5) usando la inducción ma- temática sobre los linajes.
1.4 El caso de la genética clásica de Morgan (1910-1932)
Kitcher analiza tres teorías supuestamente sucesivas pertenecientes a la genética clásica, que denomina «[1] Mendel (1900)», «[2] Mendel refinado (1902?-1910?)» y «[3] Morgan (1910-1920)». Según él, si bien todas estas teorías pretenden resolver la misma familia de problemas, lo hacen a través de distintos patrones de resolución o patrones de argumento. Aquí nos limitamos al último caso (Morgan 1910-1920), cuyo esquema explicativo o patrón refinado es como sigue (adaptado de Kitcher 1989, 440-441):
(1) Existen n loci pertinentes L1,…, Ln. En el locus Li hay mi alelos ai1,…, aimi.
(2) Los individuos que son a11a11a21a21…an1an1 tienen el rasgo P1; los individuos que son a11a12a21a21…an1an1 tienen el rasgo P2;… [Se sigue a lo largo de todas las combinaciones posibles.]
(3) Los genotipos de los individuos en el pedigrí son: i1 es G1, i2 es G2,…, iN es GN. [Agregado a (3) es una demostración de que (2) y (3) son consistentes con las adscripciones fenotípicas dadas en el pedigrí.]
(4) Para cualquier individuo x y cualesquiera alelos y, z, si x tiene yz, entonces la probabilidad de que un individuo particular x de la descendencia tenga y es ½.
(5) La transmisión de genes en loci diferentes es probabilísticamente independiente. Las relaciones de enlace entre loci son dadas por las ecuaciones Prob(Li, Lj) = pij. Prob(Li, Lj) es la probabilidad de que los alelos en Li, Lj sobre el mismo cromosoma sean transmitidos juntos (si Li, Lj son loci sobre el mismo par de cromosomas) y es la probabilidad de que alelos arbitrariamente seleccionados en Li, Lj sean transmitidos juntos (o no). Si Li, Lj son loci sobre el mismo par de cromosomas, entonces 0.5 ≤ pij ≤ 1. Si Li, Lj están sobre diferentes pares de cromosomas, entonces pij es 0.5.
(6) La distribución esperada de los genotipos de la descendencia en un cruce entre ij e k es D;… [se continúa para todos los pares en los que ocurren cruces].
(7) La distribución esperada de los fenotipos de la descendencia en un cruce entre ij e ik es e; la distribución esperada de los fenotipos de la descendencia en un cruce es… [se continúa para todos los pares en los que ocurren cruces].
Instrucciones de llenado: ai1, …, aimi tienen que ser reemplazadas con los nombres de los ale- los, P1, …, Pn tienen que ser reemplazadas con los nombres de los rasgos fenotípicos, i1, i2, …, iN tienen que ser reemplazadas con los nombres de los individuos en el pedigree, G1, G2, …, GN tienen que ser reemplazadas con los nombres de las combinaciones alélicas (p.e. a11a11a21a21…an1an1 o a11a12a21a21…an1an1), d es reemplazada por una caracterización explícita de una función que asigna frecuencias relativas a los genotipos (combinaciones alélicas), y e tiene que ser reemplazada por una caracterización explícita de una función que asigna frecuencias relativas a los fenotipos.
Clasificación: (1), …, (5) son premisas; (6) es derivado de (3), (4), y (5) usando los principios de la probabilidad; (7) es derivado de (2) y (6).
Otros ejemplos brindados por Kitcher son los ya mencionados Mendel (1900) y Mendel refinado (1902?-1910?), lo que denomina «Watson-Crick» (Kitcher 1989, 441-442), la selección neodarwiniana (Kitcher 1993, 46-47), las trayectorias genéticas de Fisher, Haldane y Wright (Kitcher 1993, 44-45) y la teoría del enlace químico o Dalton (Kitcher 1989, 446-447). A nuestros fines, basta con concentrarnos en los cuatro ejemplos aludidos.
2.Críticas al enfoque de Kitcher
Por supuesto, es posible separar la discusión relativa a las reconstrucciones particulares que Kitcher ofrece de la cuestión (más general) relativa a las prácticas explicativas que se pretenden reconstruir bajo su enfoque. Como dijimos, aquí no estamos tan interesados en presentar discusiones puntuales acerca de reconstrucciones individuales como en analizar crítica- mente algunas cuestiones generales acerca de su marco.
Concretamente, veremos tres críticas importantes relativas a la capacidad de este enfoque para dar cuenta de la capacidad unificadora de las teorías científicas (o de los patrones explicativos). Las dos primeras son señaladas por Stathis Psillos, mientras que la tercera es insinuada por el propio Kitcher.2
2.1 Crítica debida a la ausencia de leyes
La primera crítica consiste en el señalamiento de que el «modelo» (unificacionista) de explicación propuesto por Kitcher no exige que las explicaciones sean nomológicas, por lo que puede prescindir del análisis de las leyes naturales, cuando no parece posible dar con explicaciones genuinas sin apelar a ellas, pues «al ser genuinamente legaliformes, estos enunciados pueden asegurar el poder que tienen algunos esquemas de ser empleados repetidamente en explicaciones de eventos singulares» (Psillos 2007, 140).
Así, no está claro cómo puede renunciar al empleo de leyes a la hora de mostrar cualquier virtud epistémica de una explicación, incluyendo el poder unificador. De hecho, usualmente se ha sostenido que la presencia de regularidades nómicas es condición necesaria de toda explicación científica genuina. Más adelante, y en consonancia con Psillos, intentaremos mostrar el sentido en el cual consideramos que la apelación a leyes (en un sentido específico que explicitaremos) sí es importante para dar cuenta adecuadamente de la capacidad unificadora.
2.2. Crítica debida a la insuficiencia del enfoque
La segunda crítica subraya que los patrones de argumento resultan incompletos, ya sea en los argumentos esquemáticos o en las instrucciones de llenado. Psillos se apoya aquí en la mecánica clásica. El patrón de argumento ofrecido en la reconstrucción de Kitcher no logra capturar el papel que juega el concepto de fuerza en las distintas aplicaciones de la teoría. Dice Psillos:
Cada aplicación específica de la ley de Newton requiere, como lo han acentuado repetidamente Cartwright [y, añadiríamos nosotros, los análisis estructuralistas de la mecánica clásica], la especificación previa de una función fuerza adecuada. […] Qué funciones fuerza son aplicables no es parte del argumento esquemático. Ni puede esto ser añadido a las instrucciones de llenado, simplemente debido a que las funciones fuerza pueden ser demasiado diversas, o pueden estar no especificadas por el momento. (Psillos 2007, 140-141)
Sin mayores especificaciones al respecto de la/s fuerza/s involucrada/s en el fenómeno a explicar, no está claro cómo podríamos estar frente a una explicación satisfactoria. Nuevamente, se necesita más. Para el caso de la mecánica newtoniana, por ejemplo, se deberán especificar las fuerzas involucradas en cada caso específico. Volveremos sobre este punto más adelante.
2.3 Crítica debida a la inexistencia de un patrón común
Es el mismo Kitcher quien señala un sentido en el cual su propio enfoque no logra dar cabal cuenta de la capacidad unificadora de las prácticas explicativas que intenta tratar. Al pensar la dinámica newtoniana, Kitcher reconoce el contraste entre el amplio espectro explicativo de ésta y el modo en que su propuesta refleja tal amplitud utilizando patrones que no son completamente diferentes, «ya que todos ellos proceden usando el cálculo de ecuaciones explícitas de movimiento como un preludio a posteriores inferencias» (Kitcher 1981, 521).
Puesto que la mecánica clásica consiste en un conjunto heterogéneo de patrones explicativos, para lograr realmente dar cuenta de su poder unificador no bastaría apelar a tal concepto, sino que deberíamos tener alguna herramienta para tratar con semejanzas entre patrones explicativos. La propuesta de Kitcher es programática y no señala claramente en qué consiste lo común a todos estos patrones explicativos heterogéneos, ni proporciona herramientas para reconstruir este patrón común ni para analizar las relaciones entre patrones.
Este es el triple desafío que enfrenta el planteamiento de Kitcher. En las siguientes dos secciones mostraremos cómo el estructuralismo puede lidiar con este multifacético reto sin lesionar por ello ninguno de los logros atribuibles al planteamiento aludido.
3. La noción de red teórica en el estructuralismo metateórico
Las tres críticas expuestas en el apartado anterior (la no inclusión de leyes, la incompletud de los patrones de argumento y la inexistencia de un patrón común) pueden ser afrontadas desde el instrumental estructuralista.3
Considérese el problema que el propio Kitcher ve en su enfoque (la tercera crítica de sección anterior). ¿Qué tienen en común los diferentes patrones explicativos subyacentes a las prácticas explicativas de los científicos newtonianos? La respuesta intuitiva parece ser: todos ellos apelan a la mecánica clásica de partículas. Sin embargo, la naturaleza metateórica de esta teoría no ha constituido un tema sencillo de desentrañar. La renuncia de Kitcher a enfrentar la cuestión apelando a la noción de teoría, y a hacerlo en cambio a partir de la noción de explicación, tiene que ver, al menos en parte, con la persistencia de los intentos fallidos de pensar la mecánica desde las concepciones clásicas de teoría. Sin embargo, y este es nuestro punto, es factible elucidar satisfactoriamente las teorías empíricas presuponiendo nociones de teoría diferentes de las clásicas. Particularmente, apelaremos a la noción de red teórica que el estructuralismo desarrolló a partir de intuiciones kuhnianas.
Según Kuhn, en teorías altamente unificadas hay algunas generalizaciones que no son «leyes específicas», sino «esquemas» que pueden adoptar formas específicas a la hora de tratar problemas específicos:
[…] generalizaciones [como f = ma] no son tanto generalizaciones como esquemas de genera- lizaciones, formas esquemáticas cuya expresión simbólica detallada varía de una aplicación a otra. En el problema de la caída libre, f = ma se convierte en mg = md2s/dt2. En el del péndulo simple, se convierte en mgSenθ = – md2s/dt2. En el de los osciladores armónicos acoplados, se convierte en dos ecuaciones, de las cuales la primera puede escribirse m1d2s1/dt2 + k1s1 = k2(d + s2 – s1). Problemas mecánicos más importantes, por ejemplo, el movimiento del giróscopo, todavía presentarán mayor disparidad entre f = ma y la efectiva generalización simbólica a la que se aplican la lógica y la matemática. (Kuhn 1970, 465)
Esta idea kuhniana ha sido elaborada en detalle por el estructuralismo con las nociones de especialización y de red teórica, y ha sido aplicada en la reconstrucción de diversas teorías de diferentes disciplinas científicas.
Es importante señalar que el estructuralismo no es un enfoque acerca de la naturaleza de las teorías que se sostenga a priori, sino que ha surgido y ha ido complejizándose en la reconstrucción de teorías particulares. En sus trabajos reconstructivos, los estructuralistas han encontrado que la mayoría de las teorías son sistemas jerárquicos—que forman un tipo de red—, con leyes de muy diferentes grados de generalidad dentro del mismo marco conceptual (Balzer et al. 1987, Cap. IV). Usualmente hay una sola ley fundamental o principio-guía que conecta todos los términos fundamentales de la teoría en una única «gran» fórmula, que es (implícita o explícitamente) presupuesta como válida, y con fuerza modal, en todas las aplicaciones de la teoría por la respectiva comunidad científica que la utiliza, y cuyo rol primario es proveer un marco para la formulación de otras leyes que se aplican a dominios más restringidos. Así, en el punto más alto de la estructura reticular hay efectivamente al menos una ley cuya vaguedad le permite ser tan comprehensiva que resulta válida en cada aplicación empírica de la teoría, aunque (y por esa misma razón) impotente como para constituir una explicación satisfactoria para un caso particular concreto por sí misma. Esta ley general se aplica, de modo no trivial, a través de otras leyes más especiales con mayor contenido empírico que sí son útiles para lograr explicaciones satisfactorias específicas (ver Figura 1 para el caso particular de la mecánica clásica de partículas, en el que se consideran sólo algunas fuerzas, a modo de ejemplo).

La relación de arriba hacia abajo en esta jerarquía no es de implicación o derivación, sino de especialización: las leyes de las porciones inferiores especifican algunas dependencias funcionales que son dejadas parcialmente abiertas en las leyes superiores de sus respectivas ramas. Esta relación es reflexiva, antisimétrica y transitiva, agregándose nueva información adicional a medida que descendemos en la estructura jerárquica. Es el agregado de estas restricciones lo que, como veremos luego, provoca que tales leyes especializadas se apliquen a un rango empírico cada vez más limitado.
De este modo, las leyes fundamentales actúan como principios-guía desde la cúspide de la estructura en tanto que «programáticas» o heurísticas en el sentido que nos dicen el tipo de cosas que debiéramos buscar si queremos explicar un fenómeno específico. Pero tomadas de manera aislada, sin sus especializaciones, dicen muy poco del mundo, al punto que han sido consideradas como «empíricamente irrestrictas» (Moulines 1978).
Si bien el marco conceptual estructuralista propone muchas otras herramientas a la hora de reconstruir teorías, estas nociones bastan para los fines de este trabajo.
4. Redes teóricas vs. patrones explicativos
Antes de tratar de mostrar cómo el estructuralismo puede colaborar con el enfoque de Kitcher para brindar una elucidación más satisfactoria del poder unificador de teorías del estilo de las apuntadas como ejemplos en la sección 2, es importante señalar que no existe incompatibilidad intrínseca alguna entre la perspectiva estructuralista y los patrones de razonamiento. De hecho, y por el contrario, es posible subrayar (al menos) dos semejanzas re- levantes.
En primer término, se parecen en lo que niegan. En la concepción clásica o heredada de las teorías, para reconstruir una teoría había que identificar las leyes fundamentales a partir de las cuales—suponiendo las hipótesis subsidiarias adecuadas—se dedujeran todas las consecuencias observacionales verdaderas, es decir, todas las aplicaciones de la teoría. Como la deducción no es ampliativa, todo el contenido empírico (que no proviniera de las hipótesis subsidiarias) debía encontrarse en aquellos principios fundamentales. Pero la reconstrucción de teorías científicas desde el planteo clásico estricto ha probado ser precisamente (aunque no exclusivamente) por esta razón una tarea extremadamente dificultosa. Evidencia de ello es que bajo tal enfoque o bien no se han realizado reconstrucciones completas de teorías sustantivas, o bien que los intentos que sí tuvieron éxito resultaran en estructuras muy extensas y complejas—lo que, a su vez, no ayudaba a la realización del ideal de que tales reconstrucciones sirvieran a la enseñanza y comunicación de la ciencia, objetivos funda- mentales de los empiristas lógicos, marco bajo el cual surgió esta concepción (Hahn et al. 1929)—e incluso que a la postre se resignaran los propios lineamientos del enfoque clásico (Hempel 1970).
En segundo lugar, y en parte como consecuencia de lo primero, existe una semejanza respecto de la estrategia reconstructiva. Tanto el patrón explicativo en el enfoque de Kitcher como la ley fundamental en el del estructuralismo (y en el de Kuhn) pretenden aportar una estructura en común para las diversas aplicaciones de la teoría.
Los patrones explicativos permiten obtener aplicaciones, pero no deducirlas. En ambos casos, la pregunta metateórica clave no es «¿de qué principios se deducen todas las aplicaciones de la teoría?», sino «¿qué es lo que todas las aplicaciones de la teoría tienen en común?». responder esta pregunta, es una tarea no sólo realizable, sino que además permite obtener reconstrucciones mucho más sencillas, contribuyendo a la deseable clarificación de las teorías involucradas.
Por otro lado, la misma posibilidad de que el enfoque de Kitcher pudiera ser traducido a los marcos conceptuales semanticistas, ya había sido considerada por él mismo (Kitcher 1993, 18-19, n. 22).
Como ya afirmamos, varios de los constructos tematizados por Kitcher efectivamente han sido discutidos y elucidados utilizando las herramientas estructuralistas:
— La mecánica clásica. Una teoría que si bien ya había sido pensada desde el semanticismo por Patrick Suppes (McKinsey et al. 1953), fue retomada desde el inicio del estructuralismo por Joseph Sneed (1971), elucidación que fuera reelaborada dentro de dicho formato en diversas ocasiones (Balzer y Moulines 1981, Balzer et al. 1987) y que se convertiría en «ejemplo paradigmático» de la concepción;
— La teoría de la selección natural (Ginnobili 2010, 2012, 2016; Díez y Lorenzano 2013);
— La teoría del origen en común (Blanco 2012); y
— Diversas teorías de la genética (Balzer y Dawe 1997; Balzer y Lorenzano 2000; Casanueva 2003; Casanueva y Méndez 2005, Lorenzano 1995, 2000, 2002, 2014).
En todos estos casos aparecen leyes fundamentales, a la vez que se sugiere la aplicación a través de leyes especiales en el sentido desarrollado en la sección anterior.
Como veíamos, Kitcher mismo admitió que sus patrones son demasiado limitados para el caso de la mecánica clásica. Creemos que lo mismo puede decirse para el resto de los constructos que analiza. Consideramos, además, que la solución, como el mismo Kitcher sugería, viene de la mano de una noción de teoría más adecuada. La noción de ley especial no requiere la conservación de exactamente la misma estructura matemática para cada caso, a la vez que proporciona un sustrato legal a la explicación a través de sendas leyes específicas.
Las diferentes leyes especiales, si bien preservan el marco conceptual y mantienen relaciones semejantes entre los conceptos, pueden asumir formas matemáticas peculiares.
Así, es posible encontrar vínculos entre aplicaciones que de otro modo aparecerían como inconexas entre sí: la unificación se produce no sólo por la cantidad de cosas de las que se da cuenta, sino también por lo heterogéneas que son esas cosas, justo lo que el propio Kitcher exigía de su propia propuesta (cf. supra, problema 3), pues al «meramente» instanciar los patrones, esta heterogeneidad efectivamente no se ve.
Por último, la impotencia del enfoque de Kitcher para dar cuenta satisfactoriamente del poder unificador de las teorías se relaciona específicamente con la segunda de las críticas de Psillos. Las instrucciones de reemplazo en el enfoque de Kitcher no son lo suficientemente elaboradas o sofisticadas como para mostrar que los conceptos más abstractos—representa- dos por las dummy letters en el argumento esquemático del patrón de razonamiento—no se instancian directamente en aplicaciones individuales. La aplicación de tales conceptos requiere la especificación previa en leyes especiales, en donde se determine el tratamiento particular que recibirá el caso en cuestión. La noción de red teórica permite dar cuenta de este escenario. Así, la red teórica de la mecánica clásica restringe las diferentes especificaciones que puede recibir el concepto de fuerza (Balzer et al. 1987, Cap. IV, § 4), la red teórica de la teoría de la selección natural restringe los diferentes tipos de especificaciones que puede recibir la noción de aptitud (Ginnobili 2010, 2012, 2014), la red teórica de la ascendencia común restringe los diferentes tipos de especificaciones para la noción de distancia parental para explicar semejanzas homológicas (Blanco 2012), la red teórica de la genética restringe los diferentes tipos de especificaciones que puede recibir la noción de genotipo (Balzer y Lorenzano 2000; Lorenzano 1995, 2000, 2002). Los ejemplos podrían continuar; y en todos encontraríamos el mismo patrón de unicidad en la heterogeneidad.
En las siguientes dos subsecciones desarrollaremos más pormenorizadamente estos dos puntos, para mostrar cómo la noción estructuralista de red teórica cubre todos los logros alcanzados por la propuesta de Kitcher a la vez que se libera de los defectos apuntados contra ésta. Pero esto implicará, como veremos, repensar la propuesta de Kitcher como una de las variables a sopesar en la determinación de la capacidad unificadora: la rigurosidad o lo estricto de los patrones de razonamiento. Es interesante señalar que estos dos problemas, que parecen diferentes por el modo en que Kitcher los presenta, en realidad se encuentran intrínsecamente relacionados. La solución desde el estructuralismo viene dada, en ambos casos, por la apelación a las nociones de red teórica y especialización.
4.1 Patrón núcleo común y elemento teórico básico
Los patrones explicativos asociados a una teoría son mucho más versátiles de lo que la propuesta de Kitcher considera.
En el cálculo de la capacidad unificadora de una sistematización, la rigurosidad es un factor con el que aquélla varía de manera directamente proporcional. La rigurosidad del patrón se evalúa adoptando una combinación de dos factores: los patrones son estrictos si sus instanciaciones contienen estructuras lógicas similares y sus instanciaciones contienen vocabulario no lógico similar en lugares similares (Kitcher 1981, 527). Trataremos en este apartado, específicamente el primero de los componentes de la rigurosidad. Cuanto más semejantes en estructura lógica sean las instanciaciones de un patrón, más unificador es éste. Si bien, como veíamos antes, Kitcher considera que este requisito es algo simplista, porque los patrones asociados a la mecánica clásica tienen diferente estructura, es interesante señalar que la diversidad en estructura explicativa es presentada por Kitcher como yendo en detrimento de la capacidad unificadora. Lo que se puede ver, en los análisis estructuralistas de las teorías con las que estamos tratando, es que la divergencia en estructuras explicativas podría ser vista, al contrario de lo sostenido por Kitcher, como un síntoma de capacidad unificadora. Esto se debe a que ésta no sólo está determinada por la amplitud del campo de aplicación empírica, sino por la heterogeneidad de tales aplicaciones.
Ejemplifiquemos el punto señalado con la teoría de la selección natural. El primer sentido en el que los patrones de Kitcher aparecen como demasiado rígidos queda evidenciado sencillamente cuando se ven los diferentes modos en que puede utilizarse la teoría para dar cuenta de sus diversos explananda. Por ejemplo, la teoría era utilizada por Darwin para dar cuenta del origen de la adaptación, y en consecuencia, de la posición de ciertos rasgos en una especie (este es el tipo de uso de la teoría que Kitcher reconstruye en su patrón explicativo de la selección natural simple). Este tipo de explicación era el que Darwin tenía en mente, puesto que su apelación a la selección natural es justamente un intento de dar cuenta de manera naturalista de la adaptación de los organismos vivos al ambiente. Sin embargo, actualmente, desde que la genética de poblaciones brinda medios para determinar el éxito reproductivo de los individuos, la teoría es utilizada para explicar por qué los organismos que poseen cierto rasgo en una población tienen un mayor éxito reproductivo que otros de esa misma población (Ginnobili 2010). Por otra parte, considerando también la heterogeneidad de explananda asociados a los diversos patrones que se pueden armar en base a la teoría de la selección natural, la versión de Kitcher de la selección natural simple tiene como explanandum específico que todos los miembros de la población tienen cierto rasgo. Pero la teoría de la selección natural puede utilizarse para dar cuenta de casos en los que se da una proporción específica entre rasgos, por ejemplo, en el caso de sex ratio (Ridley 2004, 337- 339). Los explanandatambién pueden diferir de acuerdo a si se trata un caso de aplicación de la selección direccional, disruptiva o estabilizadora (Ridley 2004, 77). Y las diferencias de explananda traen aparejadas diferencias en los explanans correspondientes. También los explanans pueden diferir en otros aspectos, por ejemplo, si se trata de un caso de selección de grupo o de selección individual.
En todos estos casos, la estructura lógica de las diferentes aplicaciones de la selección natural no se conserva, las instanciaciones de los patrones serían poco similares. Como veíamos, Kitcher es consciente de esto, al menos en el caso de la mecánica clásica. Pero entonces, si las teorías unificadoras no tienen instanciaciones con la misma estructura lógica, ¿por qué poner la rigurosidad como un requisito de la unificación? Volveremos sobre esto en la sección 5.
La noción de red teórica del estructuralismo metateórico permite capturar una intuición que Kitcher señala y que toda metateoría desearía conservar: en qué sentido podemos decir que nos encontramos en el seno de una y la misma teoría a pesar de reconocer heterogeneidades en ella.
El enfoque elucidatorio debería ser lo suficientemente dúctil como para permitir «seguir» las heterogeneidades propias de la teoría en cuestión, y eso incluye casos de teorías en los que las aplicaciones concretas varían entre sí de un modo ostensible. En resumen, los límites de esa diversidad no están atados a un abanico común para todas las teorías de la empresa científica, por lo que la herramienta reconstructiva debe ser lo suficientemente flexible como para poder atrapar todo ese espectro de variabilidad que nos ofrecen tales teorías. Es lo amplio de ese abanico lo que demanda una metateoría elástica en desmedro de una rígida.
Nótese, por ejemplo, que en la reconstrucción estructuralista de la mecánica clásica de partículas distintas especializaciones exhiben (muy) distintas leyes que dictan regularidades sobre las respectivas porciones de la naturaleza a la cual se aplican. De hecho, si hubiera coincidencia en el rango de aplicación empírica de todas las leyes, no habría necesidad de pensar en una estructura jerárquica, pero ese no es el caso de ninguna de las numerosas teorías que han sido reconstruidas hasta ahora, y es justamente esto lo que permite un análisis sistemático en un sentido dependiente de la estructura global, pero también, en otro sentido—limitado, pero genuino—, por separado de ella.
Como hemos venido afirmando, es la apelación a la misma teoría lo que todos los patrones explicativos seleccionistas, de la mecánica clásica de partículas, de la genética clásica, o de la teoría de origen en común, comparten. Tales patrones explicativos pueden diferir sustancialmente en cuanto a su estructura. De hecho, las leyes que se obtienen por especialización a partir de la ley fundamental (el elemento teórico básico) no conservan la estructura lógica.
En la genética clásica, dicha estructura, y la de los patrones explicativos asociados, puede variar dependiendo del número de pares de alelos/factores/genes involucrados (sea uno o varios), del modo en que dichos alelos/factores/genes se relacionan con las características (fenotipos) (ya sea dominancia completa o incompleta, codominancia o epistasis) y de la manera en que los alelos/factores/genes paternos son distribuidos en la descendencia (con combinaciones de genes equiprobables o no).
Para el caso de la teoría del origen en común, nótese que las variantes en la estructura de los patrones explicativos se da al menos por notables diferencias en los explananda: se explican semejanzas en la organización de los miembros, pero también comportamentales (por ejemplo, gestos que anuncian ferocidad), el modo en el que está controlado en artrópodos, nematodos, peces y ratones la organización antero-posterior (Slack y Holland 1996), o incluso cómo se regula la organización dorso-ventral del sistema nervioso en vertebrados—dorsal—e insectos—ventral—(Geoffroy Saint-Hilaire 1822; De robertis y Sasai 1996), entre muchas otras.
Hasta ahora nos enfocamos sólo en el primero de los requisitos de la rigurosidad, que tiene que ver con la estructura lógica de las diferentes instanciaciones. Sin embargo, el elemento más interesante de la rigurosidad tiene que ver con las instrucciones de reemplazo. Nos ocuparemos de ello en el siguiente apartado.
4.2 Instrucciones de reemplazo y especificación
Las instrucciones de reemplazo instancian de manera directa las dummy letters del patrón en sus casos de aplicación. El enfoque de Kitcher pasa por alto otra característica esencial de las teorías unificadoras, que puede ser explicitado desde la metateoría estructuralista. Éstas no solamente brindan una estructura explicativa (que, como ya hemos visto, es más heterogénea de lo que el mismo Kitcher propone), sino que además legislan los diferentes tipos de especificaciones que pueden sufrir sus conceptos fundamentales. En el elemento teórico más abstracto, o la ley más fundamental de la mecánica clásica de partículas, sólo se afirma la existencia de distintos tipos de fuerza. Las aplicaciones de la mecánica clásica no instancian directamente tales conceptos, sino que la aplicación de una ley fundamental a casos más específicos está mediada por leyes especiales que especifican sus conceptos fundamentales. La especificación no sólo implica que los conceptos en las leyes más especiales se aplican a menos cosas, sino que las propiedades de los diferentes conceptos más específicos son diferentes. La fuerza de gravedad tiene características que no tienen otras fuerzas (como actuar a distancia según proporciones matemáticas específicas). Los conceptos del patrón explicativo más general no se instancian de manera directa en casos. El científico que intenta aplicar tal patrón a un caso específico tiene que decidir con qué versiones específicas de los conceptos de la teoría lo tratará, y en consecuencia, bajo cuál ley especial quedará subsumido el caso.
Ilustremos este punto con el caso de la teoría de la selección natural. De un modo análogo a lo que ocurre con la mecánica clásica de partículas, en donde la red teórica surge de la especificación que recibe el concepto de fuerza, uno puede pensar la teoría de la selección natural como una red teórica que surge de las diferentes especificaciones que recibe el concepto de aptitud o fitness (Ginnobili 2010, 2012, 2016). Así, en algunos casos las diferencias en el éxito reproductivo entre diferentes tipos de organismos en una población se debe a que la posesión de ciertos rasgos provoca en sus portadores diferencias en la edad de deceso, en la capacidad de atraer pareja (selección sexual), en la fecundidad, etc. Las diferentes formas en las que la selección natural puede ser aplicada a casos específicos están reguladas por las diferentes leyes especiales de la teoría.4
En el caso de la genética clásica (de transmisión), la red teórica surge de la especificación que recibe el concepto de genotipo (Lorenzano 1995, 2000, 2002). Las diferencias en las distribuciones específicas de características (fenotipos) en la descendencia se debe a la presencia en los progenitores de factores/genes (genotipos) específicos que «producen»/«determinan» las características y se combinan probabilísticamente y transmiten a la descendencia en la reproducción, de modo tal que las distribuciones de factores/ genes (genotipos) «concuerdan» (de manera específica y más o menos aproximada) con las distribuciones de características (fenotipo). En cada caso específico se deben buscar genes específicos, sus efectos fenotípicos específicos y la manera específica en que se distribuyen dichos genes de modo de poder dar cuenta de la distribución específica de las características en la descendencia. Las distintas maneras en que puede ser aplicada la genética clásica (de transmisión) vienen dadas (son especificadas) por las distintas leyes especiales de la teoría.
Una analogía similar puede identificarse en la teoría de ascendencia en común: distintos patrones en la configuración de homologías se explican a partir de diferentes distancias parentales, concretizando la ley general que supone irrestrictamente un origen en común para los portadores de cualquier semejanza de ese tipo. A pesar de lo heterogénea de la biodiversidad, la teoría, vía su ley fundamental, pretende encontrar vestigios de ancestría en común en virtualmente todas las formas de seres vivos de la historia. Ante cada caso concreto, las distancias parentales son especificadas vía leyes especiales.
Como se puede ver, los dos problemas señalados por Psillos en realidad son consecuencias de una misma carencia del enfoque de Kitcher. La heterogeneidad estructural de la que hablábamos en el apartado anterior se relaciona, justamente, con las diferentes especificaciones que reciben los conceptos fundamentales de la teoría. Una reconstrucción adecuada de las prácticas explicativas en un área disciplinar específica, debe reconocer las diferencias estructurales y conceptuales que existen entre las diversas y heterogéneas aplicaciones de una teoría. La evaluación de la capacidad unificadora de una teoría debe atender, entonces, a la heterogeneidad de casos en los que se aplica, a través de la heterogeneidad de las diferentes estructuras explicativas asociadas a la teoría, y a las diferentes especificaciones que reciben los conceptos de la teoría. Los dos apartados anteriores tratan con la rigurosidad propuesta por Kitcher (la similaridad estructural entre las diferentes instanciaciones del patrón, y que las instanciaciones tengan vocabulario no lógico similar en lugares similares) que como veíamos es una de las propiedades que debemos evaluar para juzgar la capacidad unificadora: la capacidad unificadora se incrementaría al incrementarse la rigurosidad. Lo que procuramos mostrar es que este modo de encarar la cuestión es inadecuado, no solo en su planteamiento específico, sino en la dirección en la que se enfrenta la solución al problema de la unificación espuria. Pues la heterogeneidad estructural y la forma heterogénea en las que los conceptos fundamentales de una teoría pueden reemplazarse, más que ir en desmedro de la capacidad unificadora, parece, al menos, un síntoma suyo. Volveremos sobre este aspecto en el siguiente apartado.
5. Capacidad unificadora
Como vimos, Kitcher intentó, en la misma línea de Friedman (1974), dar cuenta de la explicación a través de la noción de unificación. Nuestro interés no estaba en discutir tal vínculo, sino en lograr una mejor caracterización de la capacidad unificadora por sí misma. Sin embargo, no es nuestra meta dar una caracterización final y cerrada de dicha capacidad. Nuestro objetivo, menos ambicioso, es, sin embargo, doble. Por una parte, mostrar que los síntomas de capacidad unificadora planteados por Kitcher no sólo son inadecuados, sino que van en la dirección incorrecta para lidiar con los problemas que él mismo plantea. Por otra parte, que la presentación de la estructura fina de una teoría brindada por el estructuralismo es más adecuada para reflejar tal capacidad unificadora.
Recapitulemos lo ya señalado respecto del primer punto. Resulta bastante intuitivo, prima facie, sostener que la capacidad unificadora tiene que ver, en gran medida, con la cantidad de casos a los que se aplica una teoría (o un patrón explicativo). Esta idea es elaborada por Kitcher, por Friedman, y por otros autores (Weisberg 2007, Strevens 2004, entre otros). La preocupación de Kitcher, que lo hace traer a colación la rigurosidad, tiene que ver con que es bastante obvio que la mera cantidad de casos a los que se aplica un patrón no puede ser, unívocamente, síntoma de unificación. De allí que Kitcher apele a la rigurosidad de los patrones para evitar casos como patrones de aplicación amplia como «ocurrió por- que un dios lo quiso así». Este mismo problema es afrontado desde ángulos similares por otros autores, apelando a la noción de «cohesión» de una teoría (p.e. Morrison 2000, 207- 208; Strevens 2004). Si por «cohesión» entendemos aquello que impediría casos espurios como el señalado, entonces la homogeneidad estructural o conceptual en las aplicaciones de una teoría, es decir, la rigurosidad kitchereana, no es un buen síntoma de la cohesión de una teoría, y parece atentar justamente contra aquello que pretendía capturar: su capacidad unificadora.
Después de todo, insistimos, que una teoría sea unificadora no depende sólo del número de aplicaciones pretendidas exitosas sino de lo heterogéneas que sean tales aplicaciones. Efectivamente, la aserción «todos los cuerpos tienen masa» no es más unificadora que «la sumatoria de las fuerzas actuando sobre una partícula coincide con el producto de la masa de esa partícula por su aceleración», aunque tal vez se aplique a más cosas. Lo que hace unificador al segundo principio es que se aplica de modos diferentes a diferentes tipos de porciones de la naturaleza; porciones que, antes de Newton, no estaba en modo alguno claro que estuvieran relacionadas. En resumen, estas interrelaciones entre distintos elementos teóricos permiten verlos como partes de «algo unitario». En otras palabras: la relación de especialización y de red teórica parece un garante de cohesión más adecuado, y permite entender mejor en qué consiste la valiosa unificación de las teorías bona fide científicas. Nótese que la explicación que apela al arbitrio de dios no constituye una red teórica. Es semejante a lo que ocurriría si uno tomara aisladamente al segundo principio ‒«existen fuerzas que aceleran partículas de acuerdo con su masa»‒ sin las restricciones establecidas por las leyes especiales en la red teórica de la mecánica clásica. Díez (2002, 2014), continuando los intentos de tratar la explicación desde el estructuralismo metateórico (Bartelborth 1996, 2002; Forge 1999, 2002), había mostrado la importancia de la existencia de leyes especiales para dar cuenta de explicaciones genuinas. Su tratamiento puede extenderse para la elucidación de la noción de unificación. Efectivamente, un principio abstracto extremadamente maleable, lo mismo que una ley fundamental considerada por sí misma, sin la red teórica, produciría unificaciones espurias. Tales aplicaciones son sólo eliminadas, si se considera que una teoría no es un principio aislado, sino una red teórica que legisla a través de leyes especiales el tipo de explicaciones genuinas posibles (Díez 2003, 2014; Díez y Lorenzano 2013; Ginnobili 2007; Ginnobili y Carman 2008; Lorenzano 2014-2015, por aparecer).5
Newton es unificador no tanto porque su teoría se aplique con éxito a muchas cosas, sino porque detectó que diversas aplicaciones respondían a un mismo patrón explicativo. Kitcher elucida la capacidad unificadora considerando sólo la generalidad, la cantidad de enunciados que son conclusiones de los patrones y la rigurosidad de tales aplicaciones. Pero mayor cantidad no garantiza mayor heterogeneidad. Otra vez: el mayor mérito del aporte de Newton no es que ponga bajo el mismo paraguas numerosas aplicaciones, sino que lograra integrar en un hasta entonces solapado patrón común, disimilitudes antes consideradas independientes. Más genéricamente: una teoría incrementa su potencia unificadora no tanto por incremento en el número de sus aplicaciones exitosas, sino (más prominente- mente) por incremento en el tipo de aplicaciones exitosas. Se trata no meramente de enriquecer un conjunto de aplicaciones ya dado, sino de dar con superávit en las cadenas de especialización de la red teórica.
Lo que un acercamiento al tema del poder unificador de la ciencia debe lograr no es sólo mostrar cómo se incorporan más casos de los ya conocidos, sino más bien la asociación en un mismo marco de parcelas del mundo diferentes. Allí es, insistimos, donde reside el verdadero poder unificador de las teorías, y es eso mismo lo que la elucidación metateórica debe reflejar con la mayor fidelidad posible. Eso implica repensar, y tal vez abandonar, la noción misma de rigurosidad planteada por Kitcher. La rigurosidad no es una forma adecuada de pensar la cohesión de una teoría.
6.Conclusiones
Así como la capacidad unificadora cuenta como virtud epistémica a la hora de escoger entre teorías en conflicto, la competencia para elucidar precisamente ese mérito bien puede contar a su vez como criterio virtuoso de selección de enfoques reconstructivos de tales teorías. Concretamente: prefiérase aquella perspectiva que capture con mayor claridad tanto las distintas aplicaciones de una teoría como aquello que todas aquéllas tienen en común.
Fuera de sus innegables virtudes, el enfoque de Kitcher exhibe algunas dificultades que obstaculizan su objetivo, y esto por dos razones. Por una parte, los patrones que ofrece son demasiado rígidos y, en consecuencia, limitados, en el sentido de que no logran explicitar la estructura común de todas las aplicaciones de las teorías en cuestión, sino sólo algunas de ellas. Por otra parte, las instrucciones de llenado son demasiado sencillas: únicamente permiten reemplazar las dummy letters instanciándolas en un caso particular. En consecuencia, no logra reflejar adecuadamente el modo en que las teorías científicas regulan el tipo de reemplazos admisibles.
Las nociones de red teórica y especialización del estructuralismo (que elucidan y elaboran sistemáticamente algunas sugerencias kuhnianas) no sólo permiten conservar las conquistas de la perspectiva de Kitcher, sino que además la aventajan solucionando los tres problemas que se le han endilgado. Esto se hace, además, de un modo semejante al pretendido por Kitcher, en donde no se intenta presentar un cálculo axiomatizado del cual se deduzcan todas las aplicaciones de la teoría, sino explicitando la estructura común a las diferentes aplicaciones desde un marco nómico coincidente (la ley fundamental), pero también con otras leyes más restrictivas (dependientes en algún sentido de aquella ley fundamental, aunque no derivadas deductivamente de aquélla) que valen sólo para dominios más restringidos y específicos.
Por último, reconocemos que hemos dejado de lado una cuestión que pudiera considerarse importante. Kitcher pretende reconstruir explicaciones, mientras que el estructuralismo pretende reconstruir teorías (explicativas) desde un enfoque semanticista (los explananda son fenómenos empíricos qua modelos de datos subsumibles en los modelos legales de las teorías). Esta contribución sugiere que para dar cuenta de manera adecuada del poder unificador de las explicaciones en ciertas subdisciplinas particulares es necesario apelar a la capacidad unificadora de la teoría a la que se acude en tales explicaciones. Esto sugiere que el estructuralismo metateórico podría utilizarse no sólo para mejorar o sofisticar el enfoque de Kitcher, sino que, además, podría emplearse incluso para plantear una elucidación más adecuada de la noción misma de explicación científica. Aunque esta recomendación pueda resultar un claro corolario de este trabajo, abundar al respecto excede a nuestros propósitos (cf. Bartelborth 1996, 2002; Forge 1999, 2002; Díez 2014; Moulines 2005).
Para terminar, señalaremos lo siguiente. Morrison, por ejemplo, plantea la cuestión de cómo dar cuenta de la cohesión en un ámbito en el que se apela a modelos heterogéneos (Morrison 2000, 206-209). Más allá de la solución que brinda, que no discutiremos por cuestiones de espacio, la misma pregunta puede sugerir que la unificación de la mecánica clásica y de teorías biológicas debiera pensarse de un modo diferente. La apelación a las redes teóricas estructuralistas para asegurar la cohesión de las aplicaciones empíricas de una teoría unificadora, y por lo tanto, heterogénea en sus casos de aplicación, además, tiene el beneficio pretendido por Kitcher de brindar un mismo tipo de enfoque acerca de la unificación que se aplique transdisciplinariamente. La razón por la cual la mecánica clásica de partículas, la teoría del origen común, la genética clásica o la teoría de la selección natural, son unificadoras, es la misma: constituyen cada una de ellas una colección de elementos teóricos que tratan casos heterogéneos subsumiéndolos en alguna línea de especialización de su red teórica, que es el «desarrollo multidireccional» de un principio-guía común.
Agradecimientos
Esta investigación fue financiada por los siguientes proyectos: PICT-2014-1741 (ANPCyT, Argentina), 32/15 255 (UNTREF, Argentina), FFI2012-37354 /CONSOLIDER INGENIO CSD2009-0056 (España) y FFI2013-41415-P (España). El orden de los autores no refleja el tiempo dedicado ni las contribuciones realizadas al trabajo, sino que es estrictamente alfabético. Agradecemos los valiosos comentarios a versiones previas del trabajo de José Díez y dos evaluadores anónimos.
Referencias
Alai, Mario. 2014. Novel predictions and the no miracle argument. erkenntnis 79: 297-326.
Balzer, Wolfgang y Chris Dawe. 1997. Models for genetics. Frankfurt am Main: Peter Lang.
Balzer, Wolfgang y Ulises Moulines. 1981. Die grundstruktur der klassischen partikelmechanik. Zeitschrift für Naturforschung 36a: 600-608.
Balzer, Wolfgang, Ulises Moulines, y Joseph Sneed. 1987. An architectonic for science: The structuralist program. Dordrecht: reidel.
Balzer, Wolfgang y Pablo Lorenzano. 2000. The logical structure of classical genetics. Zeitschrift für allgemeine Wissenschaftstheorie. 31: 243-266.
Bartelborth, Thomas. 1996a. Begründungsstrategien. ein weg durch die analytische erkenntnistheorie. Berlin: Akademie Verlag.
Bartelborth, Thomas. 1996b. Scientific explanation. En Wolfgang Balzer y C. Ulises Moulines, eds., Structuralist theory of science, 6-23. Berlin: Walter de Gruyter.
Bartelborth, Thomas. 1999. Coherence and explanation. erkenntnis 50: 209-224.
Bartelborth, Thomas. 2002. Explanatory unification. Synthese 130: 91-107.
Blanco, Daniel (2012). Primera aproximación estructuralista a la teoría del origen en común. Ágora, 31: 171- 194.
Casanueva, Mario. 2003. Mendeliana y anexos. México: Universidad Autónoma Metropolitana (Unidad Iztapalapa)-Miguel Ángel Porrúa.
Casanueva, Mario y Diego Méndez. 2005. Tres teorías y tres niveles en la genética del siglo xx. En Anna Estany, ed., Ciencias matemáticas, naturales y sociales, 197-224. Madrid: Trotta.
De Robertis, Edward y Yoshiki Sasai. 1996. A common plan for dorsoventral patterning in bilateria. Nature 380: 37-40.
Díez, José. 2002. Explicación, unificación y subsunción. En Wenceslao González, coord., diversidad de la explicación científica, 73-96. Barcelona: Ariel.
Díez, José. 2014. Scientific w-explanation as ampliative, specialized embedding: A neo-hempelian account. erkenntnis 79: 1413-1443.
Díez, José y Pablo Lorenzano. 2013. Who got what wrong? Fodor and Piattelli on Darwin: Guiding principles and explanatory models in natural selection. erkenntnis 78: 1143-1175.
Dowe, Phil. 2000. Physical causation. Cambridge: Cambridge University Press.
Earman, John. 1992. Bayer or bust? A critical examination of bayesian confirmation theory. Cambridge: The MIT Press.
Forge, John. 1999. explanation, quantity and law. Aldershot: Ashgate.
Forge, John. 2002. Reflections on structuralism and scientific explanation. Synthese 130: 109-121.
Friedman, Michael. 1974. Explanation and scientific understanding. The Journal of Philosophy 71: 1-19.
Geoffroy Saint-Hilaire, Étiene. 1822. Considérations générales sur la vertèbre. Mémoires du Muséum d’histoire naturelle 9: 89-119.
Ginnobili, Santiago. 2007. Hay lo que queda. Sobre la presunta tautologicidad de la teoría de la selección natural. Análisis Filosófico 27: 75-89.
Ginnobili, Santiago. 2010. La teoría de la selección natural darwiniana. Theoria 25: 37-58.
Ginnobili, Santiago. 2012. reconstrucción estructuralista de la teoría de la selección natural. Ágora. Papeles de filosofía 31: 143-169.
Ginnobili, Santiago. 2016. Missing concepts in natural selection theory reconstructions. History and Philosophy of the Life Sciences 38: 8. https://doi.org/10.1007/s40656-016-0109-y.
Ginnobili, Santiago y Daniel Blanco. 2017. Wallace’s and Darwin’s natural selection theories. Synthese. http://doi.org/10.1007/s11229-017-1491-z.
Ginnobili, Santiago y Christián Carman. 2008. Deferentes, epiciclos y adaptaciones. En Roberto Martins, Cibelle Silva, Juliana Mesquita, Hidalgo Ferrera y Lilian Pereira Martins, eds., Filosofía e história da ciência no cone sul. Seleção de trabalhos do 5o encontro, 399-408. Campinas: AFHIC.
Glennan, Stuart. 1996. Mechanisms and the nature of causation. erkenntnis 44: 49-71.
Hahn, Hans, Neurath, Otto y rudolf Carnap. 1929. Wissenschaftliche weltauffasung – der wiener kreis. Wien: Artur Wolf Verlag.
Hausman, Daniel. 1998. Causal asymmetries. Cambridge: Cambridge University Press.
Hempel, Carl. 1970. On the «Standard conception» of scientific theories. En Michael radner y Stephen Winokur, eds., Minnesota studies in the philosophy of science, Vol. IV, 142-163. Minneapolis: University of Minnesota Press.
Kitcher, Philip. 1981. Explanatory unification. Philosophy of Science 48: 507-531.
Kitcher, Philip. 1989. Explanatory unification and the causal structure of the world. En Philip Kitcher y Wesley Salmon, eds., Scientific explanation, 410-505. Minneapolis: University of Minnesota.
Kitcher, Philip.1993. The advancement of science: Science without legend, objectivity without illusions. Oxford: Oxford University Press.
Kuhn, Thomas S. 1970. The structure of scientific revolutions (2a ed.). Chicago: University of Chicago Press.
Lakatos, Imre. 1970. Falsificationism and the methodology of scientific research programmes. En Imre Lakatos & Alan Musgrave, eds., Criticism and the growth of knowledge, 91-195. Cambridge: Cambridge University Press.
Leplin, Jarrett. 1997. A novel defence of scientific realism. Oxford: Oxford University Press.
Leuridan, Bert (2014) The structure of scientific theories, explanation, and unification. A causal-structural account. British Journal for the Philosophy of Science 65: 717-771.
Lorenzano, Pablo. 1995. Geschichte und struktur der klassischen genetik. Frankfurt am Main: Peter Lang.
Lorenzano, Pablo. 2000. Classical genetics and the theory-net of genetics. En Wolfgang Balzer, C. Ulises Moulines y Joseph D. Sneed, eds., Structuralist knowledge representation: Paradigmatic examples, 251-284. Amsterdam: rodopi.
Lorenzano, Pablo. 2002. La teoría del gen y la red teórica de la genética. En José Díez y Pablo Lorenzano, eds., desarrollos actuales de la metateoría estructuralista: problemas y discusiones, 285-330. Quilmes: UNQ/ Universidad Autónoma de Zacatecas/Universidad Rovira i Virgili.
Lorenzano, Pablo. 2005. Comentarios a «Explicación teórica y compromisos ontológicos: un modelo estructuralista» de C.U. Moulines. enrahonar: quaderns de filosofia 37: 55-59.
Lorenzano, Pablo. 2014. What is the status of the Hardy-Weinberg law within population genetics? En Maria Carla Galavotti, Elisabeth Nemeth y Friedrich Stadler, eds., european philosophy of science – philosophy of science in europe and the viennese heritage, vienna circle institute yearbook 17, 159-172. Dordrecht: Springer.
Lorenzano, Pablo. 2014-2015. Principios-guía y leyes fundamentales en la metateoría estructuralista. Cuadernos del Sur 43-44: 35-74.
Lorenzano, Pablo. Por aparecer. Leyes fundamentales y principios-guía en la metateoría estructuralista. En José Díez, ed., exploraciones pluralistas. México-Madrid: UNAM/Biblioteca Nueva.
McKinsey, John, Sugar, A. y Patrick Suppes. 1953. Axiomatic foundations of classical particle mechanics. Journal of Rational Mechanics and Analysis 2: 253-272.
Morrison, Margaret. 2000. Unifying scientific theories. Physical concepts and mathematical structures. Cambridge: Cambridge University Press.
Moulines, C. Ulises. 1978. Cuantificadores existenciales y principios-guía en las teorías físicas. Crítica 10: 59-88.
Moulines, C. Ulises. 2005. Explicación teórica y compromisos ontológicos: un modelo estructuralista. enrahonar: quaderns de filosofia 37: 37-53.
Popper, Karl. 1963. Conjectures and refutations. London: Routledge & Kegan Paul.
Psillos, Stathis. 2007. Past and contemporary perspectives on explanation. En Theo Kuipers, ed., General philosophy of science: Focal issues, 97-173. Amsterdam: Elsevier.
Ridley, Mark. 2004. evolution. Malden: Blackwell.
Salmon, Wesley. 1984. Scientific explanation and the causal structure of the world. Princeton: Princeton University Press.
Slack, Jonathan y Peter Holland. 1993. The zootype and the phylotypic stage. Nature 361: 490-492.
Sneed, Joseph 1971. The logical structure of mathematical physics. Dordrecht: Reidel.
Strevens, Michael. 2004. The causal and unification approaches to explanation unified–causally. Noûs 38: 154-176.
Weisberg, Michael. 2007. Three kinds of idealization. The Journal of Philosophy 104: 639-659.
Notas
Notas de autor