ARTICLES
El modelo de simulación como generador de explicaciones causales
The Simulation Model as a Causal Explanation Generator
El modelo de simulación como generador de explicaciones causales
THEORIA. Revista de Teoría, Historia y Fundamentos de la Ciencia, vol. 33, núm. 1, pp. 111-128, 2018
Universidad del País Vasco/Euskal Herriko Unibertsitatea
Recepción: 07 Mayo 2017
Aprobación: 02 Octubre 2017
Resumen: Aquí profundizamos la tesis de que un modelo de simulación permite crear conocimiento en forma de explicaciones causales sostenida por Paul Weirich. Sostenemos la validez de exportar resultados del modelo al mundo modelado en virtud de la similitud entre modelo y mundo, analizable en términos de identidad parcial de estructura para eliminar la similitud superficial que repita los resultados empíricos al ajustar datos por calibración. La estructura de relaciones rescatadas del mundo resulta crítica al estudiar la mencionada similitud, como así también ciertas propiedades que condicionan el tipo de relaciones entre los elementos del modelo que representan entidades del mundo.
Palabras clave: Explicaciones causales, simulaciones, validación de simulaciones.
Abstract: Here we enrich Paul Weirich’s thesis holding that a simulation model can create knowledge in the form of causal explanations. We sustain the validity of exporting results from the model to the modelized world in virtue of the similarity between model and world, which is analyzable in terms of partial identity of structure, eliminating the superficial similarity that repeats empirical results by adjusting data via calibration. The structure of relations rescues from the world critical results to analyze such similarity, as so certain properties which condition the kind of relations held between the elements of the model representing entities of the world.
Keywords: Causal explanations, simulations, validation of simulations.
1. Introducción
En el presente trabajo enriqueceremos la posición filosófica de Paul Weirich acerca de los modelos explicativos científicos y las simulaciones, por considerar que, si bien resulta un aporte novedoso y relevante a las discusiones actuales en el área, se requiere precisar algunas cuestiones conceptuales de su marco a fin de lograr dicho objetivo.
La obra de Weirich (2011; 2013) revela un enorme interés en las potencialidades de las simulaciones para aportar conocimiento científico novedoso acerca de fenómenos del mundo, especialmente (pero no únicamente) en forma de explicaciones científicas. Para ello, las simulaciones deben poseer una cierta relación con el fenómeno, con el modelo del fenómeno y con una teoría acerca del fenómeno, relación que precisaremos a lo largo de este artículo. Podemos adelantar que para Weirich la relación entre la teoría y la simulación no es de subsunción, es decir, no (siempre) se sigue linealmente de la teoría, sino que (muchas veces) posee elementos novedosos que le harían tener, como propone Eric Winsberg (2010, 44), «vida propia». Esto pone a Weirich en la línea de Winsberg y de Margaret Morrison (2015) y lo aleja de posiciones como la sostenida por Frigg y Reiss (2009), quienes aseveran que no hay nada epistemológicamente novedoso en las simulaciones, no debiendo considerarse una «nueva metodología» sino tan solo una nueva manifestación de metodologías antiguas (como la experimentación, el modelado y la experimentación mental). Coincidimos con Weirich en dichas consideraciones sobre la importancia de las simulaciones y la necesidad de una epistemología específica sobre dicha práctica.
La clase de simulaciones que Weirich tiene en mente es la de aquellas que representan fenómenos del mundo físico. Estas buscan explicar un fenómeno identificando los factores relevantes para su ocurrencia, cosa que se logrará si la simulación es capaz de reproducir el fenómeno con los elementos programados en su estructura y parametrizados en sus condiciones iniciales. Esto deja fuera del alcance de su obra otros tipos de simulaciones como aquellas que Michael Weisberg (2013) denomina «simulaciones sin target», que emulan sistemas imaginarios. Las simulaciones en las que Weirich se enfoca actuarían como «mediadores» en uno de los sentidos propuestos por Morrison (p. ej. 2015). Para esta autora, a veces los científicos modelan sistemas físicos para ver qué leyes o conceptos de una teoría pueden aplicarse a fin de obtener explicaciones o predicciones en el sistema, mientras otras veces, se parte desde las teorías a fin de aplicar leyes altamente idealizadas o abstractas a un modelo que representa un sistema. Weirich se centra en modelos que cumplen la primera de las funciones mediadoras, donde el interés epistémico radica en el sistema del mundo modelado.
Weirich sostiene la tesis de que un modelo es un mundo posible afirmando «le permito ser un mundo pequeño, que incluya sólo las características bajo investigación» (2011, 156, trad. propia). Por otro lado, una simulación, para este autor, es un tipo abstracto de entidad que puede tener muchas instanciaciones a las que denominará «simulaciones concretas». Cada corrida de simulación generará un «sistema natural» (mundo posible) que puede compartir las propiedades físicas del sistema que imita. La simulación «descansaría» sobre un modelo, y Weirich se ocupa de aquellos modelos que tienen intencionalidad explicativa, la cual sería lograda al imitar un fenómeno del mundo target.
La relación que hay entre modelo y simulación, para este autor, es que esta última «representa» al modelo que subyace en él al compartir sus propiedades estructurales, y este comparte a su vez (algunas) características estructurales con el mundo target. Si se comparten dichas características estructurales, la simulación, a pesar de tener (algunos) presupuestos falsos, proveerá conocimiento nuevo en forma de explicaciones «parciales». Profundizaremos luego en la naturaleza de la relación. Baste por ahora señalar la adherencia de Weirich a posiciones representacionalistas de los modelos (p. ej. Weisberg (2013), quien afirma que las simulaciones son una clase de modelos que representan en función de su estructura interna), y se aleja de posiciones antirepresentacionalistas (p. ej. Tarja Knuuttila (2005), quien propone que los modelos son solamente artefactos heurísticos, sin necesidad de que representen nada del mundo físico).
Utilizaremos aquí «mundo target» para referirnos al mundo que se pretende modelar. Esto evita utilizar «mundo real» lo que llevaría a discusiones sobre el conocimiento que tenemos de este mundo y su ontología. Esto nos distancia de la posición realista de Weirich. Esta terminología es habitual al referirnos también a escenarios contrafactuales,1 lo cual es muy pertinente dado que cada corrida computacional del modelo es un ensayo de posibles evoluciones del sistema y en tanto son escenarios posibles, todos menos uno jamás serán instanciados en el mundo efectivo.
Un mundo posible está dado por una proposición maximalmente consistente. Es decir, toda información que quiera agregarse o bien es redundante o bien es contradictoria con la información previa.
Equiparar el modelo virtual a un «mundo posible», noción trabajada principalmente en la obra de Saul Kripke (p. ej. 1959) y de David Lewis (p. ej. 1986) entre otros, ha resultado fructífero en muchos aspectos y aquí aprovecharemos a explorar nuevas aristas de esta aproximación. Esta representa el punto más relevante y novedoso del enfoque de Weirich respecto a otros en el área, y consideramos en virtud del uso de esta noción que vale la pena abordar sus ideas, aunque desde una perspectiva de complementariedad crítica. Este enfoque permite arrojar luz sobre distintas características del funcionamiento de los modelos y simulaciones en la generación de conocimiento científico, aunque Frigg y Reiss (2009) afirmen que es aplicable a otras prácticas, como por ejemplo la experimentación en laboratorio.
Partridge et al. (2013) menciona lo ventajoso del enfoque: nos da una consistencia semántica para hablar de los entes del mundo posible y simplifica el marco ontológico en el modelado, pues se abogará por una ontología que imite lo mejor posible al mundo target. Luego veremos que no siempre un modelo fértil para la comprensión de los fenómenos del mundo target cumple con la condición de imitar su ontología. Parece bastar con rescatar correlaciones o mecanismos que echen luz sobre los fenómenos por medio de analogías o metáforas a pesar de no reproducir la ontología ni siquiera en forma aproximada ni en sus elementos ni, estrictamente, en sus relaciones.
En Weirich (2013), se retoma esta idea para profundizar la tesis de que los modelos pueden proveer una forma particular de explicación científica, a saber, «explicaciones parciales». Por supuesto, no todas ellas. Por ejemplo, hay simulaciones que no buscan explicar sino predecir, como ocurre con algunos modelos climáticos. Nos referiremos sólo a las simulaciones con intencionalidad explicativa.
El autor plantea utilizar la noción de mundo posible, y luego afirma, siguiendo a Sugden (2002) que:
El mundo posible describe para cada objeto del mundo sus propiedades y relaciones con otros objetos en el mundo. Esta caracterización coincide con muchos modelos […] Si un modelo deja algunos eventos indeterminados, no será un mundo posible sino una clase de mundos. (Weirich 2013, 107, trad. propia)
A continuación, asevera que los eventos del mundo posible descriptos en el modelo dependen de los principios de ese mundo. A su vez, los principios del modelo explican lo que ocurre en el modelo y eso que ocurre depende también de las condiciones iniciales. Dice Weirich que el modelo tomado como un mundo posible no ofrece en sí mismo una explicación: no hay explanandum ni explanans en sí mismo. Pero típicamente sí señala el fenómeno a ser explicado en el mundo target, especificando el fenómeno objetivo.
La explicación del fenómeno en el modelo, mientras que explica totalmente las instancias del fenómeno en el modelo, sólo será parte de la explicación en el mundo target.
Dado que los modelos se construyen a través de idealizaciones, el modelo no es igual al mundo target. Las leyes en el modelo no son las leyes generales que gobiernan el mundo target sino leyes simplificadas, pero así y todo pueden detectar algunos de los factores relevantes y por tal motivo las explicaciones en el modelo son explicaciones parciales del fenómeno del mundo target. A medida que se vayan agregando detalles al modelo, las explicaciones generadas por la simulación derivada de él serán de grano más fino, debido al proceso de desidealización. Estas explicaciones serán más parecidas a la total (aunque nunca dejarán de ser parciales), y los mundos posibles de la simulación serán más parecidos al mundo target en sus aspectos relevantes.
Según Weirich las leyes en los modelos se derivan de leyes del mundo target, aunque con restricciones específicas, y esa relación hace que las leyes que se usan para explicar en el modelo expliquen al menos parcialmente los fenómenos del mundo target. Cabe agregar aquí que lo que se toma como leyes del mundo target no son otras que las que figuran como conjeturas en nuestras mejores teorías, por lo cual las leyes que se incluyan en los modelos heredan este estatus conjetural, adicionalmente a las restricciones e idealizaciones que se le apliquen para ser incluidas en el modelo (p. ej. artilugios matemáticos para mejorar la computabilidad o disminución de las cifras significativas a tenor de la precisión requerida para los resultados).
Weirich (2013) se enfoca en las explicaciones causales. La causa es un tipo de razón por la que ocurre un fenómeno determinado (aunque no toda razón es una causa). Y prosigue «una explicación causal parcial de un evento tiene en el explanans algunas de las causas del evento» (2013, 110, trad. propia).
2. El problema del recorte del mundo: relevancia e idealizaciones
Hay varios puntos en los cuales estamos de acuerdo con Weirich. Creemos acertado el uso de la semántica de mundos posibles para las simulaciones y la caracterización de su poder explicativo. También creemos que las explicaciones causales son la clave en este tipo de modelos de simulación.
Pensamos a su vez que es correcta la afirmación de que todo modelo que pueda ser interpretado como no totalmente especificado representa una clase de mundos: cada parámetro modificado, aunque se trate de una variable a la cual el modelo es poco sensible, representa un mundo posible diferente. Todo modelo que no tiene explícitamente especificado algún aspecto permite ser tratado como un conjunto no-maximalmente descripto y por lo tanto deja abierta la interpretación de representar un conjunto de mundos posibles. Esto permite tratar a los modelos como aproximaciones sucesivas al mundo target en la medida en que se agregan especificaciones de forma explícita y no por una cláusula de completitud.
Weirich, al reconocer que un modelo que no tiene totalmente especificados ciertos eventos constituye una clase de mundos posibles, y no un solo mundo posible, pasa por alto que hay otro nivel de inespecificidad referida a las correlaciones y no a los eventos.
Un modelo podría no especificar los eventos porque no se han fijado los parámetros que determinan las condiciones iniciales. En este sentido sería una clase de mundos posibles, pero todo mundo posible de esa clase tiene las leyes o correlaciones que hemos decidido idealizar del mundo target. Siguiendo a Frigg y Hartmann (2017) habría dos formas de idealización: la abstracción (o idealización aristotélica) consiste en la selección y aislamiento en el modelo de variables del target que se consideran relevantes (y el consiguiente abandono de las demás), mientras que la idealización galileana es la distorsión deliberada de alguna variable (como en los planos sin fricción de la mecánica clásica) con un fin determinado, en general la simplificación del tratamiento matemático del modelo.
Tenemos entonces un conjunto de correlaciones que pretende imitar al máximo posible (dentro de las restricciones impuestas por las abstracciones e idealizaciones galileanas y por los artilugios para su computabilidad) a las correlaciones del mundo target. Aun sin especificar las condiciones iniciales, no habría más correlaciones que agregar. Este modelo corresponde a una clase de mundos con el mismo paquete de leyes.
Al especificar maximalmente las condiciones iniciales en esa clase, restringimos la clase de mundos posibles y obtendremos un subconjunto.
Ahora bien, si el paquete de leyes incluye alguna correlación estadística, aun cuando se especifiquen maximalmente las condiciones iniciales, no se habrá determinado uno y sólo un mundo posible: simplemente se habrá acotado la clase dado que cada instanciación de una variable estadística fija un mundo posible diferente. Así, si un modelo representa la tirada de un dado y bajo las mismas condiciones iniciales puede evolucionar para dar por resultado un 3 o un 6, esas dos evoluciones del modelo corresponden a dos mundos posibles diferentes en el sentido estricto de los eventos, aunque no en el sentido de las correlaciones. Esta distinción no debe llevarnos a pensar que estamos modelando mundos target diferentes.
En cuanto a la construcción del modelo, aquellos con menor cantidad de idealizaciones serán mundos posibles más cercanos al mundo target, aunque nunca podrán ser exactamente iguales a este. No hay modelo sin recorte del mundo.
También advertimos que la afirmación de que las explicaciones causales obtenidas a través de las simulaciones son parciales resulta trivial: todas las explicaciones causales son parciales, puesto que hay multiplicidad de causas legítimas que no son capturadas en los modelos. Muchas son ciertamente poco interesantes. Parece cierto que una de las causas de la muerte de Kennedy haya sido que estuviera vivo e incluso su propio nacimiento operaría como una condición necesaria y por lo tanto relevante, pero nadie la incluiría dentro de las causas relevantes en una investigación que modela al mundo target, a pesar de que es verdadero que «de no haber nacido Kennedy, su asesinato jamás habría tenido lugar». Nótese que por un lado las condiciones relevantes podrían no ser tratadas como causas, pero en ese caso podría argumentarse que la división entre causas y condiciones no es clara y depende de criterios contextuales. Podría evitarse la aparición de estas presuntas causas anti-intuitivas apelando a la estrategia de mencionar que el «nacimiento de Kennedy» no es un evento separado del «asesinato de Kennedy» ya que la noción de asesinato asume que la víctima estaba viva.
De cualquier modo queda planteada la dificultad de la selección de causas como factores relevantes o causalmente conectados. Otro nivel de la discusión apunta a la dificultad asociada a que son muchos los factores conectados con los efectos pero que no son considerados causas. Hasta ahora la noción de causa podría tomarse como aquello que «de no haber ocurrido, el efecto no habría tenido lugar»2 o bien aquello que está conectado con el hecho a explicar mediante correlaciones o mecanismos. Tomemos en cambio el criterio de que para que un evento sea considerado como causa deberíamos encontrar que, de haber ocurrido de modo diferente, entonces el efecto habría tenido lugar de modo diferente.3 Esto es, que encontremos un patrón de variación entre los modos de ocurrir de un evento y el hecho a explicar. Este criterio no supera al anterior porque ahora cuenta como causa todo aquello que modifique los modos en que tuvo lugar el efecto, aun cuando en vez de producirlo lo atenúa, lo retrasa o simplemente modifica aspectos del efecto. Un ejemplo de ello son los cuidados intensivos de un paciente terminal, que modifican notablemente los modos en que finalmente tiene lugar la muerte, pero no deberían contar como causa de la misma. Si nos concentramos en cambio en teorías que hacen descansar la correlación causal en mecanismos, intercambio de cantidades físicas o transporte de señales,4 o bien en correlaciones entre la ocurrencia de la causa y el aumento de la probabilidad de ocurrencia del efecto,5 suelen encontrarse también casos de asignación de roles causales espurios por la sola coincidencia espacio-temporal de episodios, varios de ellos transportando señales, información, cantidades físicas, etc., pero irrelevantes para los aspectos que quieren modelarse en la ocurrencia del efecto.
Sea cual sea la teoría causal que se asuma, deberemos enfrentar varios tipos de recorte de factores causalmente relevantes para explicar el fenómeno. Reconocer este problema no hace que los modelos sean deficientes. Más bien hace que reconozcamos la incompletitud de las explicaciones de un fenómeno del mundo target al señalar dificultades inherentes al acceso epistémico al mundo target.
Con estas consideraciones nos apartamos drásticamente de la noción de explicación señalada por Weirich, según la cual, todo evento relevante conectado en el cono de pasado del fenómeno a explicar forma parte de su explicación completa, ya que pasa por alto conexiones como las señaladas que no operan como causas a pesar de estar conectadas por leyes conocidas. Su forma de conceptualizar una explicación completa funciona más bien como un desideratum de conocimiento que no distingue entre factores productores, retardadores o aceleradores y factores conectados mediante aspectos no relevantes del suceso, aun cuando son relevantes para los modos en que tuvo lugar el fenómeno.
Dado que estas advertencias no se dirigen al diseño del modelo sino a la noción de explicación, también los experimentos reales son alcanzados por estas preocupaciones, aun cuando los experimentos tienen conexión causal con los detectores del mundo target y los modelos solo están llamados a arrojar resultados que deben ser interpretados como correspondientes a ciertos medidores.
Cuando decimos que un modelo puede explicar un fenómeno, queremos decir que el modelo explica en la medida que esos resultados surjan al fijarse las condiciones iniciales y las correlaciones incluidas: el fenómeno debe ser reproducido en el output del modelo. Dicho esto, exigirle a un modelo que sea explicativo equivale a exigirle las mismas condiciones que a los esquemas nomológico-deductivos o estadístico-inductivos propuestos por Hempel (1965). Notamos también que las simulaciones tienen un valor epistémico adicional al permitir manipular las condiciones iniciales y correlaciones, que aporta una ventaja frente al valor de manipulación experimental empírico. En un laboratorio podemos variar sistemáticamente las condiciones iniciales para obtener un mayor convencimiento de que ciertas condiciones son capaces de hacer aparecer un resultado particular, y ese proceso muestra que son esas y no sus vecinas las condiciones que lo causan. De este modo la manipulación experimental provee un apoyo contrafáctico a las explicaciones nomológico-deductivas. Estas condiciones iniciales son parte de la explicación del fenómeno porque al variarlas no se obtiene el mismo resultado. Esta manipulación, en los experimentos físicos, no puede realizarse con las correlaciones. Los modelos suman este apoyo adicional al esquema explicativo, permitiendo la manipulación tanto de condiciones como de correlaciones, mostrando que si las condiciones iniciales no hubiesen sido esas dentro de un entorno, el resultado no habría sido el mismo. Todo esto aporta un apoyo adicional, pero no constituye la base explicativa, ni del modelo nomológico hempeliano ni de los modelos y simulaciones.
En resumen, lo dicho no quita importancia epistemológica a las simulaciones, ya que no es privativo de ellas presentar limitaciones. Por el contrario esto ocurre con todo modelo y toda teoría. Siempre dan cuenta de un recorte simplificado del mundo, y por ende algo queda siempre afuera. Pero nuestra forma de conocer los fenómenos, aunque parcial, resulta más que suficiente para avanzar en ciencia y tecnología, y cada vez nos permite parcialidades más complejas y de mayor ajuste empírico. La discusión de si podremos en algún momento lograr explicaciones totales parece no llevar a ningún lado ya que el conjunto de causas puede ser infinito6 al igual que los episodios irrelevantes en el pasado del hecho a explicar.
En definitiva, estamos afirmando que toda explicación es, al menos en ciencias empíricas, parcial. Por el contrario, explicar que un teorema es tal debido a que se deduce de un conjunto de axiomas en un sistema formal, sí constituiría una explicación completa dentro del sistema axiomático, pero no nos estamos ocupando de esta clase de ciencias.
Ontológicamente ningún modelo da cuenta del mundo target por completo. Hay un recorte y una cláusula de completitud que engloba variables que creemos irrelevantes y por ello no las incluimos explícitamente en el modelo. Pero no sabemos si de hecho alguna variable de interés ha escapado de nuestro análisis. En este aspecto podría afirmarse, como lo hace Ronald Giere (2009), que los experimentos físicos poseen un estatus epistemológico superior al de las simulaciones, dado que al aplicarse en el mundo target, hay interacción causal con dicho mundo. Esto llevaría a explicaciones más completas. Sin embargo, Morrison (2015) plantea que los experimentos también se construyen mediante modelos. Esto hace que aparezcan presupuestos e idealizaciones a pesar de que los experimentos, a diferencia de las simulaciones computacionales, posean interacción causal con los detectores que muestran los outputs del experimento. En esta misma línea, Weirich (2013) asevera que los modelos explicativos y los experimentos físicos funcionan en forma similar, ya que mientras en el laboratorio se controlan distintas variables para ver cómo se comportan las demás, en el modelo son las idealizaciones las que funcionan como «control», de modo que los científicos puedan estudiar cómo se comportan los factores no-idealizados. Winsberg (2010), si bien defiende el poder epistémico de las simulaciones, evita colocar a las mismas «a la par» de los experimentos, en una actitud más bien conservadora. Nosotros creemos que, dada la importancia de ambas prácticas en la ciencia actual, no parece útil intentar determinar si una posee un mayor estatus epistémico que la otra, aunque, claro está, lo perceptible sensorialmente suele ser innegablemente elocuente.
Finalmente, queremos notar cómo el análisis propuesto expone una heurística de trabajo con modelos de simulación para encontrar distintas explicaciones causales. Si cada corrida de simulación representa un mundo posible,7 los fenómenos emergentes serán explicados causalmente por las distintas condiciones iniciales que son fijadas por el usuario del simulador y por la dinámica de esa clase de mundos posibles, subyacente en los atributos y correlaciones fijadas en el código. Variando las condiciones iniciales poco a poco se generarán más mundos posibles.
3. La validación del modelo
Ahora bien, la extrapolación de las explicaciones desde el modelo al mundo target es un asunto diferente al problema de la construcción del modelo y depende de su validación. Es decir, será válido trasladar una explicación desde los mundos posibles al mundo target en la medida que se considere que la simulación es válida. Decir que se ha validado una simulación es lo que permite exportar la explicación hacia el mundo target emulado. Finalmente la validez del modelo viene dada por la aceptación en la comunidad científica.
Ahora bien, Weirich si bien reconoce la existencia de variables poco relevantes no aporta una manera de distinguir dichas variables de las relevantes para la explicación. En Weirich (2011) plantea como condición para efectuar explicaciones parciales que el modelo (y por ende la simulación) sean isomorfos con el sistema target:
Una explicación parcial surge de un tipo de isomorfismo y no sólo similitud [como propone Giere (1988)], entre un modelo y un sistema natural. Un modelo explicativo ofrece una explicación parcial porque algunas de sus características se corresponden uno-a-uno a algunas características del sistema natural y comparten algunas características estructurales con aquellas características del sistema natural. Suponga que un sistema natural involucra un fenómeno a y dos factores explicativos b y c, y el modelo controla c para investigar la influencia de b en a. Suponga que una ley para el modelo de un factor sostiene que Rab, y una ley para el sistema natural de dos factores sostiene que Sabc. El tipo requerido de isomorfismo se sostiene si la primera ley es una instancia de la segunda ley. (Weirich, 2011, 163, trad. propia).
Weirich toma la condición de isomorfismo de van Fraassen (1980), quien la propone como condición de adecuación empírica. Ambos utilizan esta propiedad como condición necesaria y suficiente para que un modelo represente a un target. Weirich (2013), de hecho, es explícito al afirmar que en su concepción la explicación no implica componentes subjetivos ya que se sostiene en aquello que el modelo y el target tienen en común en las representaciones exitosas. En el lenguaje de Suárez (2003), se trata de una teoría «naturalizada» de la representación científica, pues no precisa de ningún componente pragmático.
Si bien Weirich no está tratando de proveer una teoría sustantiva de la representación científica (nunca afirma que la representación científica se agote en el tipo de isomorfismo que defiende como condición para poder proveer explicaciones parciales válidas), cabe señalar que su posición sigue siendo problemática para definir una metodología para validar modelos y simulaciones.
Desde Goodman (1976) hasta Suárez (1999) y (2003), por ejemplo, se ha mostrado la irrealizabilidad de la representación naturalizada: el componente pragmático resulta inescindible de los procesos de representación. Esto no significa que dicho componente sea el único necesario y que, con buena voluntad, cualquier cosa sea capaz de representar a cualquier cosa, como en Callender y Cohen (2006), al menos en ciencias. Una buena simulación, capaz de generar conocimiento sobre el sistema que representa, debe compartir algunas características relevantes con dicho sistema. Sin estas, las buenas intenciones de los agentes cognoscitivos no alcanzarán para que se obtenga conocimiento válido alguno. Pero son dichos agentes quienes decidirán en cada caso cuáles serán las variables relevantes, y también serán ellos quienes considerarán si las mismas han sido capturadas con el suficiente grado de precisión según el objetivo de cada modelo.
Resulta problemático además que Weirich pretenda que la condición de isomorfismo sea con el sistema natural, puesto que implica la posibilidad de conocer a priori la estructura de dicho sistema, cosa que lo pone en una posición metafísica realista epistemológica difícil de sostener. Una posición más cautelosa como la que aquí sostendremos es que el morfismo de estructuras será entre el modelo de simulación y nuestras mejores teorías sobre el mundo target, o el modelo de datos, definido a la manera de Patrick Suppes (1969), en caso de que tal teoría no existiese. Este modelo de datos está basado en preconcepciones teóricas de los modeladores, y podría constituir nuestra mejor descripción del mundo target al no contar con una teoría específica acerca de los fenómenos de interés.
En todo caso, está claro que no daremos lugar a la aceptación de un modelo que haya sido ajustado para dar como resultado los eventos o fenómenos del mundo target, si no cumple con alguna forma de morfismo estructural con el modelo de datos del target. Esto es, rechazamos la idea de validación solamente por correspondencia de eventos, que consiste en afirmar que un modelo es válido si y solo si, los outputs del mismo se corresponden con lo medido en el mundo target. Una validación de este tipo puede lograrse con cualquier tipo de correlación que asegure los resultados numéricos a pesar de no coincidir los mecanismos. Un ejemplo consiste en modelar la caída de los cuerpos en la atmósfera mediante una física que otorgue mayor aceleración a los cuerpos más pesados y no con aceleración de la gravedad constante y fricción con el aire. Utilizando una teoría como la física aristotélica podríamos dar cuenta de los mismos outputs sin que el modelo reproduzca los mecanismos causales del mundo target.
El nivel conjetural de las correlaciones incluidas en el modelo es el mismo nivel conjetural que tienen las mejores teorías aceptadas hasta el momento. Dicho de otro modo, el modelo no puede ver correlaciones en el mundo si no es a través de las teorías, por lo cual no son «hechos empíricos» sino que siguen siendo conjeturas. Es por este motivo que el explanandum no está garantizado a priori de manera empíricamente vacua, sino que está garantizado del mismo modo en que lo está en el modelo de explicación hempeliano. En este sentido, el explanandum de un modelo nomológico-deductivo contiene información que ya está presente en las premisas y esto no constituye circularidad en la medida en que conocer las premisas y las correlaciones no es conocer todas las proposiciones que se deducen de ellas. Para un sistema de inteligencia artificial la clausura deductiva garantiza que si conoce las premisas, entonces conoce todas sus conclusiones pero esto no se sigue en el caso de un agente cognitivo biológico. Sin embargo, sí ocurriría una inaceptable circularidad si durante el proceso de validación se utilizase la misma base empírica utilizada para la calibración de parámetros en el diseño del modelo.
Basar la validación en salvar los fenómenos es renunciar a la búsqueda de la trama causal subyacente en el fenómeno.
Si en cambio se pone de relieve el intento de rescatar en el modelo las correlaciones y mecanismos relevados con nuestras mejores herramientas teóricas del mundo target y luego se ajustan las condiciones iniciales con valores tan cercanos como sea posible a los del mundo target para cotejar la coincidencia de outputs, entonces la pretendida validez del modelo está sustentada por haber realizado buenas conjeturas en su construcción.
Si bien coincidimos en la necesidad de algún tipo de morfismo de estructuras, consideramos necesario un refinamiento de la posición a fin de proveer una base para la validación de simulaciones menos problemática, especialmente incluyendo el componente pragmático.
4. Identidad parcial de estructura como base para la validación
Giere (1988; 1999) considera que la representación requiere de una relación de similitud entre modelo y target, siendo dos entidades similares si y sólo si comparten un subconjunto de sus propiedades. Vimos en la sección anterior que Weirich considera que esta relación no es suficiente para considerar que las explicaciones parciales puedan exportarse de modelo a target, y defiende entonces el isomorfismo de van Fraassen (1980). Pero en Suárez (1999; 2003) se ataca categóricamente a ambos criterios de representación de manera que no puede afirmarse que ni uno ni otro sean condición necesaria y suficiente para una representación válida. Mauricio Suárez (2003) asimismo analiza y rechaza distintas versiones debilitadas del isomorfismo (homomorfismo, isomorfismo parcial, etc,) mostrando que tampoco alcanzan como criterios únicos para la representación científica.
Ahora bien, cabe preguntarse si el objetivo de un modelo es meramente la representación de su target. A fin de cuentas, los modelos, al menos en los casos de interés de este trabajo, tienen por función aportar conocimiento acerca del target. Resulta interesante entonces pensar si el éxito del modelo se da en virtud de dicha relación de representación. Suárez (2003) toma de Nelson Goodman (1976) las propiedades lógicas de la representación: no-reflexividad, no-simetría y no-transitividad. Intuitivamente imaginamos que si hemos de aprender de un sistema observando algo que no es ese sistema, eso que observamos debería ser parecido en ciertos aspectos relevantes al sistema. Ese «parecerse» resulta vago, pero antes de precisarlo, continuando en el orden de lo intuitivo, afirmamos que una relación de parecido debe ser inevitablemente simétrica: si A se parece a B, entonces B se parece a A. Tampoco se cumpliría con la no-transitividad y la no-reflexividad. Así, la relación entre simulación y mundo target que proponemos utilizar como plataforma para la validación no será de «representación» como la entiende Suárez.
Al concebir la simulación como un mundo posible «parecido» al mundo target se abre la discusión sobre cómo establecer dicho parecido. Mencionamos ya que el parecido puede estimarse a través de reproducir en el modelo las correlaciones relevadas del mundo target. Estas correlaciones registradas en el mundo target muestran cuáles son las variables relevantes que se vinculan con cada aspecto de interés para el investigador, y al ser llevadas al modelo juegan el rol de leyes de los mundos posibles obtenidos en la simulación. Weirich exige una relación de isomorfismo entre la estructura del mundo y el modelo, la cual es una relación demasiado fuerte pues necesita conocer en gran medida la estructura del target, y no queda claro cómo esta relación permite obtener conocimiento nuevo. Tampoco sirve plantear un parecido sobre la base de reproducir los eventos del target en el mundo del modelo, y adelantamos que es de mayor interés reproducir las correlaciones para asegurar una identidad parcial de estructura entre el modelo y el mundo target de modo que esa identidad parcial sea el justificativo para la exportación de resultados. En esta sección abordamos el problema de cuáles aspectos del mundo target son relevantes para la comparación de estructuras y así poder decidir cuál de entre dos modelos alternativos es más parecido al mundo target respecto a esa estructura.
Los elementos del mundo target tienen propiedades, algunas de las cuales son definitorias y se utilizan habitualmente para decidir si un elemento pertenece o no a cierta clase. Por ejemplo, un objeto cuenta como bien material negociable si en el mundo target se le asigna un valor intrínseco y además un valor de canje o precio. Si algo tiene valor (p. ej. afectivo) pero no puede asignársele un precio, entonces pertenece a otra categoría de objetos. Entonces el precio pasa a ser una propiedad definitoria de los objetos que pertenecen a la clase de objetos negociables.
Cada clase de elementos puede ser caracterizada por sus propiedades definitorias y además presenta otras propiedades. Los elementos de diferentes tipos se distinguen mediante las propiedades que unos tienen y los otros no. Por lo tanto, muchas de las propiedades de los tipos de objetos del mundo target deberán ser tenidas en cuenta al diseñar el modelo para que este pueda simular su presencia.
A su vez, los distintos elementos intervienen en relaciones con otros elementos, del mismo tipo o diferentes. Los particulares de cada tipo se relacionan de cierta manera con los particulares de los demás tipos, lo cual representa la correlación entre los valores de las variables que representan ambos tipos. Así, decimos que los particulares x de tipo X se relacionan mediante RXY con los particulares y de tipo Y, simbolizando esto como RXY(x, y)8.
Por otra parte, algunos de los particulares x tienen ciertas propiedades, y en virtud de ellas es que intervienen en algunas relaciones. Por ejemplo, debido a que ciertos x tienen la propiedad P es que se relacionan con los elementos de tipo Y. Así podemos distinguir el subconjunto de los x que se relacionan con los y atendiendo a la propiedad P. Entonces la propiedad P es una propiedad definitoria de los elementos del subconjunto: si un particular x no posee la propiedad P, entonces no se relacionará con los y .
Esta situación ha llevado a Ares et al. (2006) a postular la distinción de estas propiedades llamándolas «condicionantes» y al resto de las propiedades de los x, «no condicionantes». Esta distinción será de gran importancia, ya que las propiedades condicionantes son responsables de que un cierto particular intervenga o no en cierta relación. A lo largo de esta sección utilizaremos las herramientas de análisis de Ares et al. (2006) para decidir en qué condiciones puede respaldarse la exportación de resultados de un modelo al mundo target.
Supongamos un grupo de plantas de producción química. Cada planta vierte deshechos al ambiente siendo algunos de ellos regulados por las normas medioambientales de modo que las plantas no pueden sobrepasar ciertos umbrales de emisión sin incurrir en una transgresión. Imaginemos que para cierto efluente de tipo X, si su valor excede el valor umbral x*1 pero no llega al umbral x*2 la empresa deberá entablar una relación con la oficina E del Estado que regula su actividad para iniciar un plan de mejoras. Si el valor excede el segundo umbral, entonces queda impedida de seguir en funcionamiento y debe cerrar hasta regularizar sus niveles de emisión. En este ejemplo vemos que cada planta de producción puede tener una propiedad x que según el valor que tome la hace entrar en relación con diferentes entidades estatales y por ello, la propiedad x debe ser entendida como una propiedad condicionante. Diremos que el conjunto P de las plantas de producción está en relación con el conjunto de oficinas del estado E dependiendo de qué valor tome la variable x para cada planta p perteneciente a P.
Podemos entonces sostener que las propiedades condicionantes deben ser tenidas en cuenta de un modo particular en el diseño del modelo ya que operan como activadores o inhibidores de las correlaciones en el modelo. De no tratarlas de este modo, toda exportación de los modelos al mundo target no estaría debidamente validada, aun cuando pudieran obtenerse outputs suficientemente parecidos al mundo target a lo largo de un buen rango de condiciones iniciales.
Paralelamente, las propiedades que no son condicionantes no son relevantes para establecer el parecido estructural y por lo tanto, no tenerlas en cuenta no afecta la validez de la exportación de resultados.
Entonces, para aumentar el parecido entre el modelo y el mundo target no debe intentarse reproducir una mayor cantidad de propiedades de los objetos modelados sino solo aquellas que sean condicionantes.
Al mismo tiempo, la exclusión de propiedades condicionantes cuenta como una limitación del modelo e incluso podría constituir una deficiencia si se han incluido las relaciones sin las propiedades que resultan condicionantes para esa relación.
La nomenclatura «condicionantes»/«no condicionantes» es útil para decidir sobre cuáles propiedades deben modelarse según las relaciones elegidas como relevantes de acuerdo al objetivo del diseñador.
Teniendo en cuenta estas consideraciones, estamos en condiciones de formalizar la similitud estructural de un modelo con el mundo target según nuestra posición.
El modelo A cuya descripción y especificaciones en cierto sustrato es α, posee una estructura S1 = <D1 , R1> donde D1 es un dominio de objetos y R1 un conjunto de relaciones establecidas entre elementos de D1.
El mundo target es B, cuya descripción es β, posee una estructura S2 = <D2 , R2> donde D2 es un dominio de objetos y R2 un conjunto de relaciones establecidas entre elementos de D2.
Diremos que A es modelo de B y los resultados pueden ser exportables de A a B, sí y sólo sí luego de eliminar las propiedades no condicionantes de α y de β es posible establecer una subestructura S1' = <D1', R1'> de S1 y, a su vez una subestructura S2' = <D2', R2' > de S2, de forma tal que entre D1’ y D2’ se establezca una función biyectiva que preserve las relaciones de ambos subconjuntos.
Para concluir, abordaremos la cuestión de elegir entre distintos modelos que pretendan dar cuenta de los mismos aspectos del mundo target por medio de la identidad parcial de estructuras con el mundo target. En el caso en el que los modelos M1 y M2 se disputen la modelización del mundo target, se analizará si la estructura de uno de los modelos se encuentra como subestructura en el otro y se elegirá aquel cuya estructura sea más extensa, siempre comparando la extensión de la estructura que es isomorfa con la del mundo target.
En el caso en que la estructura de un modelo no pueda ser incluida en la del otro, se podrá evaluar la extensión de cada uno de ellos en reproducir la estructura del mundo target y se tendrán en cuenta los objetivos de la modelización. Los modelos podrán ser ordenados mediante una similitud estructural creciente (sobre la base de una identidad parcial de estructuras) siempre que intenten dar cuenta de los mismos aspectos del mundo target.
Debe notarse que esta caracterización de la validación a partir de la identidad parcial de estructuras puede también ser utilizada para sostener que un modelo puede ser mejor que otro a pesar de no utilizar datos coincidentes con el mundo target como lo hace el segundo. Por ejemplo, puede haber un modelo M1 que da cuenta de cómo se agrupan los comercios del mismo ramo a través de una regla sencilla de minimizar costos de traslado en los proveedores, para una población pequeña que se toma como una representación a escala del fenómeno en el mundo target. Otro modelo M2 toma el número de la población real como uno de sus puntos de cotejo y mediante un algoritmo de aproximación genera el agrupamiento de los comercios del mismo ramo para dar cuenta de cómo se han radicado en barrios en los últimos diez años. Mientras que en el primer modelo se rescata una relación que se registra en el mundo target pero no se atiende al número de pobladores, en el segundo se tiene en cuenta el valor de la población del mundo target pero no se atiende a la correlación sino a ajustar los datos. Así, el primer modelo exhibe mínimamente identidad de estructura de relaciones con el mundo target, mientras que el segundo no. A pesar de ello, el modelo M2 da resultados muy cercanos a los del mundo target ya que ha sido calibrado con datos reales de la distribución de los comercios en la última década. Nuestro criterio nos obliga a elegir el modelo M1 ya que el tamaño de la población no parece operar en este caso como una propiedad condicionante y por lo tanto, no aporta a la similitud estructural de los modelos con el target.
Si en cambio se intentara modelar la cohesión social, el tamaño de la población podría muy bien comportarse como una propiedad condicionante pues una vez que una población pasa de cierto umbral, comienzan o aumentan notablemente cierto tipo de relaciones al interior de ellas. De esta manera se aprecia cuándo será de importancia tomar las propiedades para decidir sobre la similitud estructural entre el modelo y el mundo target.
Pero la identidad de relaciones no es la única manera en que un modelo puede obtener validación para que sus resultados sean exportables.
5. Más allá de la identidad de relaciones
Contrariamente a esta intención de rescatar la similitud de los hechos o eventos del mundo o de su estructura de relaciones, algunas idealizaciones pueden llevar a mundos con características explícitamente diferentes a las del mundo target, y no por eso dan como resultado modelos deficientes. Por ejemplo, concebir la costa de un río con una aproximación suave y no fractalizada, es un caso de variable explícitamente bien especificada y notoriamente diferente al mundo target. Sin embargo, no parece que el modelo pierda fuerza explicativa9 en dar cuenta de muchos de los fenómenos que tienen lugar en ese río. La fractalidad de la costa no es una propiedad condicionante. Que la costa sea fractalizada o no lo sea, no condiciona la posibilidad de encallar que tiene un barco que navega a lo largo de ella. Lo que condiciona la posibilidad de encallar es la profundidad y no la forma de la costa. Aun así la fractalización de la costa podría ser relevante si se tiene el objetivo de reproducir su forma y diferentes objetos como faros, señales, etc., que son valiosos para el navegante. Entonces, aun siendo relevante puede no ser condicionante. Incluso en estos casos la propiedad no cuenta para decidir que el modelo es estructuralmente más similar que otro que no rescate esa propiedad.
Weirich plantea que:
Una versión de la visión de que los modelos explican a través de analogías sostiene que los modelos explican porque se aproximan a los sistemas naturales. Esta versión de la visión sostiene que la similitud entre un modelo y un sistema natural es extensiva de modo que el modelo coincide cercanamente con el sistema natural en aspectos relevantes. Un modelo de la Bahía de San Francisco puede aproximarse a la Bahía en muchos aspectos. Si la aproximación es cercana uno espera que el fenómeno ocurra en el sistema natural si ocurre en el modelo. En este caso los desvíos debidos a las idealizaciones, dado que son pequeños, no afectan en gran medida al fenómeno objetivo. (2013, 114, trad. propia)
Luego aclara que en este caso es necesario especificar cuánto se aproxima el modelo al mundo target y demostrar que las pequeñas diferencias entre el modelo y el mundo target no distorsionarán al fenómeno objetivo (por ejemplo, mediante un análisis de robustez). Nuestra tesis es que no son las «pequeñas diferencias» lo que es necesario identificar y justificar, sino las similitudes estructurales, y que las variables relevantes pueden identificarse con facilidad diferenciando las propiedades condicionantes y no condicionantes.
Más allá del criterio de similitud estructural para validar la exportación de resultados, se encuentra el criterio de similitud de eventos. En el modelo de similitud de eventos se prioriza la coincidencia de las mediciones y no la coincidencia de relaciones entre los objetos modelados. Los outputs del modelo pueden coincidir con las mediciones del mundo target por un ajuste de los datos, las tendencias y las distintas propiedades que se habían tomado como aspectos a ser modelados. Pero si el mecanismo que se modeló fue aproximado por el polinomio más simple posible que ajusta los datos dentro de un margen de precisión aceptable y a lo largo de cierto rango, entonces la exportación de resultados del modelo al mundo target puede enfrentarse con un alto grado de incertidumbre.
Existen ocasiones en las que dicha exportación de resultados puede estar garantizada en los casos de interpolación pero su validez para los casos de extrapolación puede ser limitada, como en el caso de los modelos de fenómenos caóticos. Estos pueden arrojar resultados divergentes recién a partir de cierto valor que está fuera del rango de ajuste utilizado para la calibración. El peor escenario es aquel en que ni siquiera advertimos que una diferencia ínfima en las condiciones iniciales produce divergencias en zonas alejadas del rango. Esto atenta contra el criterio de validez del modelo por ajuste de los outputs con los datos empíricos. Para justificar la exportación haría falta asegurar que no se trata de un fenómeno de comportamiento caótico sino que la diferencia entre el output y los resultados empíricos es una función monótona de la diferencia entre los inputs y las condiciones iniciales empíricas.
Hay otro modo en que los diseñadores pueden apartarse de la identidad parcial de estructura y es incluyendo en el modelo relaciones que aun no siendo las mismas que las del mundo target, operan del mismo modo en el modelo que en el mundo target. Es decir, haciendo corresponder relaciones del modelo a relaciones del mundo target. En estos casos la modelización no tiene identidad parcial de estructura en sentido estricto, pero presenta una correspondencia biunívoca entre relaciones del mundo target con relaciones del modelo. El diseñador deberá apelar a relaciones de segundo orden que hagan corresponder las relaciones que están en uno y otro dominio.10 Con esta modificación, la identidad parcial de estructura no solo se obtiene mediante la identidad de las relaciones sino también mediante una asignación de mapeo entre relaciones de ambos dominios. Esta asignación la realiza el diseñador por medio de relaciones y características de orden superior11 que justifican tratar una relación en el modelo como si correspondiera a otra en el mundo target. Todo esto tiene lugar de manera explícita. Así, en el modelo se puede hacer corresponder la relación «x es mayor que y» a una relación en el mundo target en el que la opinión de cierto tipo de individuos es preferible a la opinión de otros individuos, como por ejemplo, cuando al momento de cotejar una noticia sobre meteoritos se consulta a los astrónomos y no a los economistas. Que la relación en el modelo no sea idéntica a la del mundo target no es todavía motivo para perder similitud estructural entre ambos.
Un ejemplo de este modo de modelar lo provee el modelo clásico de segregación racial de Schelling (1971). Aquí se modela el comportamiento de la población de un vecindario estadounidense a través de una representación muy particular. El mismo se visualiza como un tablero de damas, donde fichas negras simbolizan a individuos afroamericanos y fichas blancas a individuos caucásicos. Luego se inserta una regla: si un individuo está rodeado por más de un cierto porcentaje de individuos de un color diferente al propio, se desplazará hacia algún casillero vacío próximo. Como emergente de este modelo, al cabo de unos pocos turnos se observa en el tablero que las fichas se han segregado, apareciendo grandes clústeres de fichas blancas y negras. El resultado ha sido robusto para múltiples condiciones iniciales. En definitiva, el modelo de Schelling ha resultado exitoso para dar cuenta de la segregación racial en los barrios estadounidenses utilizando un modelado poco realista: los vecindarios no son tableros de damas ni los individuos son fichas. Sin embargo, estas características morfológicas del mundo target no son condicionantes. Lo que Schelling ha capturado es un mecanismo del mundo target: los individuos sienten necesidad de agruparse con gente de su color (por motivos varios), y eso es parte de las relaciones entre los individuos de un grupo, entre los individuos de distinto grupo, y entre los individuos y el espacio ocupado, y esa necesidad de agruparse sí es una característica condicionante. Es por ello que el modelo de Schelling ha sido tan exitoso a pesar de su sencillez12.
Otra forma de apartarse de una identidad de relaciones estricta aparece al hacer corresponder un indicador del modelo con un conjunto de variables del mundo target (es decir utilizar variables agregadas). Por ejemplo, en el modelo global World2 (Forrester, 1973) se utiliza una variable llamada «capital físico» que representa al número de bienes de capital no monetarios del mundo: fábricas, herramientas, máquinas como tractores, automóviles y barcos, etc. Esta variable profundamente agregada mezcla objetos heterogéneos y por ende no puede dar cuenta de las características definitorias de cada uno de ellos. Pero sin embargo sí posee la capacidad de reproducir en el modelo sus características condicionantes: mantiene la relación entre estos bienes y las demás variables que el modelo considera relevantes. Por ejemplo: si aumenta el capital físico, aumenta la calidad de vida percibida, aumenta la capacidad de producir más capital físico, aumenta la capacidad de producir alimentos (por canalización de recursos tecnológicos al sector agrario), aumenta la polución producida, etc.
La concepción según la cual la validación del modelo se realiza sobre la base del cotejo de la coincidencia entre los outputs del modelo y las medidas obtenidas en el mundo target, como puede verse en los trabajos de Becker et al. (2005) y Tolk (2013), ha sido denominada «positivista», y ciertamente no es la única posible.
La concepción contraria, denominada «constructivista», negará la posibilidad de obtener datos fidedignos del mundo target, y trabajará con una validación por consenso, donde las partes interesadas a través de su juicio decidirán sobre la validez del modelo (y por ende sobre la posibilidad de exportar las explicaciones del mundo posible simulado al target), no descansando necesariamente en los datos mensurables, a los cuales se les resta importancia, debido a que sus defensores evitan asumir un compromiso ontológico de corte realista.
Si se abogase por esta otra concepción, es evidente que la similitud entre los mundos posibles simulados y el mundo target (ya sea de eventos o estructural) deja de ser de importancia a la hora de decidir la validez de las explicaciones causales obtenidas. Las ventajas de una concepción u otra no serán analizadas en este trabajo, basta aclarar que ambas tienen aguerridos defensores (Tolk, 2013).
Fuera de esta corriente constructivista que utiliza la herramienta pragmática del consenso para la validación, se hace necesario que el criterio de validez por ajuste o coincidencia de eventos sea reemplazado por otro criterio en términos de estructuras.
6. Conclusiones
Las ideas de Weirich están orientadas en la dirección adecuada, aunque en nuestra opinión debe profundizarse su análisis para acercarse a la validación por identidad parcial de estructuras con un componente pragmático.
La perspectiva denominada «positivista» da cuenta de un tipo de validación por cotejo y coincidencia que pone mayor énfasis en los eventos que en la estructura de relaciones, lo cual permite toda una amplia estrategia de salvar los fenómenos mediante mecanismos reconocidamente no existentes en el mundo target pero que introducidos en el mundo posible del modelo arrojan los mismos outputs, situando al investigador en un dilema sobre la similitud superficial versus la diferencia estructural.
La identidad parcial de estructura debería contar como un factor de mayor importancia al momento de decidir entre dos modelos que disputan su grado de validez para que sus explicaciones puedan ser exportadas desde el modelo al mundo target, ya que cada modelo brindará un abanico de outputs en función de los diferentes juegos de condiciones iniciales y cada juego de condiciones iniciales cuenta como una situación posible que modela al mundo target. Por este motivo la similitud de eventos solo se obtendría en el caso en que las condiciones iniciales en el modelo coincidieran con las del mundo target dentro de cierto margen de precisión. Dicho en otros términos, la similitud entre eventos se da en una y solo una de las corridas computacionales del modelo. Pero si el modelo está diseñado para reproducir las correlaciones más relevantes entre las variables a ser modeladas del mundo target la similitud estructural debe tener mayor importancia al decidir entre cuáles modelos son mejores.
Se debe prestar especial atención a los criterios de validación que descansan sobre el ajuste de los outputs del modelo con los datos empíricos para el caso de los fenómenos que pueden mostrar comportamiento caótico ya que la exportación de resultados puede ser confiable solo en un rango mínimo de extrapolación y es posible que el investigador no cuente con una estimación de hasta dónde se extiende dicho rango.
La similitud estructural puede obtenerse incluyendo en el modelo las relaciones registradas en el mundo target, o bien diseñando el modelo con relaciones que se corresponden (mapean) con las del mundo target a través de consideraciones que apelan a relaciones de orden superior.
Es necesario dar cuenta de otro tipo de modelos que de forma explícita son diseñados con correlaciones o leyes y con idealizaciones que reconocidamente no corresponden al mundo target y sin embargo resultan eficaces en echar luz sobre el fenómeno. Esto pone en entredicho si el valor de la contribución del modelo siempre consiste en una exportación de explicaciones de un campo a otro sobre la base de una estructura común de relaciones entre sus elementos, abriendo el campo de la validación hacia una correspondencia de estructuras más versátil que no requiere la identidad de cada una de las relaciones que han sido mapeadas.
Leandro Giri trabaja en la Sociedad Argentina de Análisis Filosófico (SADAF). Ha publicado varios trabajos en temáticas de filosofía de la ciencia y filosofía de la tecnología.
Dirección postal: del Temple 2751 4.° B, Buenos Aires, Argentina, Código postal: C1427DME. E-mail: leandrogiri@gmail.com
Hernán Miguel es Profesor Titular de Pensamiento Científico en la Universidad de Buenos Aires (UBA). Ha publicado múltiples artículos y libros sobre filosofía de la ciencia.
Dirección postal: Echeverría 2843 2.° F, Buenos Aires, Argentina, Código postal: C1428DRY. E-mail: filociencias@gmail.com
Referencias
Ares, Osvaldo, Alicia Di Sciulo, Gabriela Jiménez, Hernán Miguel, Jorge Paruelo, y Luis Reynoso. 2006. Nuevos roles para propiedades y relaciones en la estructura de una analogía. Signos Filosóficos VIII/16: 81-96.
Becker, Joerg, Bjoern Niehaves and Karsten Klose. 2005. A Framework for Epistemological Perspectives on Simulation. Journal of Artificial Societies and Social Simulation, 8/4/1. Accesed April 2017. http://jasss.soc.surrey.ac.uk/8/4/1.html
Callender, Craig and Jonathan Cohen. 2006. There is no Special Problem About Scientific Representation. Theoria, 55: 67-85.
Dowe, Phil. 2000. Physical Causation. New York: Cambridge University Press.
Forrester, Jay. 1973. World Dynamics. Cambridge: Wright Allen Press.
Frigg, Roman and Julian Reiss. 2009. The Philosophy of Simulation: Hot New Issues or Same Old Stew?. Synthese, 169: 593-613.
Frigg, Roman and Stephan Hartmann. 2017. Models in Science. In Edward Zalta (ed.) The Stanford Encyclopedia of Philosophy (Spring 2017 Edition). Accesed September 2017. https://plato.stanford.edu/ archives/spr2017/entries/models-science/
Gentner, Dedre and Donald Gentner. 1983. Flowing Waters or Teeming Crowds: Mental Models of Electricity. In Dedre Gentner and Al Stevens, eds. Mental Models, 99-129. London: Laurence Erblaum Associates.
Giere, Ronald. 1988. Explaining Science: A Cognitive Approach. Chicago: University of Chicago Press.
—. 1999. Science Without Laws. Chicago: University of Chicago Press.
—. 2009. Is Computer Simulation Changing the Face of Experimentation? Philosophical Studies, 153: 59-62.
Goodman, Nelson. 1976. Languages of Art. Indianapolis: Hackett.
Hempel, Carl. 1965. Aspects of Scientific Explanation and other Essays in the Philosophy of Science. New York: Free Press.
Knuuttila, Tarja. 2005. Models as Epistemic Artifacts: Toward a Non-Representationalist Account of Scientific Representation. Helsinki: University of Helsinki.
Kripke, Saul. 1959. A Completeness Theorem in Modal Logic The Journal of Symbolic Journal, 24: 1-14.
Lewis, David. 1973. Counterfactuals. Oxford: Blackwell.
—. 1986. On the Plurality of Worlds. Oxford: Blackwell.
—. 2004. Causation as Influence. In John Collins, Edward Hall and Laurie Ann Paul, eds. Causation and Counterfactuals. 75-106. Oxford: Blackwell.
Mellor, David. 1995. The Facts of Causation. London/New York: Routledge.
Morrison, Margaret. 2015. Reconstructing Reality: Models, Mathematics and Simulations. New York: Oxford University Press.
Partridge, Chris, Andy Mitchell and Sergio de Cesare. 2013. Guidelines for Developing Ontological Architectures in Modelling and Simulation. In Andreas Tolk, ed. Ontology, Epistemology, and Teleology for Modelling and Simulation: Philosophical Foundations for Intelligent M&S Applications. 27-57. Berlin: Springer-Verlag.
Pyka, Andreas and Simon Deichsel. 2013. Cutting Back Models and Simulations. In Andreas Tolk, ed. Ontology, Epistemology, and Teleology for Modelling and Simulation: Philosophical Foundations for Intelligent M&S Applications. 141-156. Berlin: Springer-Verlag.
Rescher, Nicholas. 1970. Scientific Explanation. New York: Free Press.
Schelling, Thomas. 1971. Dynamic Models of Segregation. Journal of Mathematical Sociology, 1: 143-186.
Suárez, Mauricio. 1999. Theories, Models and Representation. In Lorenzo Magnani, Nancy Nersessian and Paul Thagard, eds. Model-Based Reasoning in Scientific Discovery. 75-83. New York: Kluwer Academic Press.
—. 2003. Scientific Representation: Against Similarity and Isomorphism. International Studies in the Philosophy of Science, 17: 225-244.
Sugden, Robert. 2002. Credible Worlds: The Status of Theoretical Models in Economics. In Uskali Mäki, ed. Fact and Fiction in Economics. 107-136. Cambridge: Cambridge University Press.
Suppes, Patrick. 1969. Models of Data. In Patrick Suppes, ed. Studies in the Methodology and Foundations of Science: Selected Papers from 1951 to 1969. 24-35. Dordrecht: Reidel.
Tolk, Andreas. 2013. Truth, Trust and Turing: Implications for Modelling and Simulations. In Andreas Tolk, ed. Ontology, Epistemology, and Teleology for Modelling and Simulation: Philosophical Foundations for Intelligent M&S Applications. 1-26. Berlin: Springer-Verlag.
van Fraassen, Bas. 1980. The Scientific Image. Oxford: Oxford University Press.
Weirich, Paul. 2011. The Explanatory Power of Models and Simulations: A Philosophical Exploration. Simulation and Gaming. 42: 149-170.
—. 2013. Models as Partial Explanations. In Andreas Tolk, ed. Ontology, Epistemology, and Teleology for Modelling and Simulation: Philosophical Foundations for Intelligent M&S Applications. 105-119. Berlin: Springer-Verlag.
Weisberg, Michael. 2013. Simulation and Similarity: Using Models to Understand the World. New York: Oxford University Press.
Winsberg, Eric. 2010. Science in the Age of Computer Simulation. Chicago: Chicago University Press.
Notas