Artículos libres
La simulación informática en Sociología
The Computer Simulation in Sociology
La simulación informática en Sociología
Estudios Sociales Contemporáneos, núm. 23, pp. 161-169, 2020
Universidad Nacional de Cuyo

Recepción: 17 Diciembre 2019
Aprobación: 02 Junio 2020
Resumen:
En la actualidad, la simulación informática es un recurso aceptado para la producción de conocimiento. Conceptos como realidad virtual, inteligencia artificial, simulación informática, pertenecen al lenguaje frecuente de distintas disciplinas. En la sociología en particular, se distinguen los sociólogos norteamericanos –Axelrod, Epstein, Bak, etc – aplicando la técnica de simulación para el abordaje del dato complejo. Bajo la influencia de la Teoría de la Complejidad Social, estos cientistas sociales, pretenden promover esta metodología al nivel de ciencia, con argumentos vinculados a las cualidades para operar datos pero, sobre todo a su aplicabilidad. Nos proponemos acercar visiones críticas recuperando proposiciones que la Teoría Crítica de la Escuela de Frankfurt -Horkheimer, Marcuse, Honneth- nos legó y que demuestran el carácter perdurable de muchas de sus contribuciones. Esto es propuesto como acto inicial hacia una futura búsqueda de otras contribuciones teóricas para comprender este fenómeno –de por sí muy dinámico- en una mayor diversidad de dimensiones y dejar abierta la pregunta sobre la posibilidad y pertinencia de incorporar esta técnica para objetivos y fines antagónicos a la sociología del control social; investigar los fenómenos sociales desde una perspectiva crítica y emancipatoria.
Palabras clave: sistema complejo adaptativo, sujeto modelador, dato complejo, comportamiento adaptativo, estabilidad evolutiva.
Abstract:
At present, computer simulation is a widely accepted resource for knowledge production. Concepts such as virtual reality, artificial intelligence and simulation, belong to the common language of different disciplines In the field of sociology, American sociologists - Axelrod, Etpstein, Bak, etc - are recognized for applying the simulation technique to approach complex data. Under the influence of the Social Complexity Theory and based on the data operation characteristics but mainly to its applicability, these social scientists intend to promote this methodology at a science level. Our purpose is to approach critical visions but, above all, to recover statements that the Frankfurt School Critical Theory - Horkheimer, Marcuse, Honneth - bequeathed us and which demonstrate the enduring nature of many of its contributions. This is proposed as the beginning of a future search for other theoric contributions to understand this phenomenon in a greater diversity of dimensions and leave open the question whether the possibility and relevance of incorporating this technique for antagonistic objectives and purposes into the sociology or social control; investigate social phenomena from a critical and emancipatory perspective.
Keywords: adaptive complex system, modeler individual, complex data, adaptive behavior, evolutionary stabilized.
1. Introducción
Para introducirnos al conocimiento de la simulación informática en sociología, debemos hacer una referencia inicial al Big Data. La eclosión del Big Data - gigantesca base de datos- es resultado de la expropiación indebida de información de las redes sociales, las cuales han tenido un desarrollo continuo, abierto, a gran escala, global y a gran velocidad. Podemos decir que el Big Data se nutre de la gran nube de información, con el propósito de clasificar datos y de proveer los psicoperfiles de los usuarios participantes.
Este procedimiento de manipulación de datos tiene repercusiones en la sociedad global y en la dinámica de los diferentes países.
Se han registrado denuncias por la impunidad en el acceso a datos privados para ser aplicados a formas de simulación, para la predicción de acontecimientos o intervención para incidir en el movimiento del mercado, en la imposición de nuevos productos y servicios, en resultados electorales, en la divulgación de información falsa, etc. El escándalo de la asociación entre el Cambridge Insititute y Facebook ha desnudado esta forma de operar sobre el voto ciudadano –campañas de Trump, Macri, Brexit-. Por lo expuesto, este tipo de intervención sobre la sociedad ya dejó de ser una amenaza para ser una realidad.
Si definimos a la simulación informática como herramienta para modelizar fenómenos reales o hipotéticos para su estudio o predicción, debemos reconocer que el Big Data es el proveedor de su principal “insumo” para la producción de estrategias de análisis o intervención. Entonces la simulación informática gana consistencia en la medida en que acceda a información del Big Data. Y de este vínculo depende el desarrollo de una ingeniería social, capaz de modelar y orientar las conductas individuales y colectivas, reforzando el statu quo y avanzando sobre los derechos instituidos.
La simulación informática, como método para el estudio en las ciencias sociales, en la sociología en particular, no ha despertado suficiente interés desde una mirada crítica a pesar de que la misma lleva décadas de desarrollo. Pero sí es notoria la participación de sociólogos en consultoras que, en forma interdisciplinaria - junto a politólogos, técnicos de marketing, matemáticos, demógrafos, etc.- aportan a la elaboración de modelos simulados con diferentes fines. El conocimiento que tiene el sociólogo de metodologías de investigación, de interpretación de datos, de sondeo de opinión, de estadística, lo hacen idóneo para contribuir en el diseño de estrategias electorales, instalación pública de figuras políticas, para mesurar el humor social ante ciertas medidas de gobierno, así como promover productos de consumo en general.
Además, no debemos ignorar que la accesibilidad a los datos de los sujetos en la red, se debe en gran medida a la participación de los mismos en la construcción y consumo de esa realidad virtual. Así como el individuo se vincula con otros en forma simétrica, puede construir un cúmulo de deseos y aspiraciones y se siente libre al autoexhibirse, porque es visible hasta la transparencia[1], como parte de su ejercicio de libertad individual.
Es por eso que el Big Data, según Byun Chul Han, es la mejor herramienta para el control de la mente porque, según como se opere sobre la información que brindan los individuos en las redes, es posible intervenir en el pensamiento, y más aún pronosticarlo. Este es el costado controlador de la red proveedora de información inacabable y constante, la dictadura de la transparencia en instancias de la revolución digital donde los sujetos participantes se concentran anónimamente y son observados. (Han, 2014)
2. Antecedentes de la simulación informática
Para llegar al desarrollo de la simulación informática, capaz de elaborar modelos, es necesario referirnos a los avances científicos y técnicos que tuvieron lugar a partir de la década del 40´en adelante. La primera procesadora de información se construyó en 1944 en la Universidad de Harvard bajo el nombre de Mark 1 y después de estudios simultáneos en varias universidades de Estados Unidos, J. C. R. Licklider del Massachusetts Institute of Technology consigue en 1962, presentar la primera red de comunicación de ordenadores. Este éxito llevó a su creador a ser parte de un grupo informal en el Departamento de Defensa.
Además del avance en el procesamiento de información, después de la Segunda Guerra Mundial, el premio Nobel norteamericano de economía, John Forbes Nash presenta su desarrollo matemático de la Teoría de los Juegos y se plantea la posibilidad de subsumir problemas de interacción social a formas matemáticas. Pero sería un error no mencionar que ya en sociología, era habitual la aplicación de valores numéricos para la determinación y representación de características y variables de lo social.
La Teoría de los Juegos de Nash, también denominada Teoría del Equilibrio puede traducir a formas matemáticas, estrategias en los procesos de negociación de una relación entre sujetos egoístas y la resolución de conflictos sociales y económicos. Para que esta confrontación se lleve adelante es necesaria la participación de al menos, dos contrincantes que tengan intereses total o parcialmente contrapuestos y que desarrollen estrategias que resulten de las decisiones que toman como resultado de esa interacción. El objetivo es predecir la conducta del contrincante para establecer la estrategia. Se trata de una teoría que evolucionó en el tiempo por la demanda de la economía.
El ejemplo más significativo de su teoría, es el Dilema del Prisionero que permite establecer una matriz de ganancia entre dos personajes relacionados (presuntos delincuentes), que optan entre la lealtad que se deben o la traición, para determinar la estrategia de menos costo personal. Estamos ante una modelización de un fenómeno social que permite el análisis del mismo según una variable dicotómica entre dos categorías de comportamiento (lealtad-traición) en un contexto libre de elementos aleatorios de distorsión. Estas conductas son categorizadas como las dos posibilidades de cooperación con el inquisidor, que dan por resultado diferentes penalizaciones. El estudio termina demostrando, matemáticamente, la conveniencia de la traición. Pero el dilema del prisionero tiene la limitación de ser una situación irreal y restrictiva que no contempla distintos niveles de cooperación posible, ni la presencia de elementos aleatorios (ruidos) como errores, malentendidos e información deficiente.
Después de concluida la Guerra Fría - forma de confrontación del antagonismo irreconciliable entre Capitalismo y Socialismo en el mundo bipolar durante cuatro décadas- intelectuales de EE. UU, sostienen que la sociedad global se encuentra ante el fin de la historia con la prevalencia indiscutida del capitalismo (Fukuyama) y es entonces que comienza a difundirse el alcance de la simulación informática bajo la cobertura de la Teoría del Dato Complejo (TDC).
Robert Axelrod –científico norteamericano dedicado al estudio de la complejidad social- es el más destacado de sus exponentes. Él participó personalmente en las actividades internacionales destinadas a promover la “cooperación”, primero entre Estados Unidos y la ex Unión Soviética y luego entre los diversos grupos en guerra de la ex Yugoeslavia, así como en otros conflictos regionales en el mundo entero. Conociendo como fueron la resolución de estos conflictos, es mucho más significativo saber cuál es la percepción de Axelrod, devenido en actor político, de sus “experiencias de campo”.[2]
3. Rasgos del Teoría del Dato Complejo (TDC)
La TDC se desarrolla en EE UU alrededor del Departamento de Estado y organismos militares, con el objeto de elaborar estrategias para el estudio, en su momento, de la Guerra Fría y la carrera armamentista. Al mismo tiempo se crearon fundaciones e institutos -hoy conocidos como Think Tanks- y los más notables son el Instituto Santa Fe y el Intitute Brooking of Washington donde se nucleaban y todavía lo hacen, científicos de diferentes disciplinas, entre ellos, los cientistas sociales, que desarrollaron simulaciones informáticas para las ciencias políticas y la economía, así como científicos de las áreas de la biología, salud humana, epidemiología, física, etc.
La Teoría de los Juegos es la teoría fundacional, que propone la medición del mundo real para luego intervenirlo. Da el puntapié inicial a la idea de que “la principal alternativa al supuesto de la elección racional es alguna forma de comportamiento adaptativo (…) y que la adaptación puede ser a nivel individual por medio del aprendizaje o a nivel de la población a través de la supervivencia y la reproducción diferencial de los individuos más exitosos” (Axelrod, 2005:6)
Además de la opción por el comportamiento adaptativo está la afirmación de que todos los seres humanos son modeladores, o sea que tienen la capacidad de imaginar el desenlace de un hecho social complejo.
Joshua M. Epstein y otros caracterizan el uso de la herramienta de la simulación como avance de la ciencia. Según esta visión, se puede modelar una epidemia antes de que se produzca, un ataque bio-terrorista, la violencia civil, la dinámica adaptativa de la guerra, hacer cálculos del desarrollo de la guerra convencional, así como el desenvolvimiento de la bolsa el próximo mes.[3] Estas capacidades permiten inferir el carácter predictivo y prospectivo del método.
Según Robert Axelrod, la simulación por computadora es una herramienta de la investigación de la TDC que puede permitir comprender “las interacciones consistentes en atracción, combate, acoplamiento, comunicación, comercio, asociación y rivalidad”, y considerar estrategias destinadas a afrontar la posibilidad de malentendidos entre intervinientes. El tipo de estudios, que permite esta técnica se orienta hacia “los términos de cooperación entre personas, países, incluyendo la colaboración con otros, para establecer y poner en vigor normas de conducta, para ganar una guerra o imponer un estándar industrial, para erigir una nueva organización que pueda actuar en defensa de sus miembros y para construir una cultura compartida basada en la influencia mutua” (Axelrod en Jorge sierra, 2002), se trata del “estudio de muchos actores y sus interacciones”. (Axelrod, 2005:6)
Es por eso que se propone modelar las interacciones sociales considerando a lo social como un sistema complejo adaptativo, donde los sujetos se vinculan con los demás, como humanos modeladores, en condiciones de cooperar-colaborar, hacia la consecución del equilibrio en contexto de la estabilidad evolutiva, gracias a la interacción altamente regulada por una racionalidad normativa, pero orientada por la racionalidad instrumental-tecnológica.
Según podemos registrar inicialmente, la aspiración es construir una cultura que resulte de una limitada cantidad de interacciones –atracción, combate, acoplamiento, comunicación, comercio, asociación y rivalidad-. La capacidad de intervención sobre individuos y/o grupos se puede realizar en forma controlada y administrada para suprimir contradicciones que provoquen conflictos. Este es el fin de esta técnica devenida en teoría. En términos de Marcuse, se trata de una racionalidad donde toda contradicción es irracional. Pero nos permitimos sospechar que no se trataría de la supresión de confrontaciones sino, de anticiparlas para poder decidir cuáles de ellas deben ser sofocadas, cuáles alentadas y con qué medios.
Las revueltas de Madrid y la Primavera Árabe fueron activadas por los ciudadanos indignados a través de redes sociales, y desactivadas por el mismo medio con informaciones falsas a pocas semanas de iniciadas las movilizaciones. Axelrod admite sin reparos que la simulación informática está en condiciones de crear condiciones subjetivas para preparar a las poblaciones en situaciones extremas, por ejemplo, para ganar una guerra.
Un ejemplo claro de esta operatividad fue el desarrollo y sobre todo el desenlace de la guerra – o guerras – de la ex Yugoeslavia donde Axelrod participó activamente. Una condición inicial fue crear una deficiente distribución de información, complementada con una propaganda suficientemente diversificada para crear condiciones subjetivas, inexistentes un lustro antes de los conflictos, para internalizar en las diferentes poblaciones – población heterogénea- sentimientos de enemistad y odio que empujaran al consentimiento y apoyo a enfrentamientos bélicos, persecuciones, atentados, genocidio (caso de asesinato de 8000 varones musulmanes en Zebrenica, violaciones sistemáticas de mujeres) hasta llegar a naturalizar nacionalismos que concluyeran en la limpieza étnica en la mayoría de las repúblicas, hoy independientes. Se trató, en términos de Axelrod, de poner en acción la dinámica adaptativa para la guerra, a través de las interacciones de combate y rivalidad. El caso de Kosovo, ultima república reconocida, que llegó a ese status recién en 2008 a partir de la Declaración de Independencia impulsada y apoyada por EE. UU y la UE, fue el último paso de la nueva organización de las naciones eslavas del sur. Si tenemos en cuenta que este acto ha respondido a intereses estratégicos, nos explicamos porqué en Kosovo esté instalada desde el 2002, la segunda mayor base militar de los EE.UU. en el mundo. Se trata de Camp Bondsteel que fue objeto de denuncias de organismos internacionales de DD.HH. por la existencia de un campo de detención ilegal.
Kosovo tiene una economía sumergida desde la existencia de la Federación Yugoeslava. Fue un territorio que siempre necesitó de subvención de las demás repúblicas más desarrolladas y al pasar a desprenderse de la tutela serbia su condición empeoró. Hoy las actividades económicas están vinculadas al abastecimiento de la base militar y el principal ingreso de divisas depende de las remesas de los kosovares que trabajan en el exterior. El proceso de “democratización” de Kosovo no impidió que este país sea conocido como un narco estado donde ha prosperado, según Amnistia Internacional un tráfico enorme de niñas y mujeres esclavizadas para la prostitución forzada, para cubrir las necesidades de las tropas de la OTAN y de la ONU.[4]
Las guerras de la ex Yugoeslavia fueron una forma particular de caída, la forma sangrienta de descomposición del régimen socialista. Pero tiene la impronta de una puja que no solo fue interna, sino entre los EE. UU y la UE en su disputa política materializada en distribución territorial en instancias de la pérdida de sentido y objetivo de la OTAN, al finalizar la Guerra Fría.
La coartada elaborada para la opinión pública mundial fue expresada según los principios de la TDC: el desarrollo de estrategias de cooperación con el objeto de poner en vigor normas de conducta individual y colectiva, hacia la instauración de un orden estricto en oposición al caos.
La simulación informática como herramienta, como vimos antes, es aplicable sobre colectivos poblacionales como en la resolución de conflictos internacionales, nacionales como fueron los de la ex Yugoeslavia o la ex URSS, así como a individuos.
El caso de colaboración o cooperación aplicado a un individuo, en el Dilema del Prisionero, por ejemplo, no es la acción de un hombre libre, sino de alguien que está privado de la libertad y que, al ser indagado, debe elegir por necesidad, entre la lealtad o la traición. Este par dicotómico se muestra en términos matemáticos, en la conveniencia de la traición según los parámetros calculados del interés del individuo egoísta. Los inquisidores cuentan con la alta posibilidad que individuos involucrados en un mismo hecho decidan “colaborar” para mejorar su situación haciendo abandono de principios éticos, si es que en algún momento los tuvo. Como ejemplo de esta operación, en legislaciones recientes aparecen nuevas figuras que pueden convertir a un acusado de delitos, en arrepentido o en su defecto en testigo protegido, con el fin de conseguir delaciones a cambio de reducción de penas o absoluciones según sus posibilidades de negociación. Como dice Axelrod y repetimos, la teoría de la complejidad involucra a muchos actores y sus interacciones en forma de atracción, combate, acoplamiento, comunicación, comercio, asociación o rivalidad. Es por eso que colaboración está asociada inseparablemente con competencia, más teniendo en cuenta que los humanos son modeladores que se relacionan invariablemente con otros humanos modeladores.
Si seguimos recorriendo los conceptos rectores de la TDC, vemos que estabilidad evolutiva tiene forma de oxímoron. Estabilidad indica inmovilidad mientras que evolución denota dinamismo. Realidad virtual tiene una estructura semejante. Pero podemos pensar que la realidad virtual no es la realidad, pero no se puede negar que forma parte de la realidad. La realidad virtual está inserta en nuestra existencia, incluso como parte importante de nuestras acciones individuales e interacciones sociales.
Para aproximarnos al concepto de sistema complejo adaptativo, espacio donde se modelan las interacciones sociales, podemos aventurarnos a asociar a la TDC con la Teoría de Acción Normativa de Parsons desde el estructural-funcionalismo a pesar de que los investigadores sociales de la TDC solo reconocen la paternidad teórica de Nash en su Teoría de los Juegos y no hay identificación ni antecedentes de teorías sociológicas en sus discursos.
En primer lugar, Parsons concibe a la sociedad como sistema autorregulado, se trata de la sociedad moderna que es entendida como “matriz que funciona” sugiriendo una imagen armónica y prevaleciendo el concepto técnico de sistema para comprender el orden social. Su abordaje de lo social no tiene base hermenéutica y su teoría de sistemas vincula lo sociológico con la perspectiva del observador. No profundiza en las interacciones porque su sujeto es un actor solitario, el individuo concreto es normalmente disciplinado y orientado por valores imperativos, con la idea kantiana de libertad como obediencia a las leyes que el individuo se da a sí mismo. La relación entre varios actores es solamente contingente y no prevista en su teoría.
En segundo lugar, su planteamiento sistémico se basa en que el sistema no actúa, sino que funciona según la tetralogía AGIL. Según el nuevo paradigma sistémico-funcional con origen en la biocibernética, el sistema posee cuatro dimensiones funcionales: la función adaptativa de (A), la función de logro de metas (G), la función de integración (I) que alude a los marcos de la interacción y la función de mantenimiento de pautas (L) como la latencia cultural que describe el imperativo funcional, o sea, el sistema normativo que permite la socialización. Estos subsistemas son permeables entre sí. El intercambio entre los subsistemas tiene que efectuarse, lo mismo cuando se trata de organismos vivos, que cuando se trata de sociedades, a través de algún tipo de medio.
Entonces, mientras que, para la TDC, la sociedad es vista como un sistema complejo que debe ser constantemente regulado e intervenido, para llegar al equilibrio evolutivo, en la Teoría Funcional Estructuralista (TFE) de Parsons, se trata de un sistema adaptativo que se caracteriza por funcionar según una matriz descripta como AGIL, autorregulándose. Ambas corrientes están orientadas hacia el equilibrio y estabilidad del sistema social, pero por vías diferentes. Mientras en la TDC, el sujeto es entendido como modelador-modelable en instancia de interacción social en condiciones altamente reguladas, Parsons piensa en el sujeto individual como portador de libertad que obedece a las leyes que él mismo se va dando, y considera la interacción social entre dos o más individuos como una contingencia. En la TDC el sistema social es abordable-intervenible por estrategias diseñadas según modelos resultantes de simulaciones basadas en algoritmos. Los mismos surgen del análisis de la multi-dimensionalidad de los datos complejos. La TEF no se sostiene sobre la capacidad de actuar del sistema social sino, en su capacidad de autorregularse como matriz que funciona.
Los elementos comunes de ambas teorías, estarían establecidos en coincidir en que ambas tienen origen ciber-matemáticos o ciber-biológicos, que entienden a la sociedad como sistema, que ambas responden a racionalidades normativas y que sus propósitos se relacionan con el llegar al estado de equilibrio armónico del sistema.
Así como con la aplicación de las matemáticas en “vida artificial” -lo que algunos también entendemos como realidad virtual- en la biología se puede reproducir un mundo molecular basado en reglas químicas, constituyendo entidades que se comportan de modo semejante al real -se organizan espontáneamente, se reproducen y se alimentan- en la computadora, del mismo modo, lo social, como lo biológico, es entendido como sistema complejo adaptativo, un sistema que se encuentra entre el orden estricto y el caos o, con más precisión, un sistema social es considerado un sistema complejo que emerge al borde del caos. (Norman H. Packard, 1994)[5]
Tan asertivos son los discursos de esta corriente (TDC) que algunos de sus expertos declararon estar en presencia de una herramienta que cambiaría de modo fundamental, la forma en que se desarrollarán las ciencias sociales en el futuro. Epstein y Bak aseguran que tales investigaciones provocarán una revolución en las ciencias tradicionalmente consideradas blandas y quedarán convertidas en ciencias duras en los próximos años. (Epstein en Jorge Sierra, 2002)
Siguiendo en esta línea, Axelrod manifiesta que este método de hacer ciencia puede contrastarse con dos métodos estándar, el inductivo y el deductivo. La inducción es el descubrimiento de patrones en la información empírica y la deducción implica especificar un conjunto de axiomas y demostrar las consecuencias que pueden deducirse de esos supuestos, el descubrimiento de resultados de equilibrio en la Teoría de los Juegos de Nash es un buen ejemplo de que el modelado basado en los agentes, es una tercera manera de hacer ciencia. (Axelrod, 1995)[6]
Por lo menos se puede calificar de desconcertante esta afirmación que coloca a una técnica de investigación a la altura del método de investigación. Pero más audaz es la convicción de por este camino se llegará a constituir la unificación de las ciencias duras y blandas en una ciencia única y total.
Como sabemos, esta es una antigua aspiración de una parte de la tradición científica, especialmente en las corrientes positivistas. Durkheim en su momento propuso con seriedad, hablar de lo social como hecho social descartando las pre-nociones para eliminar influencias de la subjetividad del científico, donde intuiciones y opiniones no tienen espacio, siendo solo aceptable el mismo rigor que se le exige a las ciencias duras. Este principio rector fue publicado en “Las Reglas del Método Sociológico” de 1895.
El geógrafo canadiense David Harvey, en su libro “Espacios de esperanza” indaga en la idea sobre la unidad del conocimiento, dando testimonio de que periódicamente se renueva esta idea, enunciando que hay una cierta unidad interna en los conocimientos de los seres humanos, pero todos los “sistemas de pensamientos totalizadores” hasta el momento se han considerado deficientes. Y buscando antecedentes se refiere a los neo-positivistas lógicos del Círculo de Viena que buscaron en forma inconclusa la unidad del conocimiento en formas simbólicas y matemáticas en la década del ´30.
También Karl Marx esbozó una versión de la unidad del conocimiento en sus Manuscritos de París de 1844, pero según Althusser presentó contradicciones insalvables. Harvey reconoce los esfuerzos realizados alrededor de la Teoría General de Sistemas y la Teoría de la Complejidad que nos ocupa, pero advierte de su alta exposición al biologismo, naturalismo y reduccionismo de lo social, que termina invalidando estos intentos.
Si tenemos en cuenta que la teoría que nos ocupa lleva cinco décadas de desarrollo, vemos que ha conseguido sofisticarse con el aporte de Peter Kolleck entre otros. Se pudo superar el Dilema del Prisionero en el análisis de ciertos fenómenos sociales, donde se presentaba la dicotomía lealtad-traición entre dos actores, con posibilidad de diferentes grados de cooperación en contexto de ruido, demostrando que, comportamientos racionales a escala individual tienen frecuentemente consecuencias irracionales en el orden colectivo. Kolleck construyó, para su demostración, sistemas restitutivos, punitivos o sistemas flexibles midiendo los rendimientos de las diferentes estrategias en poblaciones heterogéneas y homogéneas. Su propósito fue profundizar sobre los beneficios y limitaciones de cada estrategia de cooperación y sobre todo en la “estabilidad evolutiva” de las mismas. Y lo más interesante, examinó la capacidad de resistencia de una población simulada a una determinada estrategia hasta la aparición de una mutación -estrategia diferente- que invade, dando lugar a mejores y peores resultados. Todo esto en diferentes contextos de ruido.
Pensemos en modelos elaborados para determinar la resistencia social a determinadas políticas antipopulares, que perjudican a las mayorías y deben ser legitimadas legalmente.
Un ejemplo de este tipo de proceso en nuestro país, son los sucesivos e intermitentes intentos de legislar sobre la flexibilización laboral. En el año 2001, durante el gobierno de la Alianza, se trató de llevar adelante la sanción de una ley de flexibilización laboral impuesta desde organismos multilaterales (FMI-BM) en sintonía con el Consenso de Washington. Este proyecto no solo no prosperó, sino que desnudó un escándalo de corrupción –caso Banelco- que acabo con la renuncia del vicepresidente, presidente de la Cámara de Senadores y comenzó un proceso de pérdida de gobernabilidad –podríamos llamar pérdida de estabilidad evolutiva- al disminuir la estabilidad y la capacidad de maniobra del gobierno que no pudo cumplir con los compromisos impuestos desde el exterior, desembocó en la ruptura de su frente interno – fractura de la Alianza- e incrementó la desaprobación de la población de las siguientes medidas de gobierno. Los sistemas restitutivos, punitivo y/o flexibles de Kolleck -serían análogos a sistema de zanahoria, palos y/o barajar de nuevo- hacen referencia a la posibilidad de reprimir resistencias, negociar con actores influyentes –sindicalistas, legisladores, patronales, organismos externos-, o de ser necesario, reorganizar fuerzas para futuros intentos.
En agosto del 2016 el presidente Macrí vuelve a la carga con un proyecto de ley hacia un plan de reforma laboral para facilitar la contratación de nuevos empleados en empresas privadas. La idea rectora es que puedan incorpora nuevos empleados y con la misma facilidad puedan terminar la relación. Al no prosperar la iniciativa legislativa, el presidente intentó a principios del 2019 redactar un decreto orientado a la industria textil como punta de lanza, que fue rotundamente rechazado por el sector sindical. Es ingenuo pensar que estos traspiés para imponer la ley de flexibilización laboral ha sido un triunfo de la resistencia del sector del trabajo. Las condiciones laborales han sido fuertemente flexibilizadas. El número de trabajadores precarizados, tercerizados y en negro representan la mayoría de la fuerza laboral en nuestro país. Podemos entonces inferir que las “consultoras políticas y de mercadotecnia” hay participado en las mesas de decisiones de los gobiernos desde décadas y han aportado desde su “buen saber” a estas acciones políticas, con investigaciones que no solo miden intensión de voto.
La aplicación de la informática para la construcción de modelos que anticipen comportamientos sociales muestran que cualquiera sea el grado de sofisticación que alcancen, la definición matemática se reduce a la lectura correcta de la correlación de fuerzas de los sectores en pugna y que la eficiencia del sistema depende de la cantidad y calidad de las variables que se tengan en cuenta y de la velocidad con que se corrijan las constantes alteraciones en diferentes contextos de ruido.
Para mayor precisión, la metodóloga Elena Jorge Sierra nos permite valorar las posibilidades de esta técnica, pero no necesariamente desde la estrategia del poder, sino en la investigación sociológica. Jorge Sierra dice que “como consecuencia de la aplicación de la informática, tanto a los aspectos metodológicos como a los de teorización, difusión e intercambio de conocimientos sociológicos, se abren nuevas alternativas a los estilos y modos tradicionales de investigar (…) y la simulación informática permite, como ningún otro método, barrer un amplio rango de parámetros sobre un vasto rango de escenarios posibles y con ello, se pueden identificar incertidumbres y regiones de robustez más sobresalientes y los umbrales más importantes”. (Jorge Sierra, 2003: 74) Sobre todo cuando los mecanismos de la simulación se ponen en movimiento permitiendo la aparición y presentación de aspectos que de otra manera no hubieran podido incluirse al análisis.
Si tenemos en cuenta, las serias dificultades que presenta la experimentación en el área de las ciencias sociales desde lo metodológico, epistemológico y sobre todo desde el punto de vista ético, las simulaciones con artificios informáticos, parecen ser una opción técnica valiosa para la investigación de los fenómenos sociales. Estamos hablando del método que aborda lo complejo, teniendo en cuenta que métodos y técnicas que han sido fructíferas en las ciencias duras no pueden abarcar la complejidad del dato complejo[7] de las ciencias sociales, de allí la importancia de modelar simulando.
Pero lo más sobresaliente de este planteo, es que este método tiene capacidad de operacionalización y aplicabilidad sobre fenómenos sociales concretos. Lo que habría que seguir investigando es la eficacia en la concreción de sus fines. Sobre todo, porque la TDC está centrada en el análisis del comportamiento social y sus formas de interacción, con el objetivo de reconducir la dinámica social, gracias a su carácter prospectivo. La principal finalidad es el desarrollo de estrategias de “cooperación” para poner en vigor normas de conducta individual y colectiva, hacia la instauración de un orden estricto en oposición al caos. Esto es posible si se apoya en un cambio de paradigma donde se sustituya la elección racional por el comportamiento social adaptativo, tanto desde lo individual como desde lo colectivo.
En síntesis, se trata de operar anticipando hechos, interviniendo para reconducir la dinámica social para instaurar un “orden” donde “la armonía de las partes excluya toda contradicción” arrasando con el libre albedrío, para instaurar una sociedad con alto nivel de control social y sometimiento, en donde se pueda sofocar rápidamente cualquier intento de resistencia o transformación social-política o económica.
4. Escuela de Frankfurt
La Escuela de Frankfurt fue creada en 1923 en Alemania, bajo el nombre de Instituto de Investigación Social. En este espacio convergieron tres generaciones de pensadores, preocupados por avanzar en la crítica de las condiciones sociales contemporáneas, problematizando los fenómenos sociales en su carácter dinámico, descubriendo contradicciones desde una mirada histórica y dialéctica, abrevando en Hegel, Marx y Freud. La tarea, tanto entonces como hoy, es el abordaje de la realidad social hacia la emancipación social. Con vocación inter-disciplinar, se propusieron elaborar teoría social y crítica en alianza con la filosofía, el psicoanálisis, considerando las condiciones históricas y con actitud autorreflexiva que se interpela constantemente.
Contextualizando la producción intelectual de este movimiento durante décadas, vemos que comienza a producir en instancias de la Segunda Guerra, – lo que obliga a la migración a sus principales referente- continua en el período de pos-guerra durante la puesta en marcha en la Europa capitalista del Plan Marshal, inyectando ingentes cantidad de dólares a los países arrasados, tanto vencidos como victoriosos, a condición que logren sofocar el avance de las fuerzas de izquierda –como hicieron con Italia y Grecia- y consolidar el territorio de desarrollo capitalista con gran impulso en la producción y el consumo. Esta estrategia es central en el comienzo a la Guerra Fría, para oponer al bloque socialista el modelo del nuevo paradigma tecnológico, donde la matriz de acumulación depende de la disponibilidad tecnológica de avanzada y de la autosuficiencia energética aplicable a la expansión del capital.
A mediados de la década de los ´70 en adelante – con la crisis del petróleo y la caída del pacto Bretton Woods-, estallan algunas de las contradicciones del modelo y comienza el proceso neoliberal aún en curso. Desde entonces se sucedieron varias crisis cíclicas de sobreacumulación y consecuentes procesos de reconstitución del capital, traduciéndose en procesos de desposesión y despojo de la población mundial. A 80 años de la primera publicación de Teoría Crítica de Horkheimer se han vivido numerosas crisis de acumulación del capital y subsiguientes procesos de recomposición, y a finales de la década la Guerra Fría llegó a su fin, dando lugar al triunfo del mundo del capital con la caída del bloque socialista. A pesar de la brecha temporal no fueron invalidados los aportes de la Teoría Crítica, siendo referencia teórica para el análisis de muchos fenómenos contemporáneos.
Como vimos hasta aquí, los exponentes de la TDC sostienen la necesidad de que la teoría a elaborar hoy, debe ser la que resulte del imperativo de construcción de saber, que no presente contradicciones. En otras palabras, cumplir con la “Exigencia de la armonía de las partes que excluya contradicciones, con ausencia de lo superfluo, de lo dogmático” y a partir de allí, llegar a suprimir la separación de la ciencia. Así como la TDC excluye contradicciones en pos de la armonía de las partes, para la TC la contradicción es buscapié indispensable desde una mirada histórica y dialéctica para comprender los conflictos.
Mientras la TC incursiona lo social problematizando y descubriendo las contradicciones donde los fenómenos sociales son dinámicos desde una mirada histórica dialéctica en forma autorreflexiva, la TDC se propone estabilizar esa dinámica anulando las contradicciones en forma a-histórica y mecanicista.
Según Epstein y Bak, las investigaciones de simulación y modelado provocarán una revolución de las ciencias blandas. Esta “revolución” epistemológica está sostenida por la transformación metodológica. Es la herramienta –la simulación informática- la precursora de esta “visión”.
Max Horkheimer pudo ofrecernos en 1937, en “Teoría Tradicional y Teoría Crítica”, un acercamiento a la insistente tendencia, para la creación de un sistema universal de la ciencia, donde diferentes dominios de la misma, deberían confluir en un mismo aparato conceptual. Desde corrientes positivistas se pensaba también entonces, que había llegado el momento para que la formación de teoría, se convirtiese en construcción matemática, y, por ende, para que en las ciencias de hombre se pudiera aplicar el modelo exitoso de las Ciencias Naturales y llegar a que las reglas de deducción matemática abarcaran a la totalidad de las ciencias. Horkheimer, entonces afirmaba que “todavía se estaba lejos de esa situación”.
Desde la TC, Horkheimer, advierte que esta tendencia construye teoría cada vez con más signos y menos palabras, lo intenta como construcción matemática asimilable a las ciencias duras, pero que muestran deficiencias apenas se intenta aplicarlas a problemas concretos.
El ejemplo del sociólogo fenomenológico, que invoca Horkheimer, que trata de comprobar la ley de esencia, es pertinente. Por un lado, está la formulación conceptual y por el otro, la situación objetiva que debe ser incluida, en un acto de subsumir la relación entre la percepción y la estructura conceptual. Se está ante casos de formas de subsunción cuando tratamos de que el sombrero (situación objetiva) encaje en la cabeza (estructura conceptual).[8]
En este mismo sentido, Jorge Sierra explica que estamos en presencia de considerar a la TDC como metáfora para el análisis de lo social y si lo vemos en sentido estricto, nos lleva parcialmente al determinismo que se debería evitar, “la pretensión sintetizadora en términos algorítmicos, que aparece latente en las iniciativas unificadoras, no considera que la sociología no es un sistema cerrado sino abierto” y es por eso que para la autora estamos “en presencia de una metáfora más que de una aplicación directa y la acción de subsumir información como instrumento de conocimiento no tiene valor intrínseco (…) su uso mecánico no garantiza la adecuación de conocimientos o hallazgos”. (J. Sierra, 2003:74)[9]
Ante el enfoque a-histórico implícito en la TDC, Horkheimer, hace ocho décadas pudo establecer la relación entre estructuras científicas y procesos históricos: “los progresos técnicos de la época burguesa son inseparables de la función del cultivo de la ciencia. Cuando los hechos se vuelven fructíferos, el saber que se dispone es aplicado a los hechos. Esto se sostiene, si entendemos que la fructicidad de la aplicación de los hechos se puede comprender en su ligazón con los procesos sociales, porque la transformación de las estructuras científicas forma parte del proceso histórico” (Horkheimer, 1937:228)
La comprensión de este momento de desarrollo tecnológico sería incomprensible sin referenciarnos a esta etapa del desarrollo del capitalismo, definida por la racionalidad tecnológica donde su aplicación está íntimamente ligada con los procesos sociales.
La TDC concibe lo social como artefacto a ser sometido a procesos de adaptación hacia el estado de armonía, la pretensión de aplicabilidad y operacionalidad sobre el objeto, gracias a su predictibilidad preformada en algoritmos es el paroxismo de objetivación de lo social. La acción científica, es entendida por la TDC como acción estratégica que parece estar en condiciones de cambiar el curso de los acontecimientos sociales.
En la teoría tradicional, está siempre presente la aspiración de descubrimiento de regularidades que conduzcan a leyes. La TDC comparte este propósito y sostiene que son las capacidades tecnológicas, su avance, perfeccionamiento, además de herramientas disponibles para la ciencia, lo que dan lugar a la tercera manera de hacer ciencia, después de la inducción y la deducción.
La pregunta sería si hablamos de teoría hacia la ampliación de conocimiento o de la aplicación eficiente de una técnica en particular. Interesante es pensar la distancia que existe entre la racionalidad instrumental de la teoría tradicional y la racionalidad teleológica-estratégica de la TDC que se propone como herramienta de control social.
Horkheimer confronta a la racionalidad instrumental positivista con la teoría crítica y Herbert Marcuse, lo hizo también con la definición del hombre unidimensional para confrontar a la racionalidad tecnológica.
Pero lo que parece más claro es que, el objeto de estudio para la TDC es la sociedad humana como sistema complejo adaptativo y esta decisión epistemológica y metodológica debe asociarse a una determinada manera de entender el mundo social, de entender el conflicto, los fenómenos sociales, el comportamiento humano y sobre todo posicionarse con una definición de sujeto determinada. Se trata de un individuo sujeto a un comportamiento adaptativo en su carácter de modelador, abandonando la elección racional por un limitado número de comportamientos de carácter estratégico. El individuo de la TDC –según los autores que nos ocupan- es modelador-modelable, constreñido a la acción de adaptación a un artefacto pre-diseñado.
La alta densidad de control social, sobre el individuo y los colectivos de esta propuesta nos remite al concepto de pensamiento unidimensional de Marcuse para comprender cómo define este autor las nuevas formas de control –en contexto de la Guerra Fría a mediados del siglo pasado- concluyendo en la existencia de la libertad como poderoso instrumento de dominación. Porque las libertades y derechos, una vez institucionalizados, comparten el destino de la sociedad de la que se han convertido en parte integrante y, su realización se anula, afirmando que las formas predominantes de control para sujetar a la población son tecnológicas.
El progreso depende de la pacificación de la existencia de los individuos en sociedad, a través de una tecnología que instituya formas de control social y cohesión social. El progreso técnico, al servicio del sistema de dominación y coordinación, funciona para contener el cambio social. Es necesario el cambio, pero con ausencia de agentes sociales.
Para contener el cambio social “El aparato productivo determina necesidades y aspiraciones de los individuos, borrando la oposición, hasta imponer la idea de que los controles sociales encarnan la razón en beneficio de todos los individuos e intereses y que toda contradicción es irracional y toda oposición es imposible”. (Marcuse, 1964: 39)
El individuo debe identificarse con la sociedad. Pero es a través de la introyección[10] que resulta de la influencia del entorno exterior que el sujeto puede dudar. Marcuse piensa que el sujeto puede sostener su pensar negativo, opositor y cuestionador en la introyección. El objeto de la aplicación del control social es hacer que la introyección, progresivamente sea disminuida y anulada. No se trataría de adaptación sino de mímesis. La libertad interior se pierde paulatinamente hasta llegar al modelo de pensamiento unidimensional del hombre unidimensional.
Este tipo de pensamiento está sostenido por nuevas corrientes en filosofía, psicología y sociología, que se orientan en eliminar conceptos perturbadores. Se trata de un cambio de largo alcance que modifique los hábitos del pensar.
Marcuse se detiene en P.W. Bridgman que propone ver a los conceptos como conjunto de operaciones –inspirado en el mundo de la física- en términos de una ofensiva empirista radical, empirismo total para el tratamiento de conceptos desde el punto de vista operacional. [11]
El operacionalismo de la teoría y la práctica son acciones de contención. Este aspecto del desarrollo del pensamiento de Marcuse, recobra vigencia en lo antes desarrollado: operar sobre la realidad social, concebida como multidimensional en una sociedad de individuos con pensamientos unidimensionales. Este estado de asimetría ya fue descripto por Marcuse en la década del ’50.
Vimos ya, como Peter Kolleck, superador del dilema del prisionero, advierte de la necesidad de crear sistemas restitutivos, punitivos o flexibles, midiendo rendimientos de las diferentes poblaciones y con distintos grados de cooperación, para terminar, demostrando, como comportamientos racionales a escala individual, tienen frecuentemente consecuencias irracionales en el orden colectivo. Esto expresa, en otras palabras, la fórmula que aporta la simulación informática para servir a la contención social que preocupa a Marcuse.
He aquí el problema. En términos del autor, se debe modelar para contener, anulando conceptos perturbadores que el individuo posea e impedir su propia identificación con la sociedad a la que pertenece. El problema radicaría en que, la introyección del sujeto no haya sido totalmente “domesticada”. El hombre unidimensional es el individuo sujetado, de una sociedad sujetada.
El hombre escindido que denuncia la TC y la relación contradictoria entre sujeto y objeto, sujeto y sociedad, la relación hombre-naturaleza, las relaciones mediadas parecen llegar al paroxismo con el “hombre sujetado”, en la forma de hombre “simulacro” o hombre “simulado”, cuando las contradicciones se invisibilizan y quedan sujetas a operacionalización informática; operaciones que ensayan estímulos y respuestas.
Este nivel de objetivación de lo social, de lo humano nos puede remitir a la reificación entendida por Axel Honneth: “La reificación se refiere a un proceso, así como a los resultados de él, en el que las formas reinantes del conocimiento entrañan una actitud puramente objetivante e instrumentalista de relación cognitiva con uno mismo, con los otros y con la naturaleza”. (Honneth en Basaure, 2011)
Honneth, propone el eje explicativo sociológico-moral que pueda confrontar con la valorización del sujeto modelador y egoísta de la TDC. Bien podemos intentar desnudar el concepto del hombre simulado, instrumentalizado, acercándonos a la noción de reconocimiento existencial que formula este autor, ya que nos permite anclar en la posibilidad de una definición del sujeto histórico, contextualizable y vinculado a una praxis social.
Las esferas del reconocimiento expresan un determinado grado de madurez de las relaciones sociales y Honneth busca el rescate de lo histórico, de sentimientos y experiencias morales que puedan sustentar luchas y para ello, se para desde otro eje explicativo, el sociológico-moral porque pretende rehabilitar la referencia positiva de la TC respecto a las luchas sociales y darles a estas, visibilidad pública. Honneth intenta algo que Adorno parece haber renunciado conseguir, cuando este último propone la dialéctica negativa, porque la propone como noción crítica para servir al rechazo de la racionalidad dada, Honneth, por su parte caracteriza la realidad social como situaciones patológicas, como formas excesivas de objetivación instrumentalista, que implican represión u olvido del reconocimiento existencial.
Según la TC, las patologías sociales existen cuando los desarrollos globales afectan a toda la sociedad. La forma en que el hombre se ve a sí mismo, percibe a los otros y a la naturaleza exterior, son los indicadores. La tesis de Honneth dice que la forma original de aprehender el mundo no es una forma cognitivo-racional sino precognitiva y de involucramiento afectivo. Pero no queda más que reconocer que de lo expuesto, los principios de la noción de reconocimiento, se presentan en su forma más negativa en las esferas del reconocimiento devenido en menosprecio: experiencias de maltrato, experiencias de despojo de derechos, exclusión y menosprecio. En pocas palabras, se trata de un desequilibrio fuerte y sistemático, entre reconocimiento existencial y conocimiento, a favor de este último.
5. Conclusión
Hoy sabemos que la ingeniería social se orienta al cambio de comportamientos de los individuos con el propósito de rentabilizar la inversión política y de capital y, conseguir resultados mensurables. Se trata de continuos ajustes para influir en actitudes, relaciones y/o acciones sociales, por un lado, y de encontrar la manera de implementar o aproximar programas de modificación social que se ajusten a las cíclicas crisis de acumulación capitalista. Aquí se encuentra la aplicabilidad de la simulación informática en la creación de modelos. Por eso, no es el carácter de predictibilidad, que de todas maneras no puede garantizar esta técnica, sino es su potencialidad hacia la creación de políticas: política empresarial, financiera, política económica, política internacional, hipótesis de conflictos bélicos, guerras comerciales, etc.
Entonces los científicos que nos ocupan tienen que cumplir la misión de la ciencia en el sistema social dominante: predecir hechos y obtener resultado sobre bases estratégicas preconcebidas. Tienen que responder al pensamiento ordenador que pertenece al conjunto de las relaciones sociales que deben adaptarse lo mejor posible a las necesidades de los nuevos proyectos sociales, económicos y políticos del poder. Los antagonismo y conflictos deben recibir el tratamiento correspondiente – ser anulados o respaldado según sea el caso- y la técnica se perfecciona constantemente para conseguirlo.
Es así, porque existe una intención manifiesta. Se esmeran por conseguir que de las acciones de los hombres emanen de mecanismos pre-diseñados, pensados con anterioridad a la acción. La manipulación de lo social se transforma en una verdadera ingeniería y se achica el espacio posible para la autodeterminación, por lo menos en el modelo simulado porque la sociedad es entendida como artefacto. Ya no interesa el comportamiento racional del hombre sino, su comportamiento adaptativo porque el sujeto para la TDC es una entidad modelable, se trata de un sujeto egoísta que interactúa en forma restringida y estratégica.
Podemos sospechar que el modelo no es herramienta, es objetivo, el simulacro, la ficción, no son el medio para la investigación sino, el fin -Ingenuidades al margen, recordemos el libreto de Matrix-. En tal sentido los mismos individuos que son objeto de medición, dimensionamiento y clasificación son el caso extremo de objetivación de lo social. El modelo resulta el objetivo al tratarse de una sociedad controlada y administrada.
El momento histórico y su relación con los instrumentos de dominación nos demuestran que existen “contingencias inesperadas” donde estos instrumentos –las redes sociales- al formar parte de buena parte de las relaciones sociales, han dado lugar a fenómenos no previstos, como la primavera árabe y la ola de manifestaciones de la población indignada europea después de la crisis del 2008. Estas redes organizan y debaten abiertamente la cotidianidad de lo social a pesar que los mecanismos de control y contención operan con prontitud para desarticular estos fenómenos.
El recupero y puesta en valor de proposiciones vigentes de la TC, desde su visión emancipadora son contribuciones indispensables para observar críticamente la vigencia de la simulación informática, aplicada a la sociología del control social.
Pero deberíamos considerarlo como acto iniciatorio hacia una profundización de esta temática, a la luz de otras contribuciones teóricas actuales, para aspirar a comprender y explicar este fenómeno desde una mayor diversidad de dimensiones. Asimismo, podríamos aventurarnos a ver a estas técnicas en continuo desarrollo, no solo para que no pasen desapercibidas para los sociólogos críticos sino, que puedan aportar, desde una perspectiva científica e ideológica acordes a futuras resistencias y. por qué no, acciones ofensivas de los movimientos sociales y políticos emancipatorios.
6. Bibliogafía
AXELROD, Robert. ([(1984) 2005) “Prefacio e Introducción” de La Complejidad de la Cooperación, Madrid: Alianza.
HAN, Byung Chul, (2014) Psicopolítica. Barcelona: Editorial Herder
HARVEY, David, (2005) Espacios de Esperanza, Madrid: Ediciones Akal
HONNETH, Axel, (2007) Reificacción. Buenos Aires: Editorial Katz.
HONNETH, Axel, (2010) Reconocimiento y menosprecio sobre la fundamentación normativa de una teoría social. Madrid: Editorial Katz.
HORKHEIMER, Max, [(1937) 2003] “Teoría Tradicional y Teoría Crítica”. En Teoría Crítica, Buenos Aires: Editorial Amorrortu.
JORGE SIERRA, Elena (2002). “La utilidad de las simulaciones informáticas”. En La Investigación Social del Dato Complejo. Universidad de Alicante.
JORGE SIERRA, Elena (2003). Nuevos elementos para la reflexión metodológica en Sociología. Universidad de Alicante. Departamento de Sociología I y Teoría de la Educación.
MARCUSE, Herbert, (1964). “Las nuevas formas de control” en El Hombre Unidimensional. Buenos Aires: Editorial Planeta, De Agostini.
Notas
Notas de autor
santicic6@gmail.com