Resumen: Los aparatos cognitivos que usan los sujetos para la toma de decisiones en las empresas tales como los modelos basados en las ciencias nomotéticas y en las ciencias ideográficas se ha aplicado a una amplia gama de situaciones dentro de diversas áreas. En la toma consciente de decisiones bajo certidumbre o incertidumbre, racionalidades limitadas o ilimitadas, cotidianidades o complejidades y propiedades estáticas o emergentes, siempre se realizan análisis, pronósticos, predicciones e intervenciones. Podríamos pensar que no estamos pronosticando, pero nuestras opciones estarán dirigidas por la anticipación de resultados de acciones o inacciones. Los Modelos de Optimización para la toma de decisiones tienen en cada momento un sustento epistemológico, en el pensar y en el actuar en la organización; por tanto, también han servido para el análisis de las organizaciones en sus diferentes niveles. Cada modelo se argumenta en cunas epistemológicas que definen el futuro de las empresas.
Palabras clave:Modelos de optimizaciónModelos de optimización,toma de decisionestoma de decisiones,epistemologíaepistemología,OrganizaciónOrganización.
Abstract: The cognitive apparatus that subjects use for decision-making in companies such as models based on nomothetic sciences and ideographic sciences has been applied to a wide range of situations within various areas. In the conscious taking of decisions under certainty or uncertainty, limited or unlimited rationalities, everyday or complexities and static or emergent properties, analysis, forecasts, predictions and interventions are always carried out. We might think that we are not forecasting, but our options will be guided by the anticipation of results of actions or inactions. Optimization Models for decision making have an epistemological support at all times, in thinking and acting in the organization; therefore, they have also served for the analysis of organizations at different levels. Each model is argued in epistemological cribs that define the future of organizations.
Keywords: Optimization models, decision making, epistemology, Organization.
Artículos
Epistemología de los modelos de optimización para la toma de decisiones en las organizaciones
The epistemology of optimization models for organizational decision-making
Recepción: 09 Septiembre 2017
Aprobación: 22 Agosto 2018
En la vida cotidiana con frecuencia un individuo afronta muchos problemas de decisión y optimización. Por ejemplo, escoger si para llegar a su centro de trabajo utiliza el transporte público o taxi para distribuir sus gastos; cuando tiene visitas inesperadas en su casa y al abrir el refrigerador decide qué preparar. Evidentemente, en ninguno de estos casos este individuo usa la matemática formalizada y rigurosa, como ocurre en el ejercicio formal de la toma de decisiones, para alcanzar un objetivo o meta dentro de una organización. Más allá de la cotidianidad, en el mundo de las organizaciones los problemas que se deben resolver en tiempo y forma. Sin duda, en muchos casos una solución ante un problema puede considerarse óptima, rebasando los criterios de elección proporcionados por la experiencia e intuición del sujeto. Es aquí donde se resalta la necesidad de comprender la utilidad de métodos alternativos para la selección en aspectos tan específicos como la toma de decisiones, investigación de operaciones o topologías óptimas para el análisis de organizaciones.
El presente artículo busca examinar mediante la mirada epistemológica, los Métodos de Optimización, su parsimonia, verosimilitud y probabilidad de aplicación. La tendencia a la complejidad y sofisticación matemática de la toma de decisiones, basados en la probabilidad, señala que los requerimientos educativos necesitan acercarse a conocimientos en filosofía de la ciencia, teoría y métodos estadísticos a la luz de cierta coherencia metodológica. Este giro interpretativo será necesario para entender la operación de los diversos métodos disponibles, pero, sobre todo, al visualizar sus bases teóricas y complementar críticamente cuál de las opciones será posible usarla en las distintas fases de la toma de decisiones.
En este trabajo se divide en cuatro apartados. El primero aborda el problema del conocer en las organizaciones y la toma de decisiones. Se da cuenta de las dos tradiciones en la historia de la filosofía de la ciencia que establecen profundas diferencias respecto a la concepción de la toma de decisiones: la aristotélica y la galileana como explicaciones del mundo. La segunda parte discute las bases epistémicas de la construcción del conocimiento. En un tercer momento se plantean las conexiones entre la epistemología y los modelos de optimización. Al final se proponen algunas reflexiones a modo de conclusión.
Los esfuerzos por comprender la dinámica interna y externa de las organizaciones han puesto de relieve la necesidad de regresar a los planteamientos alrededor del conocimiento. Los individuos en la modernidad, han tratado de profundizar y fundamentar filosóficamente el saber humano a las formas de optimizar sus decisiones. El conocimiento humano, sin duda, no se limita al mundo fenoménico científico, trastoca diversas esferas: metafísica, filosófica y religiosa, estas visiones lo que han buscado históricamente es interpretar el sentido de sí mismo frente a su entorno. Hessen recuerda, mediante seis problemas cómo se ha construido el conocimiento de los individuos (Hessen, Gaos y Romero 1970). Desde su origen, esencia, formas y posibilidades se relacionan con un criterio de verdad y el conocimiento base para la toma de decisiones. Se convierte en un problema porque la disponibilidad y el sentido del tiempo para construir ese conocimiento son muy diferentes en su distribución productiva como de los recursos del individuo. El conocimiento en las organizaciones posee un ritmo más acelerado dadas las condiciones impuestas por los procesos de modernización donde se involucra el uso de las tecnologías y la eficiencia para su aprovechamiento.
En este sentido Villoro (2002) ofrece un análisis sistemático de los conceptos epistémicos fundamentales con los cuales los actores y organizaciones construyen su conocimiento y toman sus decisiones. Estableciendo relaciones con las razones que justifican la verdad de las creencias de los individuos y con los motivos que pueden distorsionarlas. Es decir, se plantean los dilemas más importantes desde el punto de vista ontológico y epistemológico del conocer. Para el análisis de las organizaciones, la búsqueda de nuevas lógicas de conocimiento se relacionan con la construcción de instrumentos conceptuales novedosos. Sus aplicaciones suponen abordarlos continuamente mediante nuevos ámbitos de análisis para enfrentar la exigencia de nuevos problemas que origina la toma de decisiones y la optimización en su más amplia concepción.
Algunos teóricos como Gergen (1996) plantean preguntas alrededor de la relación entre conocimiento y su aplicación. Por ejemplo, cuando se cuestiona cómo los individuos conocen y deciden, una posible respuesta se podría encaminar a mostrar una nueva lógica del conocer. Un modelo que alberga como núcleo de inteligibilidad la “teoría continúa”. Entendida como un conjunto de supuestos que no se localizan en la teoría explicita, más bien, más allá de la teoría preestablecida. Esta combinación entre lo dado y lo supuesto, determina una forma práctica del conocer, convirtiéndola en una metodología para el conocimiento organizacional y sus modelos de toma de decisiones.
Sin duda, para saber, conocer y decidir, primero es indispensable clarificar sus conceptos y su metodología. Con este ejercicio se busca ser precavidos en el tratamiento de los conceptos teóricos y del diseño de una teoría del conocimiento en las organizaciones. Al respecto, Nonaka y Takeuchi (1999) resaltan una razón, desde su visión de oriente, por la que una gran parte de los occidentales tienden a no hablar de la creación de conocimiento en las organizaciones. Se da por hecho que son máquinas de “procesamiento de información” donde todos los individuos que participan unifican una masa de conocimiento. Este punto de vista remite a reconocer que el conocimiento es formal y sistemático para explicitarse al interior de la organización. Toffler (1990) utiliza como sinónimos las palabras datos, información y conocimiento, para evitar la tediosa repetición.
Según Nonaka y Takeuchi (1999), las empresas japonesas tienen una idea muy distinta de lo que es generar conocimiento y optimizar a través de él. Aquel expresado con palabras y números con la capacidad de transmitirse y compartirse fácilmente en forma de datos, formulas científicas, procedimientos codificados o principios universales es conocimiento explícito. En el mundo empresarial japonés es más valorado el conocimiento tácito, oculto y difícil de expresar. Los orígenes de este conocimiento son muy profundos, ya que se deriva de las acciones y las experiencias individuales, adquiriendo forma en ideales, valores y emociones. En el campo de las organizaciones, se expresa en habilidades conocidas con el argot Know-how “saber hacer”, ya que se incluyen esquemas, modelos mentales, creencias compartidas colectivamente. Los autores ya citados, reconocen que el conocimiento tácito puede dividirse en dos dimensiones: técnica y cognoscitiva. Se afirma categóricamente que estos modelos mencionados de forma implícita, controlan la forma en que los individuos perciben y optimizan en el mundo.
Al respecto Polanyi (1966) marca la diferencia entre el conocimiento explícito y tácito, este último es la clave para comprender las diferencias en que oriente y occidente tratan el conocimiento. El explícito, por su naturaleza objetiva se procesaría mediante una computadora, transmitido electrónicamente o almacenado en bases de datos. Mientras que la naturaleza subjetiva e intuitiva del tácito dificulta su procesamiento o transmisión de forma sistemática o lógica. Para que ese conocimiento se transmita y disemine entre los miembros de una organización, es necesario convertirlo en palabras o números de dominio público.
Polanyi, delinea el conocimiento tácito como parte de los hábitos y aspectos culturales, que difícilmente, el individuo reconoce en sí mismo. Aquí radica la importancia para la gestión del conocimiento, cuando se hace referencia al conocimiento que únicamente el individuo conoce y que es difícil explicar a otra persona. Por ende, el conocimiento tácito es válido para la resolución de un problema, para perseguir y guiar su sentido de abordar su solución. En suma, el conocimiento tácito permite entender y explicar las emergencias originadas al interior de una organización, su complemento, el explícito es superficial y exploratorio. Sin embargo, como plantean Krogh, Ichijo y Nonaka (2000), el conocimiento tácito para que obtenga valor requiere convertirlo en explícito. Por lo anterior, se discute el concepto aprendizaje organizacional analizado en distintas modalidades por diversos teóricos.
Argyris (Ichijo, Krogh y Nonaka 2000) plantea que el aprendizaje organizacional es la detección y corrección del error, Fiol y Lyles (Ichijo, Krogh y Nonaka 2000) como el proceso de mejorar acciones con un mejor conocimiento y entendimiento, Dodgson (Ichijo, Krogh y Nonaka 2000) como la forma en que las empresas construyen, proveen y organizan conocimiento y rutinas alrededor de sus actividades y dentro de sus culturas; adaptan, desarrollan eficiencia organizacional optimizando el uso de las amplias habilidades de su recurso humano, Huber (Ichijo, Krogh y Nonaka 2000) lo entiende como el proceso optimizador a través de información, para la gama de sus comportamientos potenciales.
Cada uno de estos autores coinciden en la propuesta optimizadora, ya que detrás de un ejercicio mental optimizador, es posible identificar una filosofía de la ciencia y una teoría de la sociedad (Burrel y Morgan 2006). Para estos teóricos, pensar es un instrumento que resulta de una sinapsis prolongando la vida neuronal que permite la constitución de un sistema nervioso que, determina la forma de conocer de los individuos, y por ende de la optimización de su comportamiento en las organizaciones (Maturana y Varela 1990). Una gran mayoría de los modelos de optimización omiten adentrarse, por su naturaleza “explicita” racional, a la base epistémica.
Burrell y Morgan (2006:311-325), en su libro Sociological Paradigms and Organizational Analysis plantean que todas las teorías de la organización se basan en una gran teoría de la sociedad compuesta por filosofía de la ciencia, es decir, una ontología, una epistemología y una metodología. Existen dos tradiciones en la historia de la filosofía de la ciencia que establecen profundas diferencias respecto a la concepción de la ciencia: la aristotélica y la galileana. Como explicaciones del mundo, la teleológica o finalista se contrapone con la causal o mecanicista. La teoría de la ciencia de Aristóteles se basa en explicaciones teleológicas, que permiten aclarar "con el fin de qué" ocurrían los fenómenos, tanto de hechos referidos al crecimiento o desarrollo de los organismos vivos, como de los seres inorgánicos u objetos inanimados (Oriol Anguera y Espinosa Hernández 1994). Esta episteme trata de penetrar en las cosas para explicarlas, pretende sustituirlas por otras más precisas. La unión entre ciencia y filosofía, típica de Grecia, se resquebraja en el mundo moderno y contemporáneo. Con la nueva epistemología galileana, la ciencia empieza a moverse en el ámbito de lo positivo.
La explicación galileana sostiene que naturaleza no se explica en términos de futuro, sino de pasado, dando lugar a la explicación causal. Concibe la explicación científica como un hecho, aquella que se encuentra formulada en términos de leyes que relacionan fenómenos determinados por las matemáticas. Tales explicaciones tomarán la forma de hipótesis causales, pero causal va a tener aquí una connotación funcional en una perspectiva mecanicista. Finalmente, la piedra de toque del valor de nuestras hipótesis causalistas vendrá determinada por el análisis experimental. Será la comparación de la hipótesis con las consecuencias deducidas mediante la observación de la realidad o experimentación la que nos dará su valor explicativo.
El positivismo, heredero de la tradición galileana, que alcanzó su máxima expresión en el cientifismo positivista del siglo XIX, dando lugar a posturas que reformulan e introducen nuevos términos y caminos para llegar al conocimiento científico. Es evidente la posición positivista y su método científico integrado llamado lógico-deductivo. La misma intención de Burell lo dice todo: se trata de explicar y predecir lo que ocurre en el mundo social mediante la búsqueda de regularidades y relaciones causales entre sus elementos constitutivos, con la metodología de las ciencias empíricas, los diversos aspectos de la realidad organizacional, con el fin de explicarla hasta donde sea posible.
La opinión común sobre el saber científico ya no tiene vigencia en la epistemología contemporánea. Ha entrado en crisis la tesis acerca de que el conocimiento científico es fiable porque se puede demostrar objetivamente. El reduccionismo cientificista se tambalea. Conceptos como: conjeturas, falsación, crítica, hipótesis, intersubjetividad, innovación, cambio, adquirieron gran significación ante estos otros: verificación, certeza, objetividad, tradición, estabilidad. Nombres como los de Popper, Feyerabend, Lakatos, Kuhn, entre otros, surgen en el horizonte científico para delimitar las fronteras entre lo científico y lo no científico y para especificar en nuevos términos, lo que debe denominarse ciencia. Siguiendo esta idea argumentativa, veamos cono se comienza a construir el conocimiento en donde los individuos transitan por organizaciones con distintas lógicas institucionales.
El empirismo concebido como movimiento filosófico tiene ramificaciones múltiples. El único rasgo común a todas las ramificaciones múltiples es no admitir más que un medio de conocimiento: la experiencia. El registro acucioso de los fenómenos sensibles, de los hechos fundamentados en la experiencia, constituyen tareas esenciales para los seguidores de estos planteamientos. Toda abstracción se liga, según esta postura, a objetos concretos de conocimiento. Platón: señala que el mundo sensible es cognoscible a través de la experiencia en tanto que el mundo inteligible es cognoscible a través de la razón. La teoría aristotélica indica que la experiencia parte de sensaciones que generan recuerdos.
Tomás de Aquino, reconoce dos fuentes de conocimiento: los sentidos y el entendimiento. Su postulado fundamental señala que todo conocimiento nace de la experiencia, en consecuencia, todo conocimiento sensible precede al inteligible. Así vemos que el “entendimiento solo puede producir conceptos con los datos que le proporcionan los sentidos” (García 1991:107). Los antecedentes directos del empirismo “clásico” inglés de los siglos XVII y XVIII revelan una tradición pragmática de la cultura inglesa frente a la continental “dedicada a los grandes problemas especulativos” (García 1991:170) los encontramos en los planteamientos de Rogerio Bacon, Ockam y Francis Bacon a lo largo de los siglos XIII, XV y XVI.
Bacon, señala que la experiencia es la aprehensión de cosas singulares y también la acepta como resultado de la iluminación interior. Plantea dos de las tesis que se convierten en los niveles máximos de frontera en el pensamiento científico: la verificación empírica (de lo que te dio la experiencia a través de modelos matemáticos) y el control técnico de las investigaciones. Francis Bacon (García 1991:107), concibe la experimentación como la experiencia ordenada. El filósofo-abeja “que recoge y ordena lo anterior” habrá de imponerse, a juicio de este pensador, sobre el filósofo-araña cuya tarea especulativa genera productos que no interesan. El inductivismo fértil habrá de imponerse sobre el deductivismo estéril; la mayor demostración es la experiencia; claro está, siempre que no vaya más allá del experimento mismo”. Paradójicamente este autor inductivista, rechaza el uso de la matemática porque la considera especulativa e innecesaria para hablar de las leyes de la naturaleza. La matemática habrá de convertirse para otros inductivistas en piedra angular de la demostración científica.
Para Ockham, se presenta la más radical separación entre fe, razón y conocimiento empírico. A juicio de este autor, ni la existencia del alma ni la de Dios son demostrables ya que la base de la razón y del conocimiento científico es la experiencia. Ockham adopta una actitud nominalista ó conceptualista. La observación y la experiencia se convierten en criterio de verdad. Solo es posible conocer los objetos singulares producto de la experiencia sensible y aquellas realidades cuya existencia se infiera necesariamente del conocimiento intuitivo (Kolakowski y Ruiz-Ramón 1979:19).
Los principales exponentes del empirismo inglés son: Locke, Berkeley y Hume. Para Locke todo conocimiento procede de la experiencia. La mente es un papel en blanco que se va llenando a partir de ideas procedentes de la experiencia. El idealista Berkeley, queda incluido dentro de los empiristas en virtud de que identifica a las ideas con la realidad. Las ideas son las cosas percibidas. El más radical de los empiristas Hume quien concibe al conocimiento conformado por impresiones o ideas. Las primeras son sensibles, las segundas, copias de las impresiones. Según Hume el conocimiento solo alcanza fenómenos y por tanto la metafísica es imposible. Es claro el uso de la experiencia como modelo de optimización de reflexión intuitiva.
Uno de los cuestionamientos principales a las diversas posturas empiristas señala qué, el sujeto para el empirismo se convierte en un pasivo cuya tarea fundamental es recibir y procesar impresiones derivadas de la experiencia sensible. De esta forma se priva al hombre de la inteligencia y razón. La postura racionalista nos señala que la razón es capaz de conducirnos a la verdad. Solo ella es capaz de organizar “los datos brutos sensibles de la sensibilidad”. La experiencia sensible solo aporta el conocimiento de casos particulares “nunca una verdad general”. Uno de los aspectos que generalmente se le atribuye a la ciencia es, su carácter legal. Este carácter se lo confiere la razón. “La ciencia consiste en juicios necesarios y universales, ya que no se limita a examinar los hechos, sino que enuncia leyes”. La inteligencia le permite al hombre formular conceptos y categorías abstractas y universales. De tal forma, se supone que lo propio de la inteligencia es el manejo de conceptos, no de datos empíricos. La fundamentación del conocimiento en este sentido “no es sensible, sino intelectual”.
El mérito del racionalismo consiste en haber visto y subrayado con energía la significación del factor irracional en el conocimiento humano. El racionalismo plantea la validez única de los conocimientos apoyados en la razón. Sólo son válidos los conocimientos basados en la razón, pues solo así se llega a la ciencia compuesta por juicios universales y necesarios. Los principales representantes son: Parménides, Platón, Descartes, Malebranche, Spinoza y Leibnitz.
Platón es racionalista por que los sentidos solo proporcionan opiniones. El conocimiento universal y necesario es de tipo intelectual; la certeza solo se adquiere cuando la inteligencia intuye las ideas. El hombre posee sus propias ideas innatas, pero el cuerpo es el culpable del olvido de tales ideas. Poco a poco las va recordando. “Aprender es recordar”. Descartes pretende eliminar las dudas del escepticismo de una manera racional, científica y rigurosa. Así como falla desde el momento en que pretende, al modo matemático, demostrarlo todo a partir de sus propias ideas; la evidencia intelectual se vuelve criterio de verdad. A partir de Descartes se plantea el siguiente problema ¿si lo que conocemos son ideas…? ¿Cómo podemos saber que estas corresponden directamente con la realidad?
Para Spinoza, la realidad contiene una estructura formal o lógica. En consecuencia, la mente humana debe partir de ideas claras y distintas para deducir conclusiones necesarias a partir de ellas. El orden de las ideas debe tener una correspondencia exacta con el orden de las cosas. De tal forma, la razón por sí sola, sin el auxilio de la experiencia, es capaz de captar la estructura de la realidad. Según Leibnitz existen verdades de razón, que son absolutamente necesarias y su opuesto es imposible por absurdo, y verdades de hecho, que son contingentes y su opuesto es posible. De acuerdo al racionalismo, el conocimiento verdadero no procede de la experiencia sino de la razón, por lo que solo es posible la aceptación de aquellas proposiciones “ciertas y evidentes para la razón”. La evidencia intelectual se coloca por encima de la empiria, como criterio de verdad. “La razón por sí sola, sin el auxilio de la experiencia, es capaz de captar la estructura de la realidad”. Según Leibnitz, “las verdades de razón son absolutamente necesarias y su opuesto es imposible por absurdo…”. (Mardones 1991)
En síntesis, el racionalismo plantea a la razón como única fuente del conocimiento cierto y a la evidencia racional como fundamento del saber científico. Los cuestionamientos al racionalismo señalan que éste es exclusivo, al negar la vía del conocimiento experiencial, también se cuestiona que el racionalismo no puede justificarse sin acudir a la experiencia.
Mardones y Ursua (Mardones 1991:149), plantean la existencia de dos importantes corrientes filosóficas y que han servido de base también para comprender y optimizar el mundo cotidiano y organizacional, que tienen en común la oposición decidida al positivismo y su pretensión de considerar científicas únicamente las explicaciones que se inclinan al modelo de las ciencias naturales y en concreto, de la físico-matemática. Tales posturas son fenomenológica hermenéutica y lingüística y la postura dialéctica o crítico hermenéutica.
Dilthey, Ranke, Windelband, Rickert y Weber quedan inscritos dentro de la primera corriente. Dada la identidad entre sujeto y objeto, la comprensión resulta ser “el método adecuado para captar un modo significativo, intencional” (Mardones 1991). La mediación lingüística constituye una vía de abordaje de la intersubjetividad humana. La comprensión de la vida cotidiana está ligada a la interacción comunicativa y al lenguaje común. Existe una pre-inteligencia no explícita que no se puede explicar en forma empírico-analítica y que permite también estudiar e intervenir las organizaciones; asimismo, existen unos previos aceptados por los investigadores, respecto a las normas sociales y al mismo proceso de investigación que solo pueden evidenciar fenomenológica y hermeneúticamente. Zonas y fuentes de la razón, en fin, que no son reducibles al análisis empírico (Mardones 1991:150)
La pretensión weberiana de entender e interpretar el sentido de la acción social para poder explicarla en su desarrollo y defectos que se ubica en una perspectiva de análisis sociológicos de carácter cualitativo. La postura dialéctica o crítico-hermenéutica recupera la tradición crítica del marxismo; sus exponentes se encuentran gran parte de los integrantes de la escuela de Frankfort, Korsh, Lukacs, Habermas y Apel. Algunos de los supuestos básicos retomados por esta postura son el carácter y la necesidad de situar los hechos en un todo social para que tenga sentido; la interacción entre sujeto y objeto del conocimiento. Habermas se ubica al diálogo en una posición central del quehacer científico. Las posibilidades del pensamiento se derivan de un lenguaje eminentemente social e impersonal. De acuerdo a estos supuestos, análisis de la acción comunicativa se vuelve relevante. El escenario de discusión entre la posición epistemológica Galileana versus Aristotélica está planteada, ahora sigamos con la discusión.
El belga Adolphe Quetelet es uno de los pioneros en la aplicación de los métodos estadísticos para el análisis de los sistemas sociales tales como, el crecimiento de la población. De orientación positivista Quetelet aspira a crear una ciencia social basada en el modelo de las ciencias físico-matemáticas. Los creadores de la nueva ciencia social pretenden que tanto el método que habrá de utilizar la sociología como la actitud frente a su objeto de estudio, sean similares a los empleados por los científicos cuyo objeto de estudio son los fenómenos de la naturaleza. Como resultado de lo anterior se vuelven prioritarios el uso de la inducción, de la recolección de datos y de la comparación ahistórica de los mismos” … la asociación entre las Ciencias Biológicas y las Sociales hizo que estás últimas adquieran algunos hábitos de observación y utilizaran parcialmente la lógica inductiva quebrantando así, en cierta medida, el hábito de usar argumentos deductivos a partir de los primeros principios que habían heredado de Aristóteles” (Bernal 1997:289).
El tipo de explicación, que de acuerdo el positivismo las ciencias sociales necesitan ofrecer, debe fundamentarse en argumentos de carácter físico-matemático (Mardones 1991:152). Estos planteamientos son expuestos desde diversos enfoques por autores tales como los clásicos del positivismo (Comte, Stuart Mill) y más recientemente por el Neopositivismo. En el campo de la correlación estadística de variables, Durkheim logra un gran adelanto. Parte de los datos recabados respecto al suicidio, son procesados de acuerdo al avance de las técnicas estadísticas de su tiempo. No obstante, la información que presenta respecto a este fenómeno es susceptible de un análisis a través de técnicas más avanzadas. Durkheim es uno de los científicos sociales que mayor énfasis pone en el estudio de los hechos sociales “como cosas” y en el abordaje de estos a partir del dato. Es decir, de la búsqueda empírica de la optimización de la información.
Llevando la postura cuantitativista a límites extremos existiría la posibilidad de que el investigador en ciencias sociales llegara, a través del uso de las matemáticas, a establecer leyes, principios, categorías y postulados aplicables a cualquier contexto. Para este caso, el lenguaje extensionalista de las matemáticas resultaría sumamente útil. Uno de los supuestos fundamentales de esta corriente, es que el experto en ciencias sociales y administrativas, trabaja con datos y que, con estos datos, no solo es posible sino necesario, analizarlos de manera lógica y a través del empleo de modelos matemáticos. Si esto no ocurre así, entonces nos dicen algunos autores como Martindale (Wilson y Giddens 1990), se estaría abandonando el terreno de la ciencia para incursionar en el campo especulativo de los poetas, los creadores de mitos, los ideólogos y los políticos. Por tanto, el significado de la vida organizacional para Martindale, debe ser algo que en principio pueda aprehenderse mediante la lógica estándar, modelos matemáticos, de no ser así, se está fuera del alcance de la investigación racional.
Con objeto de lograr una mayor objetividad y/o fiabilidad de los estudios que se realizan, quienes optan por los métodos cuantitativos, hacen uso de técnicas e instrumentos que se quieren ajenos, independientes o externos a quien investiga. El diseño de la investigación cuantitativa se trata de contar con diseños preestructurados en los que se contenle todo el proceso. El criterio de calidad fundamental de los métodos cuantitativos es el rigor, expresado en términos metodológicos de validez externa. En estos métodos, basados en el control y la manipulación de variables, se juega con los niveles de validez interna, seguridad en el resultado obtenido, y de validez externa, posibilidad de generalizar los resultados obtenidos. Esto es, en ocasiones el o los estudios realizados tienen una gran validez interna pero escasa validez externa, cuando no hay control o cuando se desarrolla el estudio en un ambiente artificial. Sin embargo, también puede ocurrir lo contrario, que se reduzca la validez interna con objeto de mejorar la validez externa. Esto último ocurre en el caso de la cuasi-experimentación y de los estudios ex-post-facto.
Otra perspectiva en base a la cual se abordan estudios de carácter cuantitativo, es la del poder explicativo. En este caso pasan a segundo término la validez interna-externa de los resultados y se confiere especial atención al modelo que nos permite explicar y predecir el comportamiento del o los fenómenos estudiados, desarrollado a partir del proceso de investigación. De acuerdo a Cook y Reichardt (1986a), el enfoque cuantitativo presenta, entre otras, las siguientes características: medición provocada y controlada con miras a la comprobación objetiva; de estudios de carácter confirmatorio, inferencial e hipotético-deductivos orientados a resultados repetibles y generalizables; empleo de métodos experimentales, particularistas, analíticos y reduccionistas que suponen una realidad estable; desarrollo de encuestas a través de las que se busca la medición de indicadores y la comprobación de la teoría.
Ante la presencia de fenómenos vagos e imprecisos (Moles, Rohmer y Covarrubias 1995), las formas de estudio basadas en propuestas empíricas resultan insuficientes. La alternativa para el estudio de esta realidad permanentemente variable, en base a la que pensamos y actuamos, la constituye la perspectiva cualitativa. El estilo cualitativo de carácter epistolar y biográfico tiene su punto álgido. Destacan en técnicas tales como la entrevista, la observación participante y las historias de vida. “Globalmente los trabajos destacan por su falta de representatividad, de verificación de hipótesis y de análisis estadístico, así como por la subjetividad inherente a su flexibilidad interpretativa”. (Oriol Anguera y Espinosa Hernández 1994). Entre la década de los treinta y la de los sesenta, se observa la declinación de la metodología cualitativa a favor de la metodología cuantitativa. De tal forma se plantea la insuficiencia de los estudios de carácter cualitativo para la verificación de hipótesis y para el análisis estadístico. La utilidad que se le confiere a los estudios de carácter cualitativo corresponde a las fases exploratorias.
Es, a finales de la década de los sesenta cuando se observa un repunte del paradigma cualitativo que se expresa a través de la revaloración del papel que la teoría desempeña en el papel de la investigación. En este repunte, también cumple un papel destacado el desarrollo de los procedimientos diversos para el tratamiento de datos cualitativos. Cook y Reichardt, consideran que el paradigma cualitativo se nutre entre otros de los siguientes elementos (1986a):
· Análisis comprensivo. Se busca comprender la intención de los actores desde la perspectiva de su propio marco referencial.
· Subjetividad. Se retoman las posturas que hacen énfasis en el análisis interior ó introspección de la conducta humana.
· Estudio de casos, no generalizables, descriptivos, expansionistas e inductivos que, suponiendo una realidad dinámica buscan la profundidad en los datos.
· Desarrollo de métodos basados en la observación y fortalecimiento de perspectivas tales como la etnometodología.
El paradigma cualitativo concibe la existencia de múltiples realidades que el investigador construye y determina. Una de las tareas básicas de la investigación cualitativa es la búsqueda y descripción de incidentes clave referidos a un contexto amplio. Este tipo de incidentes demuestran el funcionamiento “de principios abstractos de organización social” (Cook, Reichardt y Solana 1986b:64).
El registro de las observaciones se lleva a cabo fundamentalmente a través del lenguaje de los sujetos, ya que éste es básico en el conocimiento de los sistemas significativos de los participantes. El hecho de que la teoría, los conceptos y las categorías surjan de la propia información que se recaba, de las perspectivas de los participantes, potencia la capacidad de comprensión y explicación por parte del investigador. A diferencia del paradigma cuantitativo el cualitativo se basa en el modelo abierto en el que la teoría no determina, sino que es determinada, no se comprueba sino se descubre.
Dos de las escuelas que desde la sociología interpretativa desarrollan y fortalecen los métodos cualitativos de abordaje de la realidad social, son el interaccionismo simbólico y la etnometodología (Giddens 1987). Ante las propuestas del reduccionismo conductista y del determinismo estructural el interaccionismo simbólico pretende encontrar en la interacción social la modelación de la capacidad de pensamiento. En esta interacción, los significados y los símbolos que se emplean resultan modificados o alterados. El rechazo de las técnicas convencionales de estudio predominante cuantitativas, la introspección simpática que plantea la necesidad de ponerse en el lugar del actor, el uso de la intuición constituye parte de los aportes y las debilidades que, desde una perspectiva cualitativa, ha desarrollado el interaccionismo simbólico. La etnometodología centra su atención en la intersubjetividad. El mundo intersubjetivo o de la vida cotidiana es el que permite crear la realidad social. El develamiento de prácticas, mediante que las personas viven su vida cotidiana se lleva a cabo fundamentalmente a través de los estudios de instituciones y del análisis conversacional.
El debate entre métodos cualitativos y cuantitativos parte del supuesto de considerar a ambos como excluyentes, Los partidarios de cada uno de ellos plantean la superioridad de su perspectiva de abordaje. Los métodos cualitativos y cuantitativos como paradigma, orientan el quehacer de diversas disciplinas y la resolución de las problemáticas que enfrentan, señalan criterios para el empleo de métodos, técnicas e instrumentos y, establecen principios de orden epistemológico a partir de los que se organiza el trabajo cotidiano de investigación.
Ningún paradigma tiene el monopolio de las respuestas correctas. La posibilidad de recoger perspectivas múltiples del objeto de estudio a partir del empleo de métodos diversos permite una mayor riqueza en los procesos y resultados de la investigación. El llegar a resultados similares a través de diversas vías, mediante procedimientos de triangulación, otorga mayor confiabilidad y validez a las observaciones en torno a lo que se investiga. La triangulación permite que “las deficiencias de un método puedan ser compensadas por los puntos fuertes de otros métodos” (Denzin 1973).
El mundo empírico develado por las relaciones estadísticas, se vincula al mundo de vida que, abordado desde una perspectiva cualitativa, permite comprender los significados de la acción social. “Se requiere un equilibrio mejor entre la base cotidiana de significados en la acción social y la generalidad de tales significados a un contexto más amplio. Este es el reto que brindan los métodos cualitativos y cuantitativos para describir el mundo y sus decisiones…” (Cook, Reichardt y Solana 1986:76).
Grawitz (1984:321) plantea que “… la mayoría de los investigadores en ciencias sociales admiten que no hay una sola técnica, un solo medio utilizable en todas las ciencias sociales. Reconocen que no hay oposición entre cualitativo y cuantitativo, sino un continuum que no va de la investigación cualitativa sistematizada, hasta las formas de medición más rigurosas. El vínculo cada vez más estrecho entre lo cualitativo y lo cuantitativo permiten asumir que “ambas perspectivas son necesarias y que pueden funcionar conjunta y complementariamente” (Oriol Anguera y Espinosa Hernández 1994:28). De tal forma, las tendencias recientes avanzan en el sentido de la integración de paradigmas que en su momento se presentaron como excluyentes para lograr la combinación de que resulte más adecuada al problema de la investigación y al medio con que se cuenta.
La mezcla de atributos de ambos paradigmas reporta ventajas potenciales tales como: el abordaje de objetivos múltiples, una mayor profundidad en los estudios para que los modelos de optimización sean más objetivos y la posibilidad de triangular la información y por esa vía, corregir algunos de los sesgos presentes en el abordaje a partir de un solo paradigma. La combinación debe darse de tal forma que las técnicas e instrumentos procedentes de ambos, se complementen como parte de una estrategia en la que la heurística desempeña un papel esencial. La aplicación de métodos cualitativos puede servir como antecedente complemento o confirmación de la aplicación de métodos cuantitativos. Esta situación también puede plantearse en sentido inverso. En ambos casos encontramos un beneficio mutuo y un mayor nivel de profundidad y confiabilidad en el análisis. Solo como un ejemplo, la generalización de hallazgos encontrados a nivel microsociológico puede llevarse a cabo a través de métodos cuantitativos. Por otra parte, los estudios cualitativos pueden otorgar un mayor nivel de confiabilidad y profundidad en el análisis sociológico de corte cuantitativo.
Cook y Richardt (1986a) nos muestran las limitaciones de las perspectivas básicamente cuantitativas concebidas en términos unilineales. Nos señalan que la polaridad con la que suelen presentarse es falsa, ya que, por ejemplo, los eruditos cuantitativos están cargados de una gran dosis de subjetividad. Nos señalan que la situación es la que -en última instancia- determina el método o los métodos a utilizar. Hacen énfasis, el problema de integración cuantitativo-cualitativa, tal como lo planean estos autores, queda irresuelto. La cuestión no es qué paradigmas integrar o por que integrarlos. La cuestión de fondo es cómo y para qué integrar los paradigmas. El asunto de la combinación de paradigmas se halla presente tanto en la formulación de objetivos como en el diseño de investigación y los alcances y los recursos que éste pueda tener.
Una de las aristas de este problema radica en la capacidad del investigador para combinar las ventajas que reportan ambos enfoques. La amplitud de la gama de opciones que ofrecen tanto las perspectivas cuantitativas como las cualitativas requiere de una formación que permita reconocer sus alcances y limitaciones para el abordaje de un fenómeno concreto de la realidad social. El abordaje de los objetos de estudio a partir de un enfoque integral difícilmente puede llevarse de manera improvisada. Esta situación obliga a replantear los procesos formativos de los investigadores. Los diversos modelos de investigación para optimizar configuran un menú, al cual el investigador puede acudir para retomar las propuestas requeridas por el objeto de estudio, así como por la profundidad y el rigor con el que pretenda abordarlo. La limitante en este sentido se deriva fundamentalmente dos factores; la naturaleza del problema y el grado de creatividad e ingenio de quien lleva a cabo el diseño de la investigación para optimizar.
Algunos obstáculos de orden operativo para el empleo conjunto de métodos cuantitativos y cualitativos, son el elevado costo, el mayor tiempo, la carencia de adiestramiento para el empleo conjunto de ambos métodos y, las modas omnipresentes en los procesos de investigación a menudo asumidas por los organismos financiadores. Otro de los aspectos que pueden resultar más problemáticos, cuando se trata de integrar paradigmas cuantitativos y cualitativos, es la cuantificación sin que ello implique el empobrecimiento de los elementos cualitativos más interesantes (Grawitz 1984:324).
Las mezclas conducen a otro problema no menos complejo, ¿cómo y para qué llevarlas a cabo? Esta cuestión nos permite a los criterios en base a los que se habrán de integrar los paradigmas. La vía pragmática puede resultar riesgosa y conducir a soluciones falsas, que lejos de ayudar pueden volver más complejo el proceso de investigación. Otro nudo que prevalece es la conciliación de perspectivas que, desde el punto de vista ontológico y epistemológico, aún se mantienen como irreconciliables, por lo menos desde el punto de vista ideológico.
Como se mencionó al inicio de este artículo, en la vida cotidiana con frecuencia estamos afrontando muchos problemas de optimización. Evidentemente, en ninguno de estos casos usamos matemática formalizada y rigurosa para encontrar lo que nos proponemos, pues afrontamos los problemas con los criterios que nos dan la experiencia y la intuición, aunque no necesariamente encontremos la solución óptima, esta reflexión es la realizada en párrafos anteriores, optimización con reflexión intuitiva en base a la experiencia.
Sin embargo, en una perspectiva más amplia, observamos que los problemas de optimización son parte fundamental de la matemática y ya estaban presentes en los tratados de los griegos de la antigüedad. Una muestra de ello es el libro V de la obra sobre cónicas escrita en ocho tomos por Apolonio – considerado uno de los griegos más importantes de la antigüedad, que vivió entre los años 262 y 190 a.C. – en el cual se dedica a estudiar segmentos de longitud máxima y longitud mínima trazados respecto a una cónica. Ciertamente, un hito histórico está marcado por el desarrollo del cálculo diferencial en el siglo XVII y el uso de derivadas para resolver problemas de máximos y mínimos, con lo cual se amplió aún más las aplicaciones de las matemáticas en diversos campos de la ciencia y la tecnología y gracias, sobre todo, a Euler quien propone y crea el cálculo de variaciones, considerando la obtención de funciones que optimizan funcionales, lo cual proporcionó valiosas herramientas matemáticas para afrontar problemas más avanzados. Según Boyer (1997), Apolonio sostiene en su introducción, que “el tema es de los que parecen ser dignos de ser estudiados por su propio interés”. Kline (1990), nos dice: Apolonio “demuestra que si O es cualquier punto en el interior de una cónica y si OP es el segmento de recta de longitud máxima o mínima desde el punto O a la cónica, entonces la recta perpendicular a OP en P es tangente a la cónica en P; y si O’ es cualquier punto sobre OP producido fuera de la cónica, entonces O’P es el segmento de longitud mínima de O’ a la cónica. Ahora se enuncia esta propiedad como la perpendicularidad entre la tangente y la normal.”. Este problema podemos verlo ahora en un marco más general, como parte del estudio de las condiciones de transversalidad en problemas de cálculo de variaciones, que es una teoría creada por Euler en el siglo XVIII, en la cual se optimiza una funcional y el objeto optimizante es una función. Es pertinente recoger la afirmación de Boyer (1997) sobre el trabajo de Apolonio:
“Al mismo tiempo que uno no puede por menos de admirar al autor por su elevada actitud intelectual, parece procedente hacer notar que lo que en su día fue simplemente una bella teoría, sin ninguna posibilidad en absoluto de ser aplicada a la ciencia o la tecnología de la época, ha llegado a ser un instrumento teórico fundamental en campos tales como la dinámica terrestre o la mecánica celeste. Los teoremas de Apolonio sobre máximos y mínimos son en realidad teoremas sobre tangentes y normales a las secciones cónicas. […] Resulta pues meridianamente claro, dicho en otras palabras, que fue la matemática pura de Apolonio la que hizo posible la aparición, unos 1800 años más tarde, de los Principia de Newton…”
El siguiente es otro párrafo del libro citado de Boyer, que nos refiere un hecho histórico de la antigüedad vinculado con problemas de optimización y nos recuerda uno de los principios filosóficos de Aristóteles, que atribuye a la naturaleza un comportamiento optimizador (1997):
“Herón parece haber sido el primero que demostró por medio de un sencillo razonamiento geométrico, en una obra sobre Catóptrica o estudio de la reflexión, que la igualdad de los ángulos de incidencia y de reflexión es una simple consecuencia del principio filosófico de Aristóteles de que la naturaleza procede siempre de la manera más sencilla o “económica”. Es decir, si un haz de rayos luminosos parte de un foco S, se refleja en un espejo MM’ y se dirige después hacia el ojo E de un observador, entonces la luz deberá recorrer el camino más corto posible SPE, que es exactamente aquel en que los ángulos SPM y EPM’ sean iguales”.
Otro hito importante en la historia de la optimización se marca en la primera mitad del siglo XX al desarrollarse la programación lineal. Kantorovich y Koopmans recibieron el premio Nobel de economía en 1975, como reconocimiento a sus aportes a la teoría de la asignación óptima de recursos, con la teoría matemática de la programación lineal. En esta breve mirada histórica, es importante mencionar que Fermat (1601-1665), antes que Newton y Leibinitz publicaran sus trabajos sobre el cálculo diferencial, inventó métodos ingeniosos para obtener valores máximos y mínimos; que Jean Baptiste-Joseph Fourier (1768-1830) mostró aproximaciones intuitivas a métodos de optimización actualmente considerados en la programación lineal; y que el tratamiento riguroso de las ideas de Newton y Leibinitz – y de muchos otros anteriores a ellos, que aportaron ideas relevantes al análisis matemático – fue desarrollado recién en el siglo XIX, con Cauchy, Weierstrass y Dedekind. Tenemos así, en la historia de la matemática – y en particular en temas vinculados con optimización – hechos que nos muestran la relación estrecha entre intuición y rigor, y que han llevado a destacados personajes de la matemática a tomar posición respecto a este asunto. Baste mencionar a Félix Klein (Alemania, 1849 – 1925), destacado geómetra, autor del famoso programa de Erlangen, quien afirmó que “En cierto sentido, las matemáticas han progresado más gracias a las personas que se han distinguido por la intuición, no por los métodos rigurosos de demostración” (Perero 1994:101) y a L.
Otro hecho histórico interesante que nos hace ver cómo estaban presentes las ideas de máximo en una perspectiva correcta, aunque no necesariamente rigurosa y formal, es la obra de Pappus de Alejandría, que escribió un libro hacia el año 320 con el título de Colección matemática: Pappus parece haber seguido de cerca una obra Sobre figuras isométricas escrita casi medio milenio antes por Zenodoro (ca. 180 a.C), de la que nos han llegado algunos fragmentos a través de los comentaristas posteriores. Entre las proposiciones que aparecían en el tratado de Zenodoro, había una que afirmaba que, de todas las figuras sólidas con la misma superficie, la esfera es la que tiene un volumen máximo, pero evidentemente sólo se daba una justificación incompleta” (Boyer 1997).
Los problemas isoperimétricos tienen un lugar importante en la historia de las matemáticas y en particular de los problemas de optimización. Cabe hacer mención a la leyenda según la cual la princesa Dido – personaje mítico de Fenicia, considerada fundadora de Cartago – cuando llegó en el siglo IX antes de Cristo a lo que actualmente es Túnez, y quiso comprar tierras para establecerse con su pueblo, sólo se le permitió hacerlo en una extensión tal que pudiera ser encerrada por una inmensa cuerda. Es claro que la princesa y los fenicios que la acompañaban, tuvieron que resolver un problema isoperimétrico: determinar la región de mayor área posible, encerrada por la cuerda (el perímetro dado). La solución intuitiva es una región circular, cuya circunferencia es de longitud igual a la de la cuerda; sin embargo, la solución formal no es simple y fue escrita después de varios siglos. El destacado matemático germano-suizo Jacob Steiner (1796-1863) resolvió el problema asumiendo la existencia de la solución y considerando tres etapas en su demostración:
i. La curva debe encerrar una región convexa.
ii. Cualquier recta que divida por la mitad el perímetro de la región, también divide a la región en dos partes que tienen la misma área.
iii. La semicircunferencia de longitud P/2 cuyos extremos estén sobre una recta dada, es la curva que encierra una región de área máxima, considerando todas las curvas de perímetro P/2 que encierran regiones convexas a un lado de la recta y con extremos en ella.
El cálculo diferencial, con los significativos aportes de Newton y Leibniz en el siglo XVII, trata de manera sistemática los problemas de máximos y mínimos de funciones continuas de una y de varias variables. Es justo recordar las contribuciones con ideas relevantes (¿intuitivas?) a lo largo de la historia, de personajes como Eudoxo y Arquímedes (antes de Cristo), y de Cavalieri, Kepler, Torricelli y Fermat para la creación del análisis infinitesimal.
Destacamos de manera especial los aportes de Fermat (1601- 1665) por sus métodos ingeniosos para resolver problemas de máximos y mínimos, expuestos en su memoria Methodus ad disquirendam maximam et minimam (Método para investigar máximos y mínimos).
En el año 1637 publica su método basado en las siguientes reglas:
I. Sea A un término relacionado con el problema.
II. La cantidad máxima o mínima está expresada en términos que contienen sólo potencias de A;
III. Se sustituye A por A+E, y el máximo o mínimo queda entonces expresado en términos de potencias de A y E;
IV. Las dos expresiones del máximo o mínimo se hacen <<adiguales>>, lo que significa algo así como << tan aproximadamente iguales como sea posible>>;
V. Los términos comunes se eliminan;
VI. Se dividen todos los términos por una misma potencia de E de manera que al menos uno de los términos resultantes no contenga a E;
VII. Se ignoran los términos que aún contienen E;
VIII. Los restos se hacen iguales. (Andersen 1984:38)
Los aportes de Lagrange y de Euler, destacados científicos del siglo XVIII, permitieron tratar los problemas de optimización con varias variables y restricciones de igualdad e incursionar en problemas de optimización en los cuales el elemento optimizante no es ni un número real ni un vector n dimensional, sino una función. Nos estamos refiriendo al cálculo de variaciones y a la solución rigurosa de problemas como el famoso e histórico “problema de la braquistócrona”, según el cual, se debe hallar la curva plana a lo largo de la cual una partícula se deslizará únicamente por influencia de la gravedad y sin rozamiento, en un tiempo mínimo, de un punto P a otro Q, considerando estos puntos en un plano vertical, Q más abajo que P pero no ambos en una recta vertical. Ciertamente, hallar tal curva, es hallar la función que la define y hubo soluciones muy ingeniosas, con criterios específicos para este problema, como respuesta al reto planteado por quien lo propuso – Johann Bernoulli en 1696 – a los matemáticos de esa época; entre ellas, la solución del mismo Johann Bernoulli, la de Leibniz, la de Jacques Bernoulli (hermano de Johann) y la famosa de Newton. El cálculo de variaciones es una teoría que permite resolver rigurosamente éste y muchos otros problemas de optimización, en los que el elemento optimizante es una función, constituyendo un valioso aporte para otras ciencias.
Los principios de variación de Euler en física, redescubiertos y difundidos por el matemático irlandés W.R. Hamilton (1805 – 1865), han demostrado ser una de las herramientas más poderosas en mecánica, óptica y electrodinámica, con muchas aplicaciones a la ingeniería. Los avances recientes en física – relatividad y teoría cuántica – están llenos de ejemplos que revelan el poder del cálculo de variaciones (Courant y Robbins 2002:421-422). Se tienen así modelos de optimización dinámica, que en el siglo XX son utilizados en modelos de la teoría económica. Más aún, con los aportes de Pontryagin, Hestenes, y otros distinguidos matemáticos, se consolida en el siglo XX la teoría del control óptimo, que puede verse como un planteamiento más general que el del cálculo de variaciones, pues introduce una variable adicional a estos problemas (la variable de control) y considera entre las restricciones una ecuación diferencial que vincula la variable de estado con la de control. Los aportes de Bellman llevan a la formulación de la programación dinámica que incluye los problemas de control óptimo en una familia de problemas de control y presta especial atención al valor óptimo de la funcional, a diferencia del cálculo de variaciones y el control óptimo, que focalizan su atención en las trayectorias óptimas de las variables de estado y de control. Con este enfoque, se tratan rigurosamente problemas de optimización dinámica, de variación continua y de variación discreta.
Otro gran escenario de los problemas de optimización está en la programación lineal, desarrollada a partir de la cuarta década del siglo XX. La expresión “programación lineal” ya está generalizada, aunque más convendría usar la expresión “optimización lineal”, para evitar confusiones con la acepción de programación muy vinculada ahora a la informática. Los métodos desarrollados permiten tratar geométrica y computacionalmente problemas de asignación óptima de recursos, y en los más diversos campos, como la economía, las finanzas, el transporte y los juegos competitivos. En estos problemas, la función cuyo valor óptimo se busca y las funciones que definen las restricciones de las variables, son todas lineales. En muy corto tiempo la programación lineal ha sido aplicada en diversos campos y al mismo tiempo ha desarrollado y perfeccionado métodos de solución de problemas. Cabe mencionar que ya en 1826, Fourier descubrió un método para manipular desigualdades lineales, que está muy relacionado con la solución de problemas de programación lineal, como se expone en Williams (Courant y Robbins 2002). A continuación, transcribimos un párrafo del artículo, que da idea de la estrecha interrelación, a pesar de la gran diferencia en el tiempo.
Las valiosas contribuciones de George Dantzig, L.V. Kantorovich y T.C. Koopmans[1] al desarrollo de la programación lineal, pronto devinieron también en la programación no lineal. Son históricos los trabajos de Kuhn y Tucker (1950) estableciendo condiciones necesarias y suficientes para la existencia de soluciones óptimas de problemas de programación no lineal. Se encontraron relaciones importantes entre la dualidad en la programación lineal, la teoría de juegos de Von Neumann y las condiciones de Kuhn-Tucker. Estas condiciones, que consideran funciones diferenciables de n variables no negativas y m restricciones dadas por desigualdades, pueden aplicarse también a los problemas de programación lineal y hacer evidentes las relaciones entre los resultados de los teoremas de dualidad y análisis de sensibilidad con los multiplicadores de Lagrange. Un análisis histórico y matemático sobre los orígenes y la evolución de la programación lineal y la no lineal hace Hoff Kjeldsen en su tesis doctoral (1999).
La riqueza teórica en el tratamiento de los problemas de programación no lineal y las múltiples aplicaciones en diversos campos de la ciencia y la tecnología aceleraron tremendamente el desarrollo de la optimización en general y en la actualidad es un campo muy amplio de las matemáticas y con numerosas publicaciones de alto nivel matemático sobre temas como monotonía generalizada, convexidad generalizada, problemas de equilibrio – incluyendo optimización multiobjetivo y teoría de juegos – desigualdades variacionales, puntos fijos, Lagrangianos aumentados, técnicas de regularizaciones, optimización discreta, optimización estocástica, etc.
Referirse a problemas de optimización en general, es referirse a un ámbito muy amplio de las matemáticas, y que está avanzando cada vez más. En diversos campos de las ciencias naturales y sociales entre ellas la administración, se encuentran, se formulan y se resuelven problemas de optimización. Los problemas de programación lineal quizás son los más conocidos o difundidos, pero existen problemas de programación no lineal, de programación dinámica, de optimización discreta, de optimización combinatoria, optimización cóncava, optimización estocástica, etc.
Llamaremos problema de optimización a todo problema en el cual el objetivo fundamental es obtener un valor máximo o un valor mínimo de alguna variable (Williams 1986).
1. En el enunciado de un problema de optimización generalmente se usan palabras o expresiones como máximo, mínimo, el más (o la más, lo más), el menos (o, la menos, lo menos), el mejor (o la mejor, lo mejor), el peor (o la peor, lo peor), a lo más, por lo menos, el mayor (o la mayor), el menor (o la menor).
2. Al referirnos a valores máximos o mínimos de una variable, debemos precisar que se requiere un conjunto C en el cual se consideren los valores de la variable. En términos formales, un primer nivel de problema de optimización es la obtención de un elemento máximo o de un elemento mínimo en un conjunto C en el que se ha definido una relación de preorden completo; es decir una relación binaria, que la representamos por ≤, reflexiva y transitiva, que puede establecerse entre cualquier par de elementos de C. Entonces, el problema de optimización es:
Dado el par ordenado (C; ≤ ), donde C es un conjunto en el que se ha definido la relación de preorden completo representada por ≤ , determinar cm ∈C tal que ∀ c ∈ C, cm ≤ c (c el elemento mínimo)
Como hemos visto en la discusión anterior, tenemos dos grandes cunas en donde se encuentran los paradigmas responsables de la toma de decisiones en las organizaciones. Por un lado la cuna epistemológica Galileana y por otro la cuna epistemológica Aristotélica, en donde tienen sus orígenes el cómo se construyen las organizaciones y sus formas de tomar decisiones: Modelo Normativo o Prescriptivo y su posible complementariedad de los Modelos de Optimización de reflexión intuitiva. Veamos la explicación en la tabla 1, en donde se vincula, a manera de síntesis, el aspecto epistemológico con el trazado teórico y metodológico de los modelos de optimización.
Como resultado de la resolución de situaciones de optimización cotidianas adquirimos una práctica “optimizadora” que, en algunos individuos, puede llegar al extremo de ser una intuición actuativa. Incluso, se podría considerar que esta intuición actuativa es en sí misma el resultado de un proceso de optimización del esfuerzo por el recorrido de un organismo social en su proceso histórico. En efecto, al aplicar un proceso recursivo al primer tipo de experiencias, es decir al preguntarnos sobre cuál puede ser el proceso que optimice el esfuerzo que representa la racionalización optimizadora, la respuesta a la que llegamos es que la intuición que nos da la solución óptima es óptima en dos sentidos, por una parte, nos da la solución óptima y por la otra economiza el esfuerzo necesario para hallar la solución.
Consideramos que existen razones para conjeturar desde el punto de vista de la física y matemática teórica, que existe una intuición optimizadora comprensiva, de tipo primario, que nos ayuda a entender los problemas de optimización y que, en algunos individuos, puede haber una intuición optimizadora actuativa que lleve a la solución de los problemas sin el predominio de caminos formales. Esta Intuición está basada en la cuna epistémica Aristotélica.
En la revisión realizada, nuestra respuesta es que hay razones para suponer que sí y que esta intuición optimizadora tiene su origen, básicamente, en dos tipos de experiencias cotidianas. El primer tipo de experiencias tiene que ver con el hecho de que en la vida cotidiana, con frecuencia estamos afrontando muchos problemas de optimización; por ejemplo, buscamos el mejor camino para ir de un lugar a otro, tratamos de hacer la mejor elección al hacer una compra en el mercado, buscamos la mejor ubicación cuando vamos a una biblioteca, cine o a un teatro, tratamos de enseñar lo mejor posible, escogemos a la novia o el novio, tratamos de escoger a la mejor propuesta de gobierno en una elección. Evidentemente, en ninguno de estos casos usamos procesos sistemáticos, matemática formalizada, para encontrar lo que nos proponemos, pues afrontamos los problemas con los criterios que nos dan la experiencia y la intuición como lo vimos en los aportes de los primeros griegos, aunque no necesariamente encontremos la solución óptima. Este tipo de situaciones conllevan una racionalidad optimizadora que busca encontrar la mejor solución a la situación. Experiencias relacionadas con expresiones populares como “la ley del mínimo esfuerzo”. El segundo tipo de experiencias están relacionadas con el hecho de que somos sujetos que experimentamos sobre nosotros mismos cómo, con el paso del tiempo, ciertas características vitales. Por ejemplo, fortaleza visual, física, la salud, entre otras van variando y pasan por momentos críticos iniciando las declinaciones bio-psico-físicas, máximos o mínimos.
Estas dos formas de experiencias vitales de las personas son las que nos dan argumentos para suponer que existe una “intuición optimizadora” (de tipo primario en la terminología de Fischbein) que tiene dos componentes: una intuición comprensiva y otra actuativa. Por ello es que, podemos entender la intuición comprensiva como una proyección metafórica de determinadas experiencias de la vida cotidiana, dicha proyección nos permite tener una comprensión de lo que es un problema de optimización.
La importancia de la necesidad de tal uso informado de métodos se revela en la tendencia a usar los métodos de parsimonia y probabilísticos sin explorar las implicaciones epistemológicas de tales enfoques en la reconstrucción organizacional y de negocios. Indudablemente, el interés en los métodos de optimización está en expansión; por lo tanto, es importante que los estudiosos de la administración y de la teoría organizacional consideren cuidadosamente las bases epistemológicas y la relevancia de los métodos que usan en la selección de topologías óptimas. Queremos aclarar, que la continuación de este trabajo está en función del desarrollo de los antecedentes del uso de modelos de optimización basados en la reflexión intuitiva que no requieren de formalidades sistemáticas y las que si requieren.