Misceláneos
La inteligencia artificial y el riesgo de una analogía invertida
Artificial Intelligence and the Risk of an Inverted Analogy
La inteligencia artificial y el riesgo de una analogía invertida
Sophia, Colección de Filosofía de la Educación, núm. 39, pp. 315-335, 2025
Universidad Politécnica Salesiana

Recepción: 24 Octubre 2024
Revisado: 20 Diciembre 2024
Aprobación: 20 Abril 2025
Publicación: 15 Julio 2025
Resumen: Este trabajo tiene como objetivo plantear los elementos generales que permitan discutir la realidad de la inteligencia artificial (IA) y su lugar en el mundo como objeto tecnológico. Con esto se pretende plantear la necesidad de revertir la analogía de la inteligencia que en primer lugar es humana y solo de forma derivada artificial. Para ello, inicialmente, se hará un recorrido conceptual de algunos de los elementos más importantes que la filosofía ha dado a conocer sobre la inteligencia humana. De esta forma, es posible hacer un contraste con la metáfora de la IA. Es decir, distinguir el sentido con que se usan las palabras “inteligencia” y “artificial” en referencia a las máquinas. Al plantear estos aspectos abordaremos la distinción entre los objetos mecánicos y tecnológicos con la intención de mostrar algunas de las especificidades de la IA. Con esto en mente, se aborda una última cuestión en torno a si, frente a todas estas distinciones que genera el análisis de la realidad de la “inteligencia artificial” como una novedad que tiene mayor autonomía frente a lo humano, pero que usa todo su ingenio matemático y sus habilidades comunicativas, es necesario proponer términos y categorías más apropiadas para evitar la inversión de la analogía antropológica y dar contornos precisos al marketing de estas tecnologías.
Palabras clave: Inteligencia, inteligencia artificial, tecnología, ser humano, ética, responsabilidad.
Abstract: The aim of this paper is to present the general elements that allow us to discuss the reality of Artificial Intelligence (AI) and its place in the world as a technological object. The intention is to suggest the need to revert the Intelligence Analogy that is primarily human and artificial just in a derivate form. To do so, first, will be made a conceptual itinerary showing some of the most important elements that’s philosophy has made known about human intelligence. In that way, it is possible to contrast the metaphor of AI. That is, to distinguish the sense in which the words “intelligence” and “artificial” are used in reference to machines. In raising these aspects, we will address the distinction between mechanical and technological objects with the intention of showing some of the specificities of AI. Finally, the question is if, in the face of all these distinctions generated by the analysis of the reality of “artificial intelligence” as a novelty that has greater autonomy from the human, but uses all its mathematical ingenuity and communicative skills, it is necessary to propose more appropriate terms and categories to avoid the inversion of the Anthropological Analogy and to give precise contours to the marketing of these technologies.
Keywords: Intelligence, Artificial Intelligence, Technology, Human Being, Ethics, Responsibility.
Forma sugerida de citar: (APA)
Quiceno Osorio, Juan David. (2025). La inteligencia artificial y el riesgo de una analogía invertida. Sophia, Colección de Filosofía de la Educación, (39), pp. 315-335.
Introducción
Probablemente el riesgo que plantean hoy las nuevas tecnologías no sea que se cumplan algunas ficciones literarias o cinematográficas en donde la vida humana se encuentra en peligro frente a un crecimiento exponencial de la inteligencia artificial (IA), que la lleve a salirse de control y a volverse contra el hombre. A pesar de que la autonomía de las máquinas en este momento esté rodeada por un aura de misterio, es cierto que no se debería esperar que se salgan de control y que hagan cosas que están más allá de su arquitectura.1 Desde diversos filósofos y sociólogos, entre las más variadas tradiciones, la verdadera catástrofe que podría traer la IA es que, siendo una ayuda para ciertas actividades humanas —que muchas veces acertada o erróneamente se dijeron propiamente del ser humano— las hiera de muerte y, con ellas, ámbitos esenciales de la vida como por ejemplo la memoria, el aprendizaje, el ejercicio crítico del pensar, el arte, el recurso a la libertad o la importancia de las relaciones cara a cara (Barrios et al., 2020).
No es esto una novedad. Como comenta el filósofo francés Éric Sadin (2017, p. 34), se trata de un proceso de digitalización de la existencia humana. Hoy, ámbitos como el juego, el conocimiento, la profesión, las relaciones sociales de amor y amistad, la sexualidad, la economía, la política… en otras palabras, la vida humana en general, se van “virtualizando” y por esa vía se van transformando, así como “se van transformando las tradicionales formas de estar y relacionarse con el mundo” (Gonzálvez-Pérez & Cortijo-Ruiz, 2023, p. 44). Específicamente, por vía de los algoritmos especializados que presentan a los usuarios lo que “desean” y que, en teoría, responden a sus preferencias. No obstante, personalizar (customize) en estas circunstancias parece más sinónimo de “cosificación” que de respeto por la persona. Es un proceso por el que el ser humano va quedando atrapado en los dispositivos electrónicos y en las tendencias, influencias, historias, narrativas y certezas empíricas que los algoritmos le ofrecen y que van, paradójicamente, minando sus facultades más nobles. Por ello, en parte no es descabellado decir que al sujeto pensante de la Modernidad lo viene reemplazando un sujeto algorítmico (Sadin, 2017, p. 60). Esto no sucede porque el ser humano sea en última instancia pensante o matemático (Quiceno & Morales, 2024), sino porque los algoritmos se van convirtiendo en fuente de certeza y modo de vida (Sadin, 2020, p. 58).
La conveniencia de la aparición de este sujeto algorítmico es lo que se tiene que revisar a la hora de plantear cualquier estrategia de regulación de estas tecnologías (Karasinski & Birolo 2022). Es la única manera de no rendirse frente al estupendo funcionamiento de la IA y de no olvidar, ni la responsabilidad humana, ni la reflexión filosófica detrás de ella. Reconociendo también que la filosofía, en cierto sentido, está en desventaja frente al avance acelerado de la técnica y solo puede evaluarla con mayor perspectiva a posteriori. En ese sentido, por un lado, la responsabilidad humana es el fulcrum de toda la discusión, sin esta conciencia fundamental, es normal que este proceso de digitalización sea una forma de autodestrucción consentida. Por otro, dado que normalmente la técnica va muy por delante de la filosofía, hay que reconocer que ahora vivimos de la asfixia de la propaganda, las imaginaciones, las películas, el marketing, lo cual parece que “nos incapacita para asimilar adecuadamente lo que nos estamos encontrando” (Pérez Marcos, 2023, p. 17).
En consecuencia, poniendo el foco sobre la responsabilidad humana y su relación con su propia obra, el objetivo de este trabajo es señalar algunos de los aspectos más importantes de la inteligencia humana de forma que se pueda discutir la realidad de la “inteligencia artificial”, su lugar en el mundo como objeto y producto tecnológico, y revertir el sentido con el que se usan los términos. Esto último es lo que se ha denominado “revertir las analogías”. Especialmente porque estas tecnologías ganan cada vez más espacio en la vida humana y por momentos parece que se posicionan como el modo propio en el que se entienden realidades esenciales y que, como consecuencia, dan pie a otro tipo de reducciones que atentan contra la dignidad, la educación y la ciencia.
Para lograr este objetivo, se ha revisado las fuentes documentales para poner en evidencia algunos de los aspectos más importantes de la inteligencia humana y plantear lo que, a nuestro modo de ver, son los rasgos esenciales que circunscriben el fenómeno de la IA. Con ello, se pretende mostrar la necesidad de discutir, revisar y revertir las analogías o metáforas que usa la tecnología para describir su actividad y que, poco a poco, ganan terreno culturalmente como los sentidos propios con los que entendemos las cosas.
Así, se ha estructurado el documento en tres partes. En primer lugar, se hace una síntesis conceptual de los aspectos esenciales de la inteligencia humana. En segundo lugar, se da una definición de la metáfora de la IA en la que se busca distinguir el sentido con el que se usan las palabras inteligencia y artificial en referencia al ser humano y a las máquinas. En esa reflexión, resulta esencial analizar los rasgos propios de la IA para encontrar, tanto sus semejanzas como particularidades, considerando que se trata de una obra hecha a imagen de ciertos procesos cognitivos del ser humano y que tienen una tendencia marcadamente antropomórfica. Finalmente, se busca responder a la pregunta de si frente a todas las distinciones que provoca el análisis, es necesario proponer un aparato lingüístico con nuevas categorías más precisas que den contornos definidos al marketing y las ficciones literarias de estas nuevas tecnologías. La idea es dar a entender que, frente a la emergencia e importancia de estas tecnologías en la vida humana, es necesario al menos debatirlo.
La inteligencia no puede ser artificial
Es difícil en poco espacio ser exhaustivo con un tema tan amplio como la inteligencia. Un asunto que, además, podría llevar la reflexión por distintas vías de la filosofía, la ciencia experimental e incluso de la teología. También sería pretensioso decir que se pueden abarcar todos los aspectos de la inteligencia, incluso aquellos que son más importantes. Se nos conceda que, por lo menos, hagamos el esbozo de una síntesis conceptual de lo que se considera apropiado de una reflexión no reduccionista en torno al tema y que, por supuesto, no pretende agotar la reflexión. Con estas anuencias se procura mostrar la magnitud de una reflexión que seguirá abierta mientras la misma inteligencia exista y contrastar aquello que hoy vulgarmente denominamos “inteligencia artificial” y que, en parte, es lo que se platea como objetivo de este trabajo.
En primera instancia comenzamos con dos pilares del pensamiento occidental: Platón y Aristóteles. Platón (1872) ha dejado escrito para la posteridad la reflexión en torno a la trascendencia de las ideas, el reconocimiento de la racionalidad del mundo y la importancia del conocimiento de sí. Por su parte, Aristóteles (1994) ha dejado pistas sobre lo que significa la apertura intencional de la inteligencia a todo lo que existe, incluyendo la divinidad con quien, según él mismo, parece emparentarse por esa misma vía.
Platón ha dejado como herencia la filosofía de las ideas. El filósofo ateniense comprendió que, de alguna manera, los seres humanos son capaces de comunicarse con sentido y que esa comunicación supone un terreno común que no depende de la perspectiva del hablante, sino de la consistencia misma de la realidad (Ricoeur, 2013, pp. 24, 152). En ese sentido, las ideas trascienden inicialmente el mundo de lo empírico (Franck, 2018, p. 104) y sugieren la existencia de un tipo de realidad que tiene una estabilidad propia, que invita a la contemplación, que ilumina la realidad de la experiencia como una forma de concreción y para la que los únicos capacitados son, precisamente, los seres inteligentes (Platón, 1988, p. 342). En esta stabilitas de la teoría, radica el que las ideas de la filosofía se mantengan activas en la vida humana casi de forma continua (Gilbert, 2008, p. 64), como si fueran una herencia que pasa de generación en generación. En las ciencias empíricas modernas, esto ocurre según el devenir mismo de lo que se considera un “avance” dado que enfocadas en lo que se supone un progreso, mudan continuamente los conocimientos y las certezas que alcanzan, reemplazándose continuamente. La tecnología en este caso es bastante paradigmática.
En segundo lugar, Platón (1872) hizo tomar conciencia a la humanidad de la racionalidad del mundo, como describe en el Timeo, “el mundo tiene orden y estructura” (p. 164). Sin embargo, el ateniense da un paso más allá cuando interpreta que el ordo del mundo es fruto de una inteligencia capaz de poner cada cosa en su lugar. En ese sentido, plantea que la inteligencia humana es capaz de captar ese orden y reconocer lo inteligente por vía de la racionalidad. Inversamente, “la racionalidad es manifestación de una inteligencia capaz de establecerla” (Soler & López, 2005, p. 30), una legalidad que se puede describir (y que sería el principio de toda prescripción) por vía de las diferentes modalidades del lenguaje con el que intentamos expresarlo. En este caso, no solo al lenguaje categorial, sino también, por ejemplo, aquel matemático, físico o bioquímico. Por eso, el principio de toda la ciencia básica y experimental es el reconocimiento de que el mundo tiene una racionalidad que es posible conocer y comunicar (Soler & López, 2005).
Por último, Platón (2018), como fruto de su profundo vínculo con Sócrates, dejó para la posterioridad la reflexión sobre el conocimiento de sí. Para el ser humano el conocimiento del mundo es, a la par, conocimiento de sí.
Aristóteles (1994, p. 69) retoma esta enseñanza muy a su modo, pero lo que aporta a la comprensión de la inteligencia es superlativo. En primera instancia, que el conocimiento está marcado por el deseo, por una especie de hambre de saber inagotable y fuente de infinita novedad que habita en la naturaleza humana. Pero agrega que, en las formas de conocimiento, aquel humano presenta una particularidad y es que su nous poietikós es capaz de “hacerse todas las cosas” (1978, p. 234). De esta forma, Aristóteles comprendió que para que la inteligencia tuviese semejante poder tenía que ser capaz de abstracción, de traer hacia sí la intimidad de los seres y conocerlos en su radicalidad más profunda. Esto, como bien declara, es solo posible de una inteligencia “impasible, no material y, por tanto, inmortal” (p. 234). De aquí sus dudas sobre el carácter humano de la inteligencia.
Ahora bien, fueron los pensadores cristianos quienes llevaron este asunto hasta un punto más profundo al conectarlo con la posibilidad del ser humano de conocerse a sí mismo (Agustín, 2019), al explorar la trascendencia personal de ese conocimiento (Landsberg, 2016, p. 322) y acentuar la búsqueda de la verdad como manifestación de ese encuentro originario.
Estos pensadores2 reconocieron que el ser humano, si bien es ínfimo en relación con la infinitud del universo, alberga en sí el potencial de conocerlo y tener conciencia de ello. Como describe magistralmente Pascal (1986):
El hombre no es más que una caña, lo más débil que existe en la naturaleza; pero es una caña que piensa. No es preciso que el universo entero se alce contra él para aplastarle: un vapor, una gota de agua basta para matarle. Pero, aunque el universo le aplastase, el hombre seguiría siendo más noble que lo que le da la muerte, puesto que sabe que muere y conoce la superioridad que el universo tiene sobre él, mientras que el universo no sabe nada (pp. 63-64).
Seguramente conocer el basto universo no parece posible de forma efectiva. Pero que el ser humano esté abierto a conocerlo intencionalmente revela la profundidad de su interioridad, igual de infinita que el cosmos; incluso más expandida si se considera su tarea y la conciencia de dicha tarea. De ahí que muchos de estos pensadores lograran comprender que tanto el conocimiento del mundo como el conocimiento de sí, con su complejidad mixta, es una tarea ilimitada que habla de la naturaleza misma del ser humano (Descartes, 1991).
Estos mismos pensadores llevaron el asunto de la inteligencia a una segunda trascendencia que Platón no tenía como imaginar del todo. Es decir, que esa inteligencia es personal (Di Nissa, 2000, p. 119). Esto quiere decir que la nobleza de la inteligencia proviene de la dignidad misma de quién la posee (Spaemann, 2010) y que, dado que se trata de alguien y no de algo, el conocimiento solo puede ser personal e interpersonal y, por tanto, vivido y actuado (Stein, 2020, p. 163). Esto resulta muy importante a la hora de considerar la inteligencia y se suele descuidar. La inteligencia no es propia de seres separados, no se puede ser humanamente inteligente sin un cuerpo (Landsberg, 2006, p. 14) y, ontológicamente, sin una persona que tenga conciencia de aquello que conoce (Serretti, 2008, p. 82), de sus emociones (Rodríguez Valls, 2015) y de los contenidos de conciencia que recibe-de y entrega-a aquellos con los que integra el mundo de la vida (Ricoeur, 2006, p. 379).
De esta forma, se podría decir que una inteligencia sin personas, sin ideas, sin cuerpo, sin relaciones, sin emociones y sin acciones no es una verdadera inteligencia. Además, solo la persona es capaz de discriminar los conocimientos. La conciencia que tiene de sí le permite diferenciar la verdad de la mentira, la parcialidad del error deliberado y la ideología de los principios primeros de la realidad. Tal como los doctores medievales han reflexionado hasta el cansancio, la verdad conviene a la inteligencia (Tomás de Aquino, 2007, p. 38). Por eso suele tener valor por sí misma y en sí misma. Se busca porque perfecciona al ser humano y permite encontrar el sentido de lo que existe. Esto no impide la búsqueda de la utilidad, pero en un sentido, le sirve como orientación.
Atendiendo lo mencionado, la inteligencia que llamamos “artificial” no es una inteligencia y quizá se pueda ver solo como un potencial complemento (Khasawneh et al., 2024, p. 309). La inteligencia no puede ser artificial porque ella solo puede ser personal. Esta idea se podía ya sospechar de la argumentación y, aunque también es un dato de experiencia, es frecuente ponerla en duda frente a la velocidad y enorme capacidad que tienen las máquinas para estructurar los datos que tienen a disposición. Por esta razón, cada vez es más difícil percibir la diferencia e incluso no está dicho que todos lo vean así.
De hecho, la discusión parece surgir por vía de las neurociencias —que juegan aquí un rol que no tenemos cómo desarrollar a cabalidad3— a través de una visión mecanicista del conocimiento humano (McCulloch & Pitts, 1990) y, más precisamente, del cerebro humano que para muchos “es el que piensa” (Changeux, 2005).4 Con esta perspectiva antropológica de fondo, se asume que la IA es una versión ampliamente mejorada de la mencionada capacidad central del ser humano (Kurzweil, 2005). Aquí está tanto “el fundamento de la doctrina conexionista en las ciencias de la información” (Sadin, 2020, pp. 64-65) como la inversión de la analogía antropológica y las potenciales reducciones del ser humano y de su dignidad a objeto.
La IA vive del razonamiento y del cálculo probabilístico. Una actividad cognitiva muy importante que une conciencia y mundo, pero que se limita al trato de la información por vía de la formalización matemática. No hay en la máquina, ni persona (realidad que no puede reproducirse algorítmicamente), ni autoconciencia, ni cuerpo (aunque tenga un soporte), ni aprensión multisensorial, ni relacionalidad, ni conciencia del otro, ni deliberación, ni planificación de cursos de acciones por las que hacerse responsable, ni fines y, por tanto, ni proyección y mucho menos ignorancia o errores propiamente dichos. La IA reproduce un aspecto muy concreto de la inteligencia humana que, en cierta medida, se ha exacerbado en los últimos tiempos haciéndole tomar a la automatización del cálculo probabilístico una magnitud que en realidad no tiene.
La pregunta, entonces, es por qué se denominan “inteligentes” los dispositivos tecnológicos actuales. La respuesta habría que encontrarla en su misma actividad. Al parecer, porque bebiendo del ingenio humano, aparecen naturalmente smarts (astutas y eficientes) para cierto tipo de diligencias humanas. Igualmente, porque tienen un tipo de autonomía mayor que las producciones artísticas y mecánicas, cosa que tímidamente se empieza a llamar tecnológico como un límite absoluto de la categoría de lo técnico. Esto dado que una vez que se “enciende” o se “echa a andar” no necesita y no permite la intervención humana en sus “deliberaciones”. Esta “autonomía” llega hasta el punto de que el humano empieza a tener miedo de ser sorprendido, en tanto hay un espacio de respuesta que se parece mucho a lo que reconoce en sí mismo como principio de la interioridad (la famosa black box) y de la impredecibilidad de su libertad. Analizar el tipo de obra que es la IA quizá pueda dar mayores luces en la tarea que se ha planteado.
Producción: entre los procesos físicos y la vida consciente
Sin que sea necesario analizar directamente sus orígenes, como da a entender Wiener (1988) en las declaraciones que impulsan el movimiento cibernético norteamericano, la IA se mueve por una tendencia antropomórfica. La cuestión es comprensible, por un lado, por la imagen que tiene como referencia; por otro, por sus mismas aspiraciones (Blanco & Garrido, 2024, p. 174). Es decir, de alguna manera se echa a andar una dinámica que pretende que esta obra llegue a ser como su productor e, incluso, vaya más allá de él.
En este caso, para no desviarse de la cuestión, la distinción que propuso el filósofo estadounidense John Searle (1980) puede resultar bastante útil. La IA puede dividirse en dos modos: fuerte y débil. El objetivo de la IA fuerte se ha ido perdiendo y la mayoría de filósofos y técnicos reconocen que a lo que se aspira está fuera del alcance de este tipo de mecanismo. No parece posible reproducir la persona y su autoconciencia ni en el laboratorio ni en un taller donde se mezcle toda la fuerza computacional posible y la más cuántica nanotecnología (Arana, 2015).
Por su parte, la IA débil, aquella que se centra en potenciar los aspectos matemáticos, de programación y de entrenamiento de los algoritmos, sin pretender sustituir lo propiamente humano, es la que ha tenido mayor éxito (Sadin, 2017, p. 21). La tranquilidad que esto puede ofrecer a algunos es solo aparente, aunque no es de esperar seres automatizados conscientes que le hagan una guerra a la humanidad, no se puede perder de vista que sus capacidades son sumamente potentes e impactan directamente la vida del ser humano (González Cuenca, 2021, p. 152). Como piensa Guardini (1982), en los asuntos tecnológicos, el riesgo es siempre que “el productor renuncie a la vida individual de la obra y se acostumbre a no querer producir más que lo que la máquina permite” (p. 53). Desaparece con ello su relación personal con la realidad, poniendo con ello su confianza y su vida en manos de su producto.
Por estas razones, hay que adelantar que cuando se dice que este mecanismo es artificial, la afirmación es correcta solo en parte. Concretamente, sí se interpreta como algo que no es vivo, no es personal y que no se produce por generación, sino como fruto del poder transformador del ser humano en el mundo. No obstante, lo artificial es, en este caso, un límite que los algoritmos cruzan en virtud de su relación con la inteligencia humana. Por esto hay en ella un aspecto propio de la racionalidad humana que no es reducible a otros productos útiles (como el martillo, o una vasija) o mecánicos (como aquellos sistemas de poleas o engranes que se encuentran en una fábrica).
En esa medida, habrá que especificar también que la IA débil es un mecanismo que supone una sofisticación de la acción humana. Ella pone en conjunto todo el poder de cálculo de las matemáticas, cuya formalidad supone un grado de abstracción de la experiencia del mundo, el desarrollo de lenguajes de programación con grandes capacidades de abarcar diversas variables de la realidad y dar respuesta a ellas de forma múltiple y, por supuesto, la combinación con un soporte electromecánico que permite su funcionamiento.
Estos aspectos permiten ver algo de la complejidad de la IA, pero al mismo tiempo algo de su especificidad. Como comenta Hannah Arendt (2005) analizando los tipos de actos, acciones y actividades del ser humano en el mundo, en la Antigüedad clásica apenas se distinguió entre el arte y la producción técnica. Ambos, de hecho, se referían como fruto del mismo tipo de labor humana: la poiēsis. Un zapatero y un herrero estaban a la altura de un artista en cuanto ambos eran productores de un aspecto de la realidad que era una copia de un modelo original o un simple aspecto cultural o utilitario que constituía la vida pública (Arendt, 2005, p. 170).
Sin embargo, dando un gran salto,5 con la filosofía y la física que hoy se dice moderna, aparece una brecha entre ellas. Dentro de las obras productivas humanas, una cosa es el resultado que surge del arte y otro aquel de la fabricación de artefactos. Estos últimos suponen el intento de otorgar una autonomía a la obra a partir de un funcionamiento mecánico o una “lógica” o “física” interna entre las partes que lo constituyen. “Mecánico” se entiende ya no como una extensión de las capacidades humanas, sino como aquello que se cristaliza a través de un proceso calculado y eficiente que involucra el ingenio humano. Sin embargo, lo mecánico tiene una particularidad y es que sus procesos latentes, son patentes. En otras palabras, pueden ser interrumpidos por la acción humana y en cierta medida, redireccionados no solo en su finalidad, sino intervenidos en su principio y ejecución, aunque mantengan una autonomía frente al cuerpo del ser humano y, solo en parte, de su inteligencia.
Decir que los procesos mecánicos son patentes implica, en cierta medida, aceptar que el humano puede intervenir en su arquitectura, en su programación paso a paso y en la finalidad de su ejercicio. En ese sentido, si esas variables funcionan adecuadamente, el proceso mecánico es normalmente predecible. Así, se puede conocer con anticipación las acciones de una máquina embotelladora, de una máquina de coser, una olla arrocera o un automóvil.6 Las máquinas son predecibles porque siguen leyes e indicaciones precisas que el ser humano pone en ellas y que le permiten ver sus resultados sin mucha dificultad, salvo errores que normalmente son, por lo mismo, mecánicos o de programación.
Al llegar a este punto hay que decir que lo técnico (que se puede seguir identificando tout court como lo mecánico) alcanza en lo tecnológico un grado mayor de este aspecto productivo, pero incluso, por vía de su relación con los aspectos cognitivos humanos, alcanza una especificidad propia. Esta especificidad se puede describir al menos a partir de tres aspectos: su mayor grado de autonomía, su capacidad computacional y su revestimiento humano.
La IA supone una mayor “distancia” entre la máquina y su dependencia de la intervención humana. Esto es a lo que se refiere su mayor autonomía e implica una diferencia con lo mecánico. Si lo mecánico ya suponía un “dejar andar según las leyes establecidas” y un “retirarse” del cuerpo humano, en la IA la intervención humana casi desaparece en el proceso de realización de las tareas e implica un “retirarse” de la inteligencia humana. En este caso, se puede actuar en la arquitectura y se espera un resultado sobre el cual se pueda evaluar el mecanismo. Pero las “partes”, los “pasos”, las “secuencias”, son algo velado al usuario (Arão, 2024, p. 3). En ese sentido, se espera una respuesta que parece imprevista y, además, la máquina recibe una retroalimentación de su ejecución lo cual le permite afinar sus predicciones. Por vía de cálculo probabilístico puede integrar la interacción en su capacidad de respuesta. Esto ha significado que se extienda también la metáfora del aprendizaje para referirnos al hecho de que las IA se vayan adaptando a los distintos contextos de interacción y que vayan mejorando la calidad de sus respuestas.
La IA, aun cuando tiene elementos mecánicos, realiza una serie de procesos “internos” en los que el ser humano ya no puede intervenir y que convierten sus resultados en algo, en apariencia, no del todo predecible (algo que va incluso más allá del diseño o la arquitectura de las máquinas y los algoritmos probabilísticos que las gobiernan). En esto tiene que ver también su fuerza computacional. Los seres humanos dedicados a la tecnología se han esforzado por digitalizar la realidad, reduciéndola a datos almacenables.
Por ello el segundo aspecto que caracteriza a la IA es su capacidad de cómputo. Los científicos de datos afinan de una forma estricta y eficiente sus algoritmos con la intención de producir síntesis de altísima calidad de esa cantidad ingente de información digitalizada en tiempos cada vez más breves y con mayor acierto en cuanto a las posibilidades a disposición. Así, si ya la respuesta automática de una IA puede causar sorpresa, la calidad del resultado puede deslumbrar o causar un profundo desconcierto cuando aborda preguntas propiamente humanas. Se trata de sensaciones que quizá ya muchos hayan experimentado al tratar de cerca con las posibilidades de estos sistemas.
El tercer aspecto específico de esta tecnología está en el vehículo que usan para mostrar sus resultados. La IA se ha programado por vía de la matematización de la lógica para que pueda responder humanamente con acciones como el lenguaje y el arte (música, pintura, literatura). En el fondo, se ha logrado disfrazar los procesos tecnológicos en su complejidad con algunos aspectos esenciales de la humanidad. De ahí que aparezca como “algo” con lo que se puede establecer una ida y vuelta, una entrada (input) y salida (output) de información que emula muy bien el proceso comunicativo humano (hecho que engañaría a Turing y a varios incautos más). De esta forma, la IA entra en la vida del ser humano como algo capaz de intervenir en su propia narrativa sociocultural y que tiene la razonabilidad misma del mundo, en cuanto puede ser digitalizable, como horizonte abierto de su actividad.
Para algunos, estas distinciones podrían quedarse cortas, pero para otros es la posibilidad de convertir la racionalidad del mundo en una racionalidad computacional. “Todo son datos”. Así, resulta posible volar miles de aviones al mismo tiempo y reducir accidentes, permitir que enfermos traten sus sufrimientos con éxito, identificar personas en actos delictivos, hacer eficientes estrategias de marketing y comercio, encontrar monumentos perdidos y convertir bases de datos de juicios legales, médicos, psicológicos o políticos en opiniones “objetivas” y “estructuradas” por vía algorítmica. La magnitud de estas actividades hace que no sea raro que se asocie esta herramienta a “la búsqueda y consecución del poder” (Niño et al., 2024, p. 251).
Parece claro que los términos en un sentido empiezan a quedarse cortos y, por eso, algunos conceptos como inteligencia, aprendizaje, ética, artificial, síntesis, lenguaje, ontología, libertad… empiezan a ser confusos y a empobrecer la realidad. Esto plantea una pregunta esencial: frente a la especificidad de este tipo de obra tecnológica ¿es necesario acuñar una nueva terminología que permita distinguir las cosas para que unas no pasen por otras?
Un nuevo léxico para la tecnología
Resulta relevante preguntarse si frente a la novedad de la IA es necesario plantear nuevas categorías. Inicialmente, hay que decir que la pregunta es importante al menos por dos razones. En primer lugar, porque este problema ha surgido también frente a la conciencia ambiental y el cuidado de los animales: la idea de que el animal tiene una especificidad de cara a lo humano y que de su comprensión puede surgir un modo responsable de aproximarse al mundo natural y establecer ciertos límites a la acción incontrolada humana. Este asunto también tiene un correlato antropológico fundamental, dado que depredar el mundo natural es para el ser humano depredarse a sí mismo. En el caso de la IA no se trataría de crear una ética de las IA como pretenden algunos transhumanistas como Bostrom (2011), sino de una ética para las IA como plantea Benanti (2022). En segundo lugar, que esta nueva terminología permitiría distinguir lo propiamente humano de lo tecnológico (Ocampo Ponce, 2024). Sadin (2020) es enérgico en denunciar que los movimientos tecnológicos han tomado prestado un léxico filosófico completo “del registro de las ciencias cognitivas sin vergüenza alguna ni preocupación por la precisión terminológica” (p. 19). Un claro ejemplo es el uso de palabras como “inteligencia artificial”, “aprendizaje de las máquinas” (machine learning), “aprendizaje profundo” (Deep learning) u “ontologías web”. En estos casos, se habla de inteligencia, aprendizaje y ontología, y se denomina con ello a mecanismos que no se parecen a lo que referencian. Si en algún caso hay alguna similitud, es claro filosóficamente que es mayor su desemejanza.
A pesar de esto, habría que reconocer que, si bien estas discriminaciones podrían ayudar a defender la dignidad humana y ciertos abusos del marketing de las compañías tecnológicas y de la propaganda política, se está dejando de lado el simple hecho que es el ser humano quien ordena epistemológicamente el mundo y que, sin duda, existe una parentela ontológica, tanto con aquel natural como con la obra producida. Así, la propuesta es igual de simple y de sentido común, recuperar la reflexión en torno al ser humano como princeps analogatum. Se trata de volver la mirada sobre el hecho que la IA no es la evolución de la inteligencia humana, sino simplemente su aspecto más ligado al cálculo, al parámetro y al discurrir de la razón.
De esta forma, se proponen dos caminos bastante convenientes para el ser humano y para la filosofía que se ocupa de estos asuntos. Uno, no dejar de reflexionar en torno a los aspectos fundamentales de la existencia humana y, especialmente, alrededor de la pregunta ¿quién es el ser humano? Dos, reconocer que frente a la naturaleza y frente a la obra, es en el ser humano en quien hay que profundizar para comprender mejor la realidad que lo circunda y la responsabilidad que tiene por aquello que realiza en el mundo. La razón lógica de este ejercicio de responsabilidad es que, hasta donde se tiene registro, el ser humano es el único capaz de pensarse y pensar el cosmos. Si se encuentran estas analogías en los animales y en las máquinas es porque, en el primer caso, es el ser humano quien reconoce en ellos una relación de semejanza e intenta poner nombre a su comportamiento y, en el segundo, porque es quien diseña las máquinas como una forma de ayuda a la perfección de su acción y actividad en el mundo. Cuando se propone revertir la analogía, es exactamente esto a lo que se refiere.
Parece cada vez más claro que la cuestión de la responsabilidad humana propone un enorme desafío. Se puede pensar en la dificultad para arbitrar la cuestión en torno a quién debería ser el responsable de los resultados que ofrecen las IA. Esto es porque no se experimenta la relación con la IA como un evento continuo que surge del ejercicio de la libertad. En realidad, el ingeniero y los usuarios directos e indirectos, así como el mismo algoritmo, son “imputables” solo en parte (extendiendo nuevamente el lenguaje en este último caso). La responsabilidad, que es una prerrogativa personal, aparece fragmentada frente a la IA. Por un lado, porque el usuario no tiene cómo intervenir en los sesgos de una IA y porque el algoritmo sintetiza información que tiene una diversidad de autores —de ahí que el crédito de la obra no pueda ser atribuible solo a quien redacta un comando de elaboración (prompt)7—. Por otro, porque la ausencia de consecuencias aparentes en la realidad, más allá de la virtualidad, erosionan el influjo moderador de la ética en los usuarios. Asaltar un banco con un par de comandos, por ejemplo, puede parecer un juego y las consecuencias en personas e instituciones afectadas apenas visibles.
Por esta razón resulta importante plantearse la forma de pensar una responsabilidad compartida sin diluir aquella personal. Seguramente, como reflexionan algunos, esto debería dar un impulso al hecho que es cada vez más necesario que las instituciones tengan rostros humanos y que las decisiones sean trazables en ellas y en los algoritmos. Pero esto es un asunto que se debe discutir mucho más públicamente.
Así, regresando sobre la cuestión ontológica y lingüística, al parecer, hoy resulta de capital importancia volver la mirada sobre la antropología y tratar que en los distintos ámbitos en los que el hombre despliega sus acciones (como el interpersonal, educativo, laboral, económico o político) se pueda siempre reconocer su dignidad y la tarea de responsabilidad que implica su inteligencia. No parece una buena opción que el ser humano se disuelva en su obra por inseguridad frente a sus propias vulnerabilidades o por ansias de un poder sumamente engañoso. Esto no excluye que resulte conveniente, en algunos sectores de la realidad, acuñar ciertos términos que puedan ser aceptados por la comunidad científica y académica para que se hable con mayor propiedad de este fenómeno que aún se debe comprender mejor en sus posibilidades y riesgos. Se pueden proponer algunos conceptos como “productores informáticos”, “compilación de datos” o “posicionamientos en la web”, los cuales se parecen más a la realidad cibernética y sustraen menos realidad a nociones como “inteligencia”, “aprendizaje” u “ontología”, respectivamente. Hay que insistir que esto es un asunto que se debe discutir pública y abiertamente en distintos foros con la intención que la población tome consciencia de las diferencias y auténticas semejanzas. Un claro ejemplo es lo que ha ocurrido en la Comisión Europea, donde se ha intentado plantear una perspectiva humanocéntrica para abordar el problema de una IA confiable (Terrones Rodríguez & Roche Berardi, 2024, p. 222). Sin embargo, en el caso del presente trabajo solo se intenta señalar algunos ejemplos para mostrar el asunto y, en lo que pueda ser de ayuda, eliminar un poco el terror que pueda causar la ignorancia sobre ellos.
Como planteaba Romano Guardini (1982, p. 121), frente a la tecnología no hay que capitular. Al contrario, siendo una obra que surge del consorcio de las potencias humanas más nobles, supone un mayor esfuerzo y disciplina para que el ser humano crezca a través de ellas en vez de diluirse. El ejercicio de responsabilidad de aquellos sujetos humanos más formados es fundamental, pues es un atentado contra la dignidad humana que las inteligencias humanas sean la materia prima de aquellas artificiales, como el hierro o la madera lo fueron de las grandes fábricas. Por ello, quizá sea sano limitar el ejercicio de algo para lo que no se está maduro y que parece requerir conciencias maduras (Perezchica et al., 2024).
Esta resulta la manera de revertir la analogía, es decir, a partir de la conciencia recta de sí que no tiene miedo de las propias vulnerabilidades y reconoce con responsabilidad las propias capacidades. Anclar la reflexión en una sana antropología impide que el ser humano se conforme o identifique erróneamente con su obra y pueda ver en ella el real reflejo de una perfección que lo hace sentir contemporáneamente vulnerable y más capaz. Esa posición media o virtuosa es difícil de conseguir, la mayoría de las veces incluso es impopular y en su deformación, como describe el filósofo y psiquiatra Thomas Fuchs (2023, p. 543), recuerda en todas sus líneas la tragedia de narciso. La historia de un hombre enamorado de su propia imagen que poco a poco se pierde a sí mismo y, encandilado por sus deseos, muere en los brazos de su figura espectral: la IA.
Conclusiones
Se ha tratado de mostrar la complejidad de la realidad y la reflexión de la inteligencia humana, un asunto que se mantiene abierto y que no parece posible que pueda ser reductible al cálculo algorítmico o a datos almacenados, como se pretende a través de la IA. Como se ha mencionado, la inteligencia humana supone una enorme complejidad que no puede ser reproducida o emulada simplemente a través del cálculo probabilístico. Pero, además, las nuevas tecnologías computacionales son realidades que mezclan ciertos aspectos cognitivos con otros materiales que tienen su propia especificidad como obra humana. En ese sentido, no son meras extensiones que cumplen tareas o generan deleite, sino que se ubican entre lo humano y lo mecánico.
En este caso, es precisamente el aspecto humano de la IA lo que necesita ser evaluado continuamente. No es de esperar que ciertas distopías tecnológicas se realicen, como aquella que plantea que la conjunción entre la robótica y la racionalidad computacional pueda generar humanoides que se salgan de control e intenten acabar o aminorar la vida humana (salvo que así lo programemos). Es cierto que, desde sus inicios, la IA fue impulsada por el deseo de reproducir la conciencia humana a través de la fuerza de la tecnología. Este deseo, como reconocen varios pensadores contemporáneos, parece cada vez más claro que es irrealizable, aunque no está dicho que nuevas tecnologías puedan despertar en el futuro este vetusto impulso creador. Por eso, de lo que se trata es más bien de evaluar la orientación marcadamente antropomórfica de estas tecnologías y el enorme impacto que empiezan a tener en los distintos ámbitos de la vida humana. Como decía Sadin (2020), se plantea un cambio de época a través de la digitalización de la vida. Los seres humanos empiezan a buscar la verdad, la amistad, la diversión, el amor y las certezas por vía de los algoritmos. Por ello, la nueva realidad espectral de la tecnología puede poner en riesgo aspectos humanos esenciales ligados a las relaciones interpersonales, el auténtico aprendizaje, la configuración de la ciencia y, en general, de los distintos estratos de la sociedad que toman parte en este asunto (Estados, instituciones, universidades, entidades económicas y usuarios en general).
Esta responsabilidad está, en primer lugar, en devolver la conciencia al ser humano que la IA es una obra que ha salido de sus manos y que se nutre de su ingenio y capacidad. El ser humano debe hacerse cargo de ella con conciencia madura. No debe creer, ni que está jugando a ser dios, ni que lo que ha producido es una humillación para su vida. Por eso no es banal volver la mirada sobre el lenguaje como un modo de abordar este asunto en su configuración común y de reconocer que es necesario hablar con claridad para evitar confusiones y reducciones que terminan por atentar contra la dignidad humana. En consecuencia, revertir la analogía es una forma de regresar la mirada sobre la antropología, con intención de evitar algunos errores totalitarios del pasado que son, por supuesto, la crónica de una muerte anunciada.
Notas
1 Hemos encontrado una buena síntesis de esta discusión en Volpato Dutra y De Góes (2024, pp. 2-5).
2 Se pueden mencionar algunos como san Gregorio de Niza, san Agustín, santo Tomás de Aquino, Pascal, Descartes y algunos contemporáneos como Romano Guardini, Paul Landsberg, Edith Stein o Karol Wojtyla.
3 Recomendamos la excelente síntesis presentada en el trabajo de Murillo (2024).
4 A pesar de que las neurociencias se reconozcan inicialmente como experimentales, es frecuente que los neurocientíficos estructuren sus hallazgos en modo filosófico. En ese sentido, los aspectos teóricos son repetidos en algunos grandes autores de esta disciplina experimental. Proponemos los ejemplos paradigmáticos de Kandel (2019), Gazzaniga (2019), Aguado (2019) y Damasio (2022).
5 Sin intentar reducir el asunto a unas cuantas anotaciones filosóficas, me encuentro en la línea que presenta Guardini (1982) sobre este asunto, cuando dice que en el mundo cristiano “el elemento racional, instintivo y el contemplativo-creador se encuentra aproximadamente en equilibrio en la manera como el hombre entiende la naturaleza, se comporta frente a ella, la utiliza y configura. El hombre se apodera de lo dado, intensifica sus formas, aumenta sus efectos, pero esencialmente y en conjunto, no quebranta su estructura” (p. 50).
6 Algunos mecanicistas más fuertes, siguiendo a Descartes, piensan que los animales están incluidos en esta visión y otros materialistas contemporáneos, por vía del conductismo, incluyen también a los seres humanos.
7 El caso artístico se ha discutido mucho en el último tiempo en referencia a la IA, algunos consideran su actividad fundamentalmente un plagio (Marburger, 2024, p. 5).
Bibliografía
Aguado, Luis. 2019. Cuando la mente encontró a su cerebro. Madrid: Alianza.
Agustín De Hipona. 2019. Las confesiones. Madrid: Alianza.
Arana, Juan. 2015. La conciencia inexplicada: ensayo sobre los límites de la comprensión naturalista de la mente. Madrid: Biblioteca Nueva.
Arão, Cristian. 2024. Behind Artificial Intelligence: An Analysis of the Epistemological Bases of Machine Learning. Trans/Form/Acao, 47(3). https://doi.org/10.1590/0101-3173.2024.v47.n3.e02400163
Arendt, Hannah. 2005. La condición humana. Barcelona: Paidós.
Aristóteles. 1978. Acerca del alma. Madrid: Gredos.
Aristóteles. 1994. Metafísica. Madrid: Gredos.
Barrios, Hernando, Díaz, Vianney, & Guerra, Yolanda. 2020. Subjetividades e inteligencia artificial: desafíos para “lo humano”. Veritas, (47), 81-107. http://dx.doi.org/10.4067/S0718-92732020000300081
Benanti, Paolo. 2022. Human in the Loop. Decisioni Umane e Intelligenze Artificiali. Milán: Mondadori.
Blanco, Carlos, & Garrido, Eduardo. 2024. ¿Entienden los sistemas de inteligencia artificial? Claridades, 16(1), 171-205. https://doi.org/10.24310/crf.16.1.2024.16441
Bostrom, Nick. 2011. The Ethics of Artificial Intelligence. En W. Ramsey, & K. Frankish (eds.), Cambridge Handbook of Artificial Intelligence. Cambridge University Press.
Changeux, Jean-Pierre. 2005. El hombre de verdad. México DF: FCE.
Damasio, Antonio. 2022. Sentir y saber: el camino de la conciencia. Barcelona: Ariel.
Descartes, René. 1991. Tratado del hombre. Madrid: Alianza.
Di Nissa, Gregorio. 2000. L’uomo. Roma: Città Nuova.
Franck, Juan. 2018. ¿Somos o no somos nuestro cerebro? Ensayo filosófico. Buenos Aires: Logos.
Fuchs, Thomas. 2023. Encarnación y relación: para un humanismo contemporáneo. Investigaciones Fenomenológicas, (20), 539-54. https://doi.org/10.5944/rif.20.2023.38929
Gazzaniga, Michael. 2019. El instinto de la conciencia. Barcelona: Paidós.
Gilbert, Paul. 2008. Metafísica: la paciencia del ser. Madrid: Sígueme.
González Cuenca, David. 2021. Deux ex machina: la inteligencia artificial en el futuro del ser humano. Cuadernos Salmantinos de Filosofía, 48, 141-56. https://bit.ly/3Tr865Q
Gonzálvez-Pérez, Vincent & Cortijo-Ruiz, Gemma. 2023. Desarrollo humano y redes sociales en sociedades digitales, Sophia, Colección de Filosofía de la Educación, (34), 41-64. https://doi.org/10.17163/soph.n34.2023.01
Guardini, Romano. 1982. El poder. Madrid: Cristiandad.
Kandel, Eric. 2019. La nueva biología de la mente, ¿qué nos dicen los trastornos cerebrales sobre nosotros mismos? Barcelona: Paidós.
Khasawneh, Asma Jadallah, Mihus, Iryna, Svyrydiuk, Nataliia, & Zhyvko, Zinaida. 2024. Naturaleza y finalidad de la inteligencia artificial: retos políticos, jurídicos y económicos en el siglo XXI. Clio, Revista de Historia, Ciencias Humanas y Pensamiento Crítico, 4(8), 306-320. https://doi.org/10.5281/zenodo.12600350
Karasinski, Murilo, & Birolo, Kleber Bez. 2022. Inteligência Artificial e os Riscos Existenciais Reais: Uma Análise das Limitações Humanas de Controle. Filosofia Unisinos, 23(3), 1-12. https://doi.org/10.4013/fsu.2022.233.07
Kurzweil, Ray. 2005. The Singularity Is near: When Humans Trascend. Nueva York: Viking.
Landsberg, Paul. 2006. Problemas del personalismo. Madrid: Fundación Emmanuel Mounier.
Landsberg, Paul. 2016. Iglesia y paganismo. En VV. AA., El misterio de la persona: reflexiones antropológicas en la senda del Concilio Vaticano II (pp. 315-332). Arequipa: Universidad Católica San Pablo.
Marburger, Marcel René. 2024. Artistic Intelligence vs. Artificial Intelligence. Artnodes, (34), 1-7. https://doi.org/10.7238/artnodes.v0i34.425712
Mcculloch, Warren, & Pitts, Walter. 1990. A Logical Calculus of the Immanent in Nervous Activity. Bulletin of Mathematical Biology, 5, 115-133. https://doi.org/10.1007/BF02478259
Murillo, José Ignacio. 2024. Cognición humana: viviente corpóreo, inteligencia espiritual y condición personal. En J. D. Quiceno Osorio (coord.), Persona y conocimiento (pp. 15-32). Arequipa: Universidad Católica San Pablo.
Niño Morales, Elkin Eduardo, Cabeza Herrera, Oscar Javier, & Flórez Pabón, Campo Elías. 2024. Psicopolítica y big data como nuevas formas y herramientas para la organización política. Sophia, Colección de Filosofía de la Educación, (36), 247-273. https://doi.org/10.17163/soph.n36.2024.08
Ocampo Ponce, Manuel. 2024. Algunos fundamentos de la filosofía realista de Santo Tomás de Aquino para una valoración de la inteligencia artificial (IA). Perseitas, 12, 72-92. https://doi.org/10.21501/23461780.4724
Pascal, Blaise. 1986. Pensamientos. Barcelona: Planeta.
Pérez Marcos, Moisés. 2023. ¿Qué es la neuroteología? Sevilla: Senderos.
Perezchica, José Eduardo, Sepúlveda, Jesuán Adalberto, & Román, Alan David. 2024. Inteligencia artificial generativa en la educación superior: usos y opiniones de los profesores. European Public and Social Innovation Review, 9, 1-20. https://doi.org/10.31637/epsir-2024-593
Platón. 1872. Timeo. Madrid: Fundación Gustavo Bueno.
Platón. 1988. República. Madrid: Gredos.
Platón. 2018. Apología de Sócrates. Menón. Crátilo. Madrid: Alianza.
Quiceno, Juan David, & Morales, Isabel. 2024. Del cogito herido a la persona humana: rehaciendo los pasos de la antropología de Paul Ricoeur. Madrid: Dykinson.
Ricoeur, Paul. 2006. Sí mismo como otro. Madrid: Siglo XXI.
Ricoeur, Paul. 2013. Ser, esencia y sustancia en Platón y Aristóteles. México DF: Siglo XXI.
Rodríguez Valls, Francisco. 2015. El sujeto emocional. la función de las emociones en la vida humana. Sevilla: Thémata.
Sadin, Éric. 2017. La humanidad aumentada: la administración digital del mundo. Buenos Aires: Caja Negra.
Sadin, Éric. 2020. La inteligencia artificial o el desafío del siglo: anatomía de un antihumanismo radical. Buenos Aires: Caja Negra.
Searle, John. 1980. Minds, Brains, and Programs. Behavioral and Brain Sciences, 3(3), 417-24. https://doi.org/10.1017/S0140525X00005756
Serretti, Massimo. 2008. L’uomo è Persona. Vaticano: Lateran University Press.
Soler, Francisco & López, Martín. 2005. ¿Dios o la materia? Barcelona: Áltera.
Spaemann, Robert. 2010. Personas: acerca de la distinción entre “algo” y “alguien”. Pamplona: EUNSA.
Stein, Edith. 2020. La estructura de la persona humana. Madrid: BAC.
Terrones Rodríguez, Antonio Luis & Rocha Berardi, Mariana. 2024. El valor de la ética aplicada en los estudios de ingeniería en un horizonte de inteligencia artificial confiable. Sophia, Colección de Filosofía de la Educación, (36), 221-245. https://doi.org/10.17163/soph.n36.2024.07
Tomás De Aquino. 2007. Suma Contra Gentiles. Madrid: BAC.
Volpato Dutra, Delamar José, & De Góes Brennand, Edna Gusmão. 2024. Intelligence and Philosophy: Between New and Old Artificial Crossroads. Filosofia Unisinos, 25(1), 1-15. doi: 10.4013/fsu.2024.251.08.
Wiener, Norbert. 1988. Cibernética y sociedad. Buenos Aires: Sudamericana.
Información adicional
redalyc-journal-id: 4418
Enlace alternativo
https://revistas.ups.edu.ec/index.php/sophia/article/view/11107 (html)