Secciones
Referencias
Resumen
Servicios
Buscar
Fuente


Retos ético-políticos y sentido en la era de la inteligencia artificial: entre palimpsestos y ciudadanía digital
Enunciación, vol. 30, núm. 1, pp. 12-14, 2025
Universidad Distrital Francisco José de Caldas

Editorial



En La interpretación de las culturas (1987), Geertz indica que la cultura debe leerse como si fuera un texto, un entramado de significados superpuestos, donde los símbolos y las prácticas no se eliminan, sino que se reescriben constantemente unos sobre otros. Cada época, cada generación, cada colectivo, grupo o individuo registra nuevos sentidos sobre los ya existentes. Todo esto produce capas complejas de significados, interpretaciones y reinterpretaciones que, desde la perspectiva de la tecnología y la inteligencia artificial (IA), se amplifican, pues los algoritmos recuperan la historia, los símbolos, las huellas y la información heredada, para resignificarlos, reinterpretarlos o subvertirlos. Bajo este horizonte de palimpsesto, se comprende por qué el debate actual sobre la ética y la autoría en la era digital no es nuevo; lo que ocurre con esta irrupción es que dichas preocupaciones humanas se reactivan, se transforman y complejizan, y de las cuales se exigen miradas críticas y plurales sobre las nuevas capas de sentido que emergen en las relaciones con la tecnología y la IA.

Una pregunta relevante en estos tiempos de IA es si existen interpretaciones puras y si el conocimiento pertenece a alguien en particular. O, más bien, si toda práctica humana está marcada por esas huellas, residuos y reescrituras del pasado, y si las sociedades nunca habitan una capa de sentido definitiva, pues todas son, en algún grado, dialogantes, quizá la IA sea un ejercicio de desciframiento y escritura sobre escritura, con múltiples posibilidades y relaciones.

Si algo ha cambiado (y cambiará radicalmente) en las prácticas sociales y culturales es la producción de sentido, la comunicación y el aprendizaje, como consecuencia de la irrupción de las tecnologías y la IA. Habitamos un mundo que exige nuevas categorías para interpretarlo y transformarlo, pues la IA no es una simple herramienta funcional, sino que inaugura un nuevo modelo tecnológico-antropotécnico, y que pone a prueba los límites entre lo humano y lo técnico que la tradición ha marcado. En palabras de Sloterdijk (2013), vivimos tiempos en los que la tecnología amplía el poder y la autonomía de la técnica, pero también se convierte en una amenaza que puede quebrar los núcleos simbólicos, afectivos y éticos que sostienen la dimensión poética y humana de nuestro habitar.

Al situar en convergencia crítica el lenguaje y la IA, corremos el riesgo de restringir los diálogos y toda producción textual a lógicas de optimización algorítmica, con repeticiones numéricas y matemáticas que pueden conducir a una estandarización discursiva, anulando la emergencia de voces nuevas, la diversidad, la ambigüedad y el estilo como manifestaciones de creatividad y subjetividad. Surge, entonces, la pregunta de cómo celebrar la “muerte del autor” (Barthes, 2013) en contextos de automatización donde se genera obra sin sujeto ni experiencia.

En educación, comunicación y pedagogía, el debate se intensifica, pues se trata, en el fondo, del cuidado de sí para configurar estratégicamente formas de existencia y habitabilidad en las instituciones educativas. El aula debe ser un espacio de encuentro e intercambio del mundo vivo de quienes participan; un ámbito interactivo, dialógico y creativo que reafirme una apuesta ética y reflexiva, donde se teje con afecto, emoción, deseo, saber y conocimiento. Debe impulsar alfabetizaciones críticas que diferencien entre verdad y mentira, así como lo fiable de lo sospechoso; un aula como resistencia a la manipulación y al cultivo de la ‘cuidadanía’ digital, que oriente la técnica a fines éticos, culturales y humanos. Así, se reafirma como eje ético-político el agenciamiento humano y el pluralismo en la convivencia en este inquietante ecosistema tecnológico. El aula, maestra de la sospecha, debe alejarse de confiar ciegamente en la técnica y evitar la deshumanización o la reducción de potencias individuales y colectivas. La vida, la educación, el lenguaje, la comunicación y el arte no pueden reducirse a meras operaciones lógicas y repetitivas; lo ideal es que, con o sin tecnología e IA, permanezcan en constante movimiento, abiertos a la creación y los afectos.

Los retos ético-políticos exigen una regulación razonable de los usos de la IA. Si bien se reconocen los avances técnico-tecnológicos y sus beneficios en campos como la salud, la industria, el transporte y la educación, también es crucial reconocer los peligros, para gestionar adecuadamente el impacto de la tecnología y la IA. La época tecnológica permite actuar (agencia) sin necesariamente comprender (inteligencia), y su éxito reside, precisamente, en haber roto este vínculo tradicional (Floridi, 2023). Antes, actuar implicaba entender, planificar y deliberar; hoy existen sistemas artificiales que son agentes sin inteligencia humana, lo que obliga a repensar las estructuras del mundo actual, donde agencia e inteligencia pueden estar separadas. Según Floridi (2023), esta disociación genera nuevos desafíos éticos: ¿podemos responsabilizar a las máquinas por sus acciones? ¿Cómo gobernar sistemas que actúan sin comprender? Se requiere, entonces, un sistema de gobernanza para la tecnología (incluida la IA) que encuentre el justo medio entre el impulso tecnológico y los límites políticos y éticos, ya que surgen formas de agencia no inteligente que pueden ser empleadas tanto ética como inadecuadamente. Las tecnologías y la IA deben concebirse como oportunidades para la inclusión social, la democracia, la privacidad y el desarrollo sostenible, siempre bajo criterios ético-políticos que protejan la vida. No basta ajustar las formas jurídicas; se requiere una ética adaptativa y prospectiva (Floridi, 2023) que oriente la innovación y anticipe los riesgos, amplificando el desarrollo de la IA desde enfoques estratégicos e interdisciplinares, para construir una “buena sociedad” (Cath et al., 2018).

La IA ha acentuado tendencias discriminatorias hacia personas y grupos vulnerables; así, ha interpelado el reto ético-político y los derechos en tiempos de supuesta igualdad. La opacidad algorítmica exige que la investigación priorice la transparencia y evite el daño social. Toda herramienta tecnológica debe sustentarse en nitidez, equidad e igualdad para ser aceptada y legitimada socialmente; lo contrario genera sesgos y erosiona la libertad y lo público. Por ello, el proyecto educativo-cultural de nuestro tiempo es fundamental para mitigar impactos, comprender y actuar en estas transiciones digitales, y mantener viva la idea de que habitamos en la era de la igualdad. También es necesario evitar que la fascinación por la IA conduzca a la cosificación de lo humano, a lo manipulable y desprovisto de experiencia y sentido vital. En definitiva, el futuro humano debe estar determinado por los propios humanos, ya que la libertad es siempre una ‘lucha viviente’ que no puede estar encerrada en algoritmos; quizá sea el tiempo también de la filosofía, para debatir los límites y avances de la IA y evitar reduccionismos que conduzcan a políticas del miedo y mundos apocalípticos-distópicos sin fundamento.

La estrategia de los modelos de IA está anclada, fundamentalmente, en la obtención masiva de datos (big data). Para gestionarlos, son imprescindibles regulaciones estrictas que garanticen la protección de la privacidad y la seguridad, y que eviten el mal uso de la información.

Se percibe un sentimiento generalizado de transformación del mundo laboral como consecuencia de la robotización y automatización impulsadas por la IA. Surgen nuevas prácticas laborales que sitúan en el centro la discusión política sobre el desempleo tecnológico y la desigualdad; por ello, es urgente activar voluntades políticas y colaboraciones interdisciplinares para fomentar prácticas transparentes; establecer protocolos de verificación y supervisión en los sistemas; e involucrar a gobiernos, industria, academia y, sobre todo, sociedad civil.

Habitar un mundo globalizado dificulta cada vez más la elaboración de rutas regulatorias para la tecnología y la IA. Geopolíticamente, aumentan las luchas por el dominio tecnológico, en ausencia de normas globales que ponen en peligro la gobernanza. Así, la IA se convierte en la imagen de un mundo en cuya infraestructura converge lo social y lo técnico, lo que implica que su evolución y comprensión requieren tanto ingeniería como estudios sociales, abriendo paso a invenciones metodológicas y epistemológicas para una analítica crítica de nuestro presente. Es esencial comprender quién controla la tecnología y con qué fines, para avanzar en proyectos regulativos que protejan derechos fundamentales sin frenar la innovación ni el ritmo de transformación global.

Situar el debate sobre la tecnología y la IA exige una crítica multidimensional (ontológica, epistémica, ética, estética y económica), pues la humanidad puede entenderse como una “antropotécnica”, una especie que se transforma y se autodiseña mediante la técnica (Sloterdijk, 2013), donde la IA desempeña hoy un rol desafiante. Es imprescindible evitar la soberbia tecnológica (tecno-hybris) que concibe la IA como superación de lo humano, ya que esto puede derivar en crisis existenciales y ontológicas: la sabiduría humana, como afirma Sloterdijk, no puede ser reemplazada por algoritmos. Es urgente repensar los circuitos entre humanidad y tecnología, para evitar un proyecto deshumanizador, alienado e injusto, y potenciar la diferencia, el devenir y la multiplicidad (Deleuze y Guattari, 2020) que la IA aún no logra alcanzar.

Conviene recordar el Fedro de Platón (1988), donde se plantea la tensión entre conocimiento genuino y mera acumulación de información. Sócrates advierte que la escritura, en lugar de fortalecer la memoria, puede llevar al olvido o a una sabiduría superficial: la escritura es phármakon, remedio o veneno según su uso. Así, cabe trasladar esta problemática a la era de la IA, para valorar la conversación auténtica e interrogar las verdades a través de la mayéutica algorítmica. Si bien la tecnología habilita nuevas formas de diálogo y búsqueda intelectual, también alerta sobre el peligro de anclar la cognición en tecnologías externas, con el riesgo de silenciar el pensamiento crítico y las relaciones auténticas. La IA puede ser vista como “signos sin alma”, pero también como oportunidad para una mayéutica situada, que favorezca el autoconocimiento y nuevas formas de diálogo vivo.

Por tanto, esta tarea no puede ser individual. El proyecto ético-político en torno a la tecnología y la IA debe ser colectivo, transversal y relacional; exige la participación de todos los actores, humanos y no humanos (Braidotti, 2015). La IA debe ser interpelada y reimaginada, de modo que su potencia técnica sea un remedio y no un veneno para la salud de nuestro tiempo, que permita un habitar poético y respetuoso de la dignidad humana.

Referencias

Barthes, R. (2013). La muerte del autor. En El susurro del lenguaje: más allá de la palabra y la escritura (pp. 75-83). Paidós.

Braidotti, R. (2015). Lo posthumano. Gedisa.

Cath, C., Wachter, S., Mittelstadt, B., Taddeo, M., y Floridi, L. (2018). Artificial intelligence and the 'good society': the US, EU, and UK approach. Science and Engineering Ethics, 24(2), 505–528. https://doi.org/10.1007/s119 48-017-9901-7

Deleuze, G., y Guattari, F. (2020). Mil mesetas: capitalismo y esquizofrenia. Pre-Textos.

Floridi, L. (2023). The ethics of artificial intelligence: principles, challenges, and opportunities. Oxford University Press.

Geertz, C. (1987). La interpretación de las culturas. Gedisa.

Platón. (1988). Diálogos III: Fedón, Banquete, Fedro. Gredos.

Sloterdijk, P. (2013). Has de cambiar tu vida. Sobre antropotécnica. Pre-Textos.

Información adicional

redalyc-journal-id: 7226



Buscar:
Ir a la Página
IR
Visor de artículos científicos generados a partir de XML-JATS por