Secciones
Referencias
Resumen
Servicios
Buscar
Fuente


Hacia una ética sustentable con la Inteligencia Artificial en la investigación
Cuadernos Latinoamericanos de Administración, vol. 20, no. 38, p. 1, 2024
Universidad El Bosque

Editorial


El acelerado crecimiento de la disrupción tecnológica visto desde la Inteligencia Artificial (IA) ha posicionado a esta tecnología como un recurso estratégico de considerable valor económico, social y ambiental, generando un alto impacto en el ámbito global. En este contexto, las recomendaciones y marcos éticos creados por organismos internacionales -UNESCO, Unión Europea, entre otros- no han sido suficientes para que los Estados adopten una regulación normativa que garantice el uso responsable de la IA, con inclusión y equidad social. En este aspecto, se observa que el diálogo ético internacional sobre la IA está liderado por algunos países desarrollados con alto nivel de apropiación tecno-científico, que excluye a los demás para el logro de un consenso global. La mayoría de documentos relativos a ética e IA hacen relación a la auto-regulación y compromisos individuales, sin tenerse consensos en mejora de las regulaciones. En este sentido, la ética y la regulación legal no deberían contemplarse como frenos a la capacidad de innovación e investigación, sino como impulsoras de un uso socialmente responsable de la IA en consonancia con el desarrollo de la Agenda 2030 de la ONU, como plan de acción sostenible a favor de las personas, el planeta y la prosperidad de la aldea global. Ausin. (2021).

La IA es una tecnología disruptiva que ha ido transformando los sistemas sociales, económicos y ambientales, creando a la vez, formas de poder, autoridad y conflictos éticos en su implementación y desarrollo tecnológico con impacto en las organizaciones, los individuos, la sociedad y su entorno natural. González y Martínez (2020). En este contexto, la revolución digital, la big data y la creación de sistemas y artefactos inteligentes, han ido reemplazando el trabajo humano con propensión progresiva de sustitución en varios sectores económicos y de servicios, entre otros, para lo cual se requiere un debate ético y un debate público que generen consensos manifiestos en políticas y normatividad pertinentes, siendo el Estado el responsable de la gestión. Ausin. (2021).

Al respecto, en encuentro académico de CLADEA (2024) para debatir el uso ético de la IA en la investigación, se plantearon como herramientas de aplicación de IA para la investigación científica las siguientes: a) automatización de tareas repetitivas, con el proceso de automatizar la recopilación y análisis de datos que ahorran tiempo y recursos; b) análisis avanzado de datos, mediante algoritmos de IA para identificar patrones y tendencias de datos; c) manejo de modelos predictivos de resultados o comportamientos basados en datos históricos; d) optimización de procesos de investigación, mediante el diseño de experimentos o la búsqueda de literatura científica relevante. Así, con base en lo anterior, con el uso de la IA responsable se mejora la eficiencia y precisión en la investigación científica, por ejemplo, con el descubrimiento de patrones no evidentes para humanos, y aceleración del progreso científico. Asimismo, se muestra como limitaciones técnicas del uso de la IA: la dependencia de datos de calidad y representativos, el riesgo de sesgos en algoritmos, y la necesidad de interpretación y análisis en modelos de IA.

En este contexto, la ética como ciencia filosófica que estudia la moral, reflexiona sobre el comportamiento de carácter normativo y práctico del individuo en el entorno social, aduciendo que una persona es ética si en cada acción que realiza mide los efectos que pueden producir sus actos en coherencia con valores a favor de lo moral, acordes con el respeto a deberes, obligaciones y derechos contraídos. En este sentido, generar el bien es una obligación de la ética, por lo que este hecho condiciona a la necesidad de una normatividad consensada, que responda a que los riesgos de cualquier investigación sean evitables, que dicha investigación cuente con una base sólida en revisión bibliográfica y teoría, y que los investigadores sean competentes para llevarlas a cabo, garantizando el bienestar de sus participantes. Al respecto, se cuenta con una vasta producción sobre la dimensión ética de la IA, basada en códigos éticos, recomendaciones y guías de buenas prácticas éticas para la IA relacionados sobre su uso, autonomía, ética, moralidad, derechos, valores, transparencia, entre otros. (Jobin, Ienca, Vayena, 2019).

En este escenario entonces, para lograr el objetivo de una IA justa y socialmente responsable en los procesos de investigación e innovación, es preciso regular los limitantes que pueden intervenir en la aplicación de las tecnologías, siendo necesario que los usuarios acepten y se apropien socialmente de estas tecnologías. La apropiación de una tecnología es una novedad que se convierte en innovación cuando es adoptada por la comunidad mediante la generación de prácticas de uso de la tecnología dentro de un marco de principios éticos que incorpora. Así, la concientización ética sobre el manejo de la IA constituye un instrumento de ayuda para el empoderamiento tecnológico de la población, mediado con los poderes públicos, instituciones y organizaciones que han de promover la formación de la comunidad sobre el uso de la IA para generar valor económico y social, dentro de un marco de seguridad y manejo ético correcto manifiesto en un uso socialmente responsable de la tecnología y/o IA big data, con derechos de inclusión y equidad. Ausin. (2021).

Ahora bien, cuando se habla de las implicaciones éticas del uso de la IA en la investigación científica, se trata de identificar qué pasa con el uso deliberado de la IA en lo relacionado con las buenas y malas prácticas, siendo las buenas prácticas las acciones éticas y legales que enriquecen el acervo científico, material y simbólico de la humanidad. Al respecto, hasta hace poco la producción y reproducción de saberes científicos y humanísticos era una práctica exclusiva de la condición humana, ahora en cuestionamiento ético con el uso de la IA como herramienta de ayuda en los procesos de investigación e innovación, entre otros. En este aspecto, se señala que las IA de mayor divulgación como Chat GPT, entre otros, tienen capacidad para construir textos y relatos coherentes con pretensión de cientificidad de forma casi instantánea, lo cual implica cuestionar la producción académica y científica del intelecto humano manifiesto en su perfil cognitivo y emocional, y a la creencia de que con el uso de la IA está reclamaría la autoría de dicha producción científica dejando en entredicho al investigador responsable del hecho. Villasmil (2023). Al respecto, los sistemas de IA se consideran como tecnologías amorales, es decir no tienen capacidad para distinguir entre el bien y el mal, observándose con ello, que no cuentan con un pensamiento racional y crítico para el análisis y toma de decisiones que responden al perfil racional y de experiencias del ser humano. Bossmann (2016).

Así, en torno al uso de IA en procesos de investigación e innovación se debe tener claro por parte del investigador aspectos de limitaciones éticas como los siguientes -algunos de ellos aportados en encuentro realizado de CLADEA (2024)- : a) la IA es una herramienta que ayuda en los procesos de investigación, pero no reemplaza a la experiencia e inteligencia humana; b) citar la contribución de la IA en el manejo de datos en el desarrollo de la investigación, lo cual se debería regular en los lineamientos éticos del uso de la IA; c) la responsabilidad única de la producción científica derivada de la investigación es del investigador con sus respectivas consecuencias administrativas y legales; d) preocupaciones sobre privacidad y seguridad de datos, riesgo de discriminación algorítmica, y responsabilidad en decisiones autónomas de IA; e) con el uso de IA en el proceso de escritura y en la manipulación de figuras o imágenes de manuscritos con autores consultados o referenciados; f) la IA no debe figurar como autor en la autoría del texto de investigación; g) nunca debe ser usada la IA como generador base de textos por criterios de responsabilidad y divulgación científica con las consecuencias derivadas; h) con utilización de software de IA con errores; i) con la utilización de la IA para sustituir mano de obra laboral; entre otros aspectos.

Con base en lo anterior, se debe resaltar que la IA debe ser usada solo como una herramienta o complemento bajo la supervisión humana, en todos los procesos de investigación e innovación, pues transferir este proceso creativo de la investigación e innovación a la IA, representaría un declive en la evolución del pensamiento científico, con impacto en la dignidad de la persona y su trazabilidad con el desarrollo sustentable responsable.

Referencias

Ausin, Txetxu. (2021). ¿Por qué ética para la Inteligencia Artificial? Lo viejo, lo nuevo y lo espurio. Revista Sociología y Tecnociencia. 11 Extra_2: 1-16

Bossmann, J. (2016). Top 9 ethical issues in artificial intelligence. En World Economic Forum.

CLADEA. (2024). Inteligencia Artificial para la Investigación Científica: Posibilidades, Herramientas y Limitaciones Técnicas y Éticas. Coloquio doctoral, Webinar.

González, M. & Martínez, D. (2020). Dilemas éticos en el escenario de la Inteligencia Artificial. Economía y Sociedad. 25(57): 1-17

Jobin, A.; Ienca, M.; Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence. 1: 389-399.

Villasmil, J.J. (2023). Reflexiones esenciales sobre las implicaciones éticas de uso de la inteligencia artificial en la elaboración de artículos científicos de alto impacto. Multiverso Journal. 3(5): 4-11.

UNESCO. (2024). 2° Foro Mundial sobre la Ética de la Inteligencia Artificial: Cambiando el panorama de la gobernanza de la IA. Recuperado https://www.unesco.org/es/forum-ethics-



Buscar:
Ir a la Página
IR
Scientific article viewer generated from XML JATS by