Servicios
Descargas
Buscar
Idiomas
P. Completa
Desafíos Éticos y Académicos en un Mundo Impulsado por la IA
Eduardo Menjívar Valencia
Eduardo Menjívar Valencia
Desafíos Éticos y Académicos en un Mundo Impulsado por la IA
Ethical and Academic Challenges in an AI-Driven World
Diá-logos, vol. 17, núm. 30, pp. 5-10, 2025
Universidad Don Bosco
resúmenes
secciones
referencias
imágenes
Carátula del artículo

Editorial

Desafíos Éticos y Académicos en un Mundo Impulsado por la IA

Ethical and Academic Challenges in an AI-Driven World

Eduardo Menjívar Valencia
Universidad Don Bosco, El Salvador
Diá-logos, vol. 17, núm. 30, pp. 5-10, 2025
Universidad Don Bosco
Desafíos Éticos y Académicos en un Mundo Impulsado por la IA

No podemos negar el gran impacto que está generando el vertiginoso auge de las herramientas de Inteligencia Artificial (IA) en el campo educativo. Nos estamos enfrentando a escenarios interrumpidos por la incorporación de herramientas de IA en los procesos de enseñanza y aprendizaje con mucho desconocimiento sobre las implicaciones éticas y académicas que esto supone.

Para entender el funcionamiento de los sistemas basados en IA debemos saber que estas tecnologías procesan información, integran modelos y algoritmos con capacidades para aprender y ejecutar tareas cognitivas. Estos sistemas están diseñados y estructurados para que funcionen con cierto grado de autonomía, gracias a la modelización, representación del conocimiento, explotación de datos y el cálculo de correlaciones.

Algunos de los métodos más comunes que incluyen son: 1) el aprendizaje automático, que incorpora el aprendizaje profundo y el aprendizaje de refuerzo y 2) el razonamiento automático, incluye la planificación, la programación, la representación del conocimiento y el razonamiento, la búsqueda y la optimización de los datos (Unesco, 2022).

De acuerdo con la Unesco (2024) estos rápidos cambios en el desarrollo de los sistemas basados en IA plantean profundos dilemas éticos, que surgen del potencial que tienen para reproducir prejuicios, discriminación, sesgos, información imprecisa, datos no confiables, vulnerabilidad de los derechos humanos y las libertades fundamentales. Estos riesgos asociados a la IA se suman a las grandes desigualdades ya existentes por décadas, perjudicando aún más a muchos grupos históricamente marginados en nuestros países de la región.

A pesar de todo ello, la Unesco reconoce que si trabajamos todos en función de mejorar la trasparencia de la información, explicabilidad y protección de los datos arrojados por los sistemas basados en IA, podemos mirar el potencial necesario para abordar algunos de los grandes desafíos de la educación actual, innovar en las prácticas pedagógicas y acelerar el progreso para la consecución del Objetivo de Desarrollo Sostenible número 4 (ODS 4):

Garantizar una educación inclusiva, equitativa y de calidad y promover oportunidades de aprendizaje durante toda la vida para todos.

Particularmente, cuando he estado abordando este tema de la IA y sus implicaciones éticas en diferentes espacios académicos, las consultas más recurrentes que me hacen estudiantes, profesores e investigadores son: ¿hasta dónde puedo tomar un texto, una tabla o una figura generada por una herramienta de IA? ¿es plagio académico si copio y pego información completa de una IA? ¿cómo estamos asegurando la integridad académica? ¿cómo cito una herramienta de IA si no es autor del material? ¿debo citar los prompts? ¿qué dice la normativa APA en su última edición?

A partir de estas preguntas intentaré reflexionar y brindar recomendaciones sobre estas cuestiones que ahora más que nunca las debemos atender en nuestros procesos de enseñanza y aprendizaje, para dar una respuesta apegada a lineamientos éticos y de integridad académica.

Ahora bien, cuando abordamos el concepto de integridad académica hacemos referencia a los valores institucionales, éticos, respeto, honestidad, responsabilidad, compromiso, confianza, equidad y justicia. Principios que deben ser puestos en práctica en todas nuestras actuaciones como comunidad educativa. En esta misma línea, la Oficina de Integridad en la Investigación de los Estados Unidos (ORI) y la Asociación Americana de Psicología (APA) afirman que la integridad y honestidad académica implican citar las fuentes de ideas, textos, imágenes, gráficos u obras artísticas que se emplean en el entorno universitario, y no se debe tomar información realizada por otros o por sí mismo sin revelar la fuente correspondiente.

Por su parte, la palabra ética proviene del griego ethos, que significa “carácter” o “modos de ser”. Es una disciplina de la filosofía que tiene como carácter normativo y práctico las actuaciones en el entorno social; es decir, se relaciona con las capacidades de las personas para actuar de manera coherente en el contexto donde viven. Entonces, una persona ética mide los efectos que producen sus actos y selecciona aquellos que tienen resultados a favor de lo moral (Cointe, 2016).

Autores como Bonnet, Boissier y Vallée (2018) plantean que las personas con ética deontológica (conocida como ética de la obligación o del deber) actúan en correspondencia con las normas establecidas en la sociedad. Estos mismos autores establecen que la ética de la virtud hace referencia a que una persona es ética, solo si piensa y actúa coherentemente desde los valores morales, cuya actuación debe nacer de forma intrínseca como elemento importante de credibilidad.

Entonces, tomando en consideración estos elementos de la ética toda aplicación de la ciencia y la tecnología debe partir del respeto y la protección de las personas, considerándolas con autonomía, evitando dañarlas, resaltando los beneficios y reduciendo los perjuicios que podrían existir. Por consiguiente, hacer el bien es una obligación de la ética, por lo que esto nos condiciona sobre la necesidad de establecer normas, que permitan que los riesgos de cualquier investigación sean evitables, que esté bien diseñada y que los investigadores tengan las competencias adecuadas para llevarlas a cabo, garantizando siempre el bienestar de los participantes (González y Martínez, 2020).

No hay duda, que con la incorporación de herramientas de IA nos enfrentamos a nuevas realidades que exigen una transformación en los marcos jurídicos, éticos y morales de nuestros países. Por esta razón, la Unesco (2021) considera a la ética como una base dinámica para la evaluación y la orientación de normativas sobre el uso de las tecnologías de IA, tomando como referencia la dignidad humana, el bienestar y la prevención de daños.

Para irnos aproximando a los desafíos éticos más relevantes que tenemos con el uso de la IA podemos mencionar los siguientes: responsabilidad, toma de decisiones, rendición de cuentas, sesgos, equidad, privacidad, protección de datos, empleo, automatización, transparencia, explicabilidad e impacto en la autonomía humana. De ahí que, la importancia de asumir esto desde un enfoque integral, que incluya los aspectos, culturales, históricos, morales, políticos, filosóficos donde el ser humano esté al centro (Dávila y Agüero, 2023).

En cuanto a los desafíos académicos, vamos a partir de que la Inteligencia Artificial no es humana; por lo tanto, no se puede considerar como autora del contenido que nos arroja. Es decir, las herramientas de IA no asumen el compromiso y la responsabilidad del trabajo académico realizado debido a que no son personas.

En consecuencia, pueden brindarnos información falsa, imprecisa, sesgada o incorrecta por el uso de fuentes de información no adecuadas y verificadas. Además, existen riesgos de plagio, pudiendo encontrar trabajos académicos e investigativos con estilos y redacciones muy similares.

Ya nos advierte Samos (2023) al afirmar que los trabajos escritos por ChatGPT pueden ser lo “suficientemente científicos” como para engañar. Los artículos escritos en coautoría con IA ya están abriéndose camino en la literatura. Es claro que una violación de estas políticas constituye un fraude científico, de la misma magnitud que la alteración de imágenes o el plagio de trabajos existentes.

Y es que la facilidad con la que la IA puede desarrollar textos académicos, resolver problemas, resumir información, sintetizar datos, etc., plantea interrogantes sobre el papel del estudiante, el docente y el investigador en la producción intelectual. Si bien estas herramientas pueden apoyar y facilitar el aprendizaje y la investigación, también pueden fomentar una gran dependencia tecnológica y, en algunos casos, la deshonestidad académica. La línea entre el uso legítimo de la IA como apoyo y su uso indebido para sustituir el pensamiento crítico y creativo es cada vez más delicada.

Entonces, ¿qué está permitido hacer de acuerdo con la comunidad científica cuando integramos una herramienta de IA (ChatGPT, Perplexity, Gemini, DeepSeek, etc.) en nuestros trabajos académicos e investigativos? A continuación, les comparto algunas recomendaciones que las comunidades académicas han venido consensuando:

  1. 1. Debemos describir en nuestros trabajos académicos e investigativos cómo hemos utilizado estas herramientas de IA. Para el caso de una investigación científica se debe indicar en el cuerpo del artículo, tanto en la sección de Resumen como en la de Metodología (nombre de la herramienta, versión, creador, etc.), para permitir el escrutinio científico en aras de la transparencia.
  2. 2. Cuando se usa una herramienta de IA para realizar o generar un trabajo analítico, informar sobre los resultados (por ejemplo, generar tablas o figuras) o escribir códigos de computadora, lo debemos indicar en el cuerpo del artículo, tanto en la sección de Resumen como en la de Metodología.
  3. 3. Los investigadores siempre deben tomar en cuenta consideraciones éticas al momento de plantear ideas de investigación, generar productos y publicar trabajos académicos y científicos, poner especial atención en los análisis de datos que realizan, la forma en que estos se presentan, la calidad y el alcance de los resultados, así como las posibles aplicaciones. Cuando realizamos una revisión bibliográfica o un artículo tipo ensayo, debemos describir su uso en la introducción.
  4. 4. Dentro del trabajo académicos o de investigación, debemos colocar el texto que la IA nos arrojó. ¿Cómo puede conocerse si un texto ha sido generado por IA? Estos suelen carecer de rigurosidad, veracidad, estilo, creatividad y originalidad. También se debe disponer de detectores de IA o de revisores de expertos. En última instancia la aplicación responsable de la tecnología requiere supervisión, control y monitoreo del ser humano.
  5. 5. La Asociación Americana de Psicología (APA) establece que la información arrojada por una herramienta de IA no puede ser recuperada por los lectores.
  6. 6. APA indica que no se deben citar dentro del texto como comunicaciones personales debido a que la IA no es considerada como autor.
  7. 7. Los autores deben asumir la responsabilidad pública de su trabajo académico o de investigación. Quienes son expertos en el tema deben asegurar la veracidad, la coherencia y la credibilidad del contenido. La IA no puede reemplazar la experiencia, el criterio, el juicio, la originalidad, la creatividad y la responsabilidad de un investigador.
  8. 8. APA afirma que en el cuerpo del texto del manuscrito se debe citar la herramienta de IA que hemos usado. La forma correcta es: cita en paréntesis: (OpenAI, 2025), cita narrativa: OpenAI (2025).
  9. 9. En el apartado de lista de referencias debemos colocar al autor del algoritmo que debe corresponder con la cita en el texto: Autor del modelo. (año). Nombre del modelo en cursiva (versión) [Descripción del modelo]. Desarrollador. URL. Un ejemplo sería: OpenAI. (2025). ChatGPT (versión del 21 de marzo) [Modelo de lenguaje amplio]. https://chat.openai.com/chat
  10. 10. El Comité Internacional de Editores de Revistas Médicas (ICMJE) recomienda basar la evaluación de la autoría de un trabajo académico o investigativo en cuatro criterios.
    1. 10. 1. Haber contribuido sustancialmente a la concepción de la idea de investigación, al diseño del trabajo, al análisis o a la interpretación de los datos.
    2. 10. 2. Haber redactado el artículo o haberlo revisado críticamente añadiendo contenido intelectual importante y propio.
    3. 10. 3. Haber dado la aprobación final a la versión que se publicará.
    4. 10. 4. Haber aceptado responsabilizarse de todos los aspectos del trabajo, garantizando que las cuestiones relativas a la exactitud o a la integridad académica de cualquier parte del trabajo se puedan investigar y resolver adecuadamente.

A partir de estas recomendaciones que he planteado, considero que como comunidades educativas debemos integrar, en todos nuestros planes de formación, lineamientos claros sobre el uso crítico y ético de la IA en la docencia, investigación y extensión social. Promover el desarrollo de competencias como la alfabetización digital, mediática e informacional, las competencias digitales, así como el pensamiento crítico y creativo, el trabajo en equipo, la comunicación y las competencias académicas en materia de ética de la IA.

Y no es para menos que la Comisión Mundial de Ética del Conocimiento Científico y la Tecnología (COMEST) de la UNESCO nos indica que: a) vivir en sociedades con procesos de digitalización exige nuevas prácticas educativas, b) una reflexión ética, c) un pensamiento crítico, d) prácticas de concepción responsables y e) nuevas competencias, dadas las implicaciones para el mercado laboral y la participación social.

Estamos viviendo en un contexto histórico, social y cultural propicio para reflexionar y adecuar los perfiles de egreso y las competencias que pretendemos que nuestros estudiantes desarrollen, alineados con la alfabetización en IA. Existen muchas cuestiones éticas y académicas sobre las que las universidades tendremos que reflexionar tarde o temprano, porque la IA ha venido para quedarse.

Sumándonos a todos estos cambios y retos, en nuestra Revista Diá-logos hemos incorporado información sobre el uso de la IA en los manuscritos que envían nuestros autores. Específicamente, en la sección Información para Autores encontrarán lo siguiente: si el artículo enviado a la Revista Diá-logos ha sido elaborado con el apoyo de la Inteligencia Artificial (IA) en cualquier etapa de la investigación deberá indicarlo explícitamente dentro del artículo y al momento de enviarlo a través de la Plataforma OJS. Debe comunicar en qué apartados se ha utilizado la IA.

Para la Revista Diá-logos es sumamente importante que se cumplan los más altos estándares éticos en la investigación científica. Queda a criterio del equipo editorial de Diá-logos la aceptación de un artículo que haya usado IA.

Es así como continuamos creciendo y avanzando con la Revista Diá-logos que desde el 2022 se administra bajo la Dirección de Educación a Distancia (UDB Virtual). En esta oportunidad presentamos cuatro artículos que conforman el número 30 de la Revista.

El primer artículo se titula Horizontes Educativos en la Sociedad Posdigital: entre la Libertad y la Inclusión, de García Blázquez, Martínez Piedra y Huezo Romero. Los autores abordan los desafíos de la sociedad postdigital en relación con la inclusión y vulnerabilidad, subrayando la necesidad de que la ciudadanía y las políticas educativas actúen de manera proactiva frente a estos retos.

El segundo artículo es sobre la Deserción Escolar: un Fenómeno Multifactorial en Debate. En este manuscrito, Sibrián y Ayala investigaron los factores de las diferentes dimensiones que más influyen en que los estudiantes abandonen sus estudios dentro de los programas de Ingeniería en Ciencias de la Computación, Licenciatura en Diseño Gráfico y Licenciatura en Administración de Empresas de la Universidad Don Bosco.

El tercer artículo es una experiencia educativa de los autores Rubio Hernández, Palacios Soriano y Chávez Claros, y se titula Educación Remedial para Niñas, Niños y Adolescentes en Centroamérica en Contexto Post-Pandemia. Glasswing International ejecutó el proyecto “Reconstruyendo y mejorando: apoyo socioemocional y remedial para estudiantes y docentes”, beneficiando a 2,599 estudiantes de tercer a sexto grado en Guatemala, Honduras y Nicaragua.

El cuarto artículo se titula RAICES - Oportunidades de Aprendizaje Integral y Asesoría Colaborativa. Respondiendo Necesidades de Docentes en Tiempos Desafiantes. Schmalenbach, Monterrosa Hernández y Cabrera Larín desarrollaron el programa RAICES (Red de Aprendizaje Integral en Comunidades Educativas Salvadoreñas) para el apoyo de docentes de cuatro escuelas públicas en el Área Metropolitana de San Salvador en su trato con los desafíos causados por la pandemia. El proyecto se desarrolló en respuesta a las necesidades formuladas por docentes y directivas de estas escuelas y fue implementado en línea.

La revista Diá-logos sigue creciendo e incorporándose a más bases de datos reconocidas a nivel internacional.

Dr. Eduardo Menjívar Valencia Editor

San Salvador, 07 mayo de 2025

Material suplementario
Información adicional

redalyc-journal-id: 8143

Notas
Buscar:
Contexto
Descargar
Todas
Imágenes
Visor de artículos científicos generados a partir de XML-JATS por Redalyc