Secciones
Referencias
Resumen
Servicios
Buscar
Fuente


Marcos normativos para una IA ética y confiable en la educación superior: estado de la cuestión
Normative framework for ethical and trustworthy AI in higher education: state of the art
RIED-Revista Iberoamericana de Educación a Distancia, vol. 28, núm. 2, pp. 181-208, 2025
Asociación Iberoamericana de Educación Superior a Distancia

Estudios e Investigaciones


Recepción: 01 Diciembre 2024

Aprobación: 07 Marzo 2025

Publicación: 01 Julio 2025

DOI: https://doi.org/10.5944/ried.28.2.43511

Resumen: La investigación sobre el uso de la inteligencia artificial (IA) en instituciones educativas es un área emergente y en evolución. En la actualidad se ve la necesidad de analizar la sinergia entre la ética y el adecuado uso de la IA en el contexto académico. Por ende, se presenta un estudio documental para indagar sobre los marcos normativos y éticos del uso de la IA en las instituciones de educación superior. Se realizó una revisión sistemática de literatura bajo las directrices y procedimientos del modelo PRISMA. La búsqueda de la información se realizó en las bases de datos de Scielo, Scopus, Redalyc, entre otras, que posteriormente fueron exportados a Mendeley y procesados en Rayyan con la intención de analizarlos y categorizarlos. En el proceso de cribación se seleccionaron 28 artículos clasificados en cuatro categorías: desafíos y riesgos éticos, marcos normativos, formación ética y modelos didácticos. Se utilizó el software de MAXQDA para su procesamiento. Además, se realizó un análisis bibliométrico (VOSviewer) que permitió conocer las principales tendencias en torno a la temática. En general, los resultados manifiestan, por un lado, la importancia de generación de políticas y regulaciones específicas que permitan el uso adecuado de la IA en contextos universitarios. Por otro, la necesidad de formación de toda la comunidad educativa involucrada, incorporando su uso responsable. El debate académico sobre cómo afrontar el desafío de equilibrar la innovación tecnológica con la ética, la inclusión y la sostenibilidad continúa abierto.

Palabras clave: inteligencia artificial, educación superior, ética, normativa.

Abstract: The use of artificial intelligence (AI) in higher education represents an emerging and continuously evolving field. Current research highlights the critical synergy required between ethics and appropriate use in the academic application of AI. Therefore, a documentary study is presented to investigate the regulatory and ethical frameworks of the use of AI in higher education institutions. A systematic literature review was conducted following the guidelines and procedures of the PRISMA model. The information search was carried out in the databases of Scielo, Scopus, Redalyc, among others, which were subsequently exported to Mendeley and Rayyan platforms for analysis and categorization. In the screening process, 28 articles were selected, classified into four categories: ethical challenges and risks, regulatory frameworks, ethical training and didactical models, utilizing the MAXQDA software. Additionally, a bibliometric analysis (VOSviewer) was performed to identify major research trends in this domain. In general, the results show, on the one hand, the importance of generating specific policies and regulations that allow the appropriate use of AI in university contexts. On the other hand, the need for training of the entire educational community involves incorporating its responsible use. The academic debate on how to balance technological innovation with ethics, inclusion, and sustainability remains an open and pressing challenge.

Keywords: artificial intelligence, higher education, ethics, legislations.

INTRODUCCIÓN

La literatura académica reciente pone de manifiesto el papel clave que juegan las tecnologías en el ámbito de la enseñanza superior (García-Fuentes et al., 2024; Villegas y Delgado, 2024), y el uso que hacen de ellas tanto docentes (Sánchez, 2023) como estudiantes universitarios (Baldrich y Domínguez, 2024). En concreto, centra la atención en las tecnologías emergentes e informa del impacto de la IA en el campo educativo; desde la perspectiva de los Objetivos de Desarrollo Sostenible (ODS) de la Agenda 2030 de la UNESCO, se describen las oportunidades de uso por parte del estudiantado y profesorado. Concretamente, “el ODS4 destaca que las tecnologías de IA se utilizan para garantizar un acceso equitativo e inclusivo a la educación” (Flores y García, 2023, p. 38).

No obstante, cabe plantearse si los procesos educativos en el plano académico han sido capaces de aprovechar todo el potencial que brindan las tecnologías. Si no ha sido así, ¿qué lo ha imposibilitado?, ¿la infraestructura, la falta de recursos tecnológicos, la formación del profesorado, la aptitud del alumnado…? El actual contexto universitario, donde las herramientas de IA han cobrado fuerza (García Peñalvo et al., 2024; López-Regalado et al., 2024), no puede permanecer impasible al respecto, sino que ha de posicionarse y adoptar medidas. El binomio educación universitaria-tecnología IA convoca a ello.

El presente trabajo se enmarca en esta línea de estudio. En una investigación de mayor envergadura desarrollada por investigadores iberoamericanos, que pretende analizar el uso de la IA en la formación práctica universitaria, de distintas titulaciones del campo de las Ciencias Sociales, Ingenierías y Administrativas, desde un enfoque crítico, ético y responsable. La investigación se titula Prácticum IA: Experiencias del Prácticum integrando Inteligencia Artificial (bienio 2023-2025) y se está desarrollando en el marco de una comunidad de conocimiento profesional, RedTICPraxis. Uno de los objetivos iniciales está relacionado con el análisis documental sobre marcos normativos y éticos del uso de la IA en la educación superior (ES).

Ética, Inteligencia Artificial y Educación Superior

La IA en la ES representa un asunto novedoso y de actualización permanente. Las investigaciones subrayan la sinergia entre ética y responsabilidad, así como privacidad y seguridad, al emplear IA en contextos académicos (Mora Naranjo et al., 2023). En ese marco emerge la necesidad de generar políticas y regulaciones específicas en los niveles institucionales correspondientes (Rodríguez-Argueta, 2020), así como actualizaciones que contemplen competencias digitales y conciencia ética en los planes y programas de estudio (Vélez-Rivera et al., 2024).

Las respuestas y/o reacciones que esta tecnología ha provocado en el profesorado, en sus percepciones, valoraciones y posicionamientos, han sido abordadas en diferentes estudios. En concreto, los trabajos realizados por Humble y Mozelius (2022), McGrathet al. (2023) y Svaricek (2024) muestran un docente universitario que alberga cierto escepticismo sobre los beneficios de la IA para la enseñanza, y con preocupaciones arraigadas en incertidumbres sobre su impacto en el contexto educativo. El desconocimiento de la IA, sobre todo de sus aplicaciones prácticas y potencialidades como recurso didáctico (Sánchez, 2023), está contribuyendo a que el profesorado se sienta inseguro y adopte una postura cautelosa, que ha frenado su inclusión en ámbitos específicos de docencia, investigación y/o gestión universitaria.

En la otra esfera, están los estudiantes universitarios. También se muestran reacios a utilizar herramientas IA por temor a la estigmatización social y a ser acusados de deshonestidad académica. El entorno académico tradicionalmente ha ponderado los esfuerzos y logros individuales, y a algunos estudiantes les preocupa que emplear la IA pueda percibirse como desinterés, comodidad, falta de compromiso, capacidad de esfuerzo o la autenticidad de su trabajo. En medio de este escenario, han empezado a surgir experiencias de integración de la IA en diseños curriculares de la ES (Gairín y Alguacil, 2024). Las directrices sugeridas por González Alcaide (2024) brindan pistas para su integración en la práctica docente. La clave parece estar en el conocimiento y la formación en/para un uso efectivo, ético y responsable de estas herramientas (Mora Naranjo et al., 2023), que inspire confianza e invite a utilizarlas abiertamente en el ámbito universitario, dando prioridad a las consideraciones éticas a la hora de adoptar tecnologías de IA (Vélez-Rivera et al., 2024) para garantizar la equidad, transparencia y privacidad de los datos, con la premisa de contribuir a una sociedad más justa e inclusiva.

Desde la segunda coordenada, existencia de marcos normativos sobre el uso de la IA, la investigación alerta que, en el contexto académico actual, es posible que algunas instituciones de ES carezcan aún de directrices claras sobre el uso de la IA en el trabajo académico, dirigidas tanto al alumnado como al profesorado. El estudio de Seldon et al. (2020) resulta revelador sobre el impacto que tiene en la comunidad académica el uso desregulado de la IA. Si bien la literatura es todavía escasa, se advierte la necesidad e importancia de generar políticas, regulaciones y normativas éticas específicas para el uso responsable de la IA en los planes y programas educativos (Nguyen et al., 2023; Rodríguez-Argueta, 2020; Vélez et al., 2024), con el propósito de aprovechar las ventajas que esta herramienta puede aportar a las trayectorias académicas y educativas.

De cara a dar respuesta a este reto, se puede tomar como referente el trabajo de Chan (2023), en el que se recoge un marco político de educación ecológica para la IA bajo tres dimensiones: pedagógica, de gobernabilidad y operativa. El autor recomienda investigar la inclusión de la IA en la enseñanza universitaria a través de este marco ético para mejorar la comprensión de sus implicaciones. En una línea similar, en el estudio de Flores y García (2023, p. 45) se insta al desarrollo de marcos de políticas públicas consensuadas para regular y concienciar el uso ético de la IA en la educación. Según ambos autores:

Esto debe pasar por el diseño y puesta en marcha de un Plan de Alfabetización digital y de IA, considerando que el principal obstáculo para la adopción generalizada de herramientas IA es la falta de evidencia sólida sobre su eficacia y su impacto en los logros académicos de los estudiantes. De ahí que resulte necesario mejorar la gobernanza, la accesibilidad y la confiabilidad de la IA.

Desde la tercera coordenada, capacitación en materia de ética digital, se advierten algunas consideraciones a tener en cuenta. Es cierto que la investigación subraya la importancia crítica de la ética y la responsabilidad en la aplicación de la IA (Mora Naranjo et al., 2023), pero ¿Están los estudiantes y el profesorado capacitados al respecto?, ¿Qué uso hacen de la IA?, ¿Es un uso crítico, ético y responsable? En definitiva, ¿son competentes en materia de ética digital? Los estudios consultados instan a fortalecer los planes de formación docentes en materia de ética digital (Marín y Tur, 2024), e incluso a valorar el impacto que tales planes van teniendo en el alumnado (Mora Naranjo et al., 2023); realmente, ¿están promoviendo un uso responsable de las herramientas de IA? En este punto, el trabajo de Vélez-Rivera et al. (2024) apela a la necesidad de trabajar con la comunidad académica, profesorado y alumnado, en la utilización de estas herramientas, en correspondencia con entornos académicos seguros, éticos y responsables.

Ante este desafío, la investigación subraya la relevancia de la capacitación ética digital del profesorado universitario. Más aún, González Alcaide (2024) presenta un modelo de alfabetización digital docente, mientras que Flores y García (2023, p. 45) hablan de un “Plan de Alfabetización IA que permita formar a los docentes no solo en capacidades técnicas, sino en debates éticos-filosóficos”. Por otro lado, la investigación avala la necesidad de preparar al estudiantado para afrontar los retos éticos asociados a la IA. Por ejemplo, Lopezosa et al. (2023) plantean un modelo formativo nuclear en IA adaptado al ámbito educativo. Incluye competencias, objetivos y temas de estudio esenciales sobre IA, y un esquema que puede formar parte de un plan de estudios más amplio, para grado/posgrado o seminarios especializados. En una línea similar, González Alcaide (2024) desarrolla una unidad didáctica dirigida al alumnado para promover un uso adecuado de la IA, así como un rendimiento óptimo de estas herramientas. La propuesta de Aler et al. (2024) también va en este sentido. Sucintamente, focaliza su atención en las estrategias educativas, competencias éticas y recursos necesarios para una implementación de la IA, digna de confianza en las distintas disciplinas de la ES. Su objetivo es que la próxima generación de jóvenes pueda contribuir a la utilización de una IA ética, segura y de vanguardia. ¿Es posible establecer prácticas educativas justas, éticas y sostenibles en la era de la IA en el contexto académico? ¿Bajo qué normativa? La tríada IA-ética-ES, vista desde cada una de estas coordenadas, nos sitúa ante un panorama alentador pero necesitado aún de estudio y análisis.

Objetivo del estudio

El presente trabajo tiene como objetivo analizar los estudios recientes sobre los marcos normativos y éticos en torno al uso de la IA en las instituciones de ES.

METODOLOGÍA

Acorde al objetivo formulado, se ha llevado a cabo una revisión de la literatura a través de un método sistemático para identificar, evaluar e interpretar los artículos científicos (Mendoza, 2021). En las revisiones sistemáticas se trata de responder a una interrogante bien delimitada a partir del análisis y discusión de la información más relevante de las publicaciones revisadas (Torres-Fonseca y López-Hernández, 2014). Para esta revisión se emplearon las directrices y procedimientos de la declaración PRISMA (Preferred Reporting Items for Systematic reviews and Meta-Analyses) actualizada al 2020 (Page et al., 2021). Como primer paso, conforme al objetivo del estudio, se definieron las siguientes preguntas de investigación:

  1. PI1. ¿Cuáles son los desafíos y riesgos éticos que se han detectado en las universidades?

  2. PI2. ¿Cuáles son las medidas normativas y éticas que han aplicado o sugerido las universidades en torno a la IA?

  3. PI3. ¿Cómo se interpreta el uso ético de la IA en los procesos educativos?

  4. PI4. ¿Cuáles son los enfoques o modelos didácticos que se han implementado en las universidades para el uso confiable de la IA?

Estrategia de búsqueda

La búsqueda de literatura se realizó en las bases de datos de Scielo, Redalyc, Scopus, Dialnet, Scopus y Web of Science. Asimismo, se emplearon herramientas de IA, como Consensus, para la identificación de referencias. La ecuación de búsqueda para obtener resultados significativos fue: (“challenges” AND “promises of AI”); (“ethics AND “IA” AND “higher education”); (“ethical considerations” AND “AI”); (“practicum” AND “AI”).

Criterios de inclusión y exclusión de documentos

Los criterios principales de inclusión de los documentos fueron: artículos publicados del 2020 a fines de mayo de 2024; idioma español, inglés o portugués; producciones que recojan una investigación empírica en el nivel educativo de ES. Los criterios de exclusión fueron: artículos sin acceso al documento en extenso y/o que no narran experiencias del campo ético aplicado a la educación.

Descripción del proceso

En la búsqueda inicial de los artículos se identificaron 256 registros, de los cuales se seleccionaron 65. De estos, 14 estaban duplicados y otros 3 no eran open access, por lo que fueron eliminados. Los documentos seleccionados fueron procesados en Mendeley y Rayyan con la intención de analizarlos y categorizarlos. En la Figura 1 se representa el modelo metodológico a partir de la declaración PRISMA.

En la plataforma de Rayyan se exportaron 48 registros para una segunda etapa de cribado y clasificado de los artículos. Del total, uno fue duplicado, once se excluyeron y ocho pasaron a una segunda revisión; el resto se mantuvo. A su vez, se incluyeron ocho artículos de otras fuentes de información, mientras que otros ocho se descartaron por no ser del área educativa. Las etiquetas que se utilizaron para la clasificación de los artículos en esta plataforma de Rayyan fueron: uso ético, modelos didácticos, desafíos y riesgos éticos, integridad académica y marcos regulatorios.


Figura 1
Diagrama de flujo del modelo PRISMA

Al final se contó con 28 artículos, que se procesaron y categorizaron en el programa Excel para finalmente analizar su contenido a partir de las categorías: desafíos y riesgos éticos, marcos normativos-regulatorios, formación ética y modelos didácticos; estas mismas categorías se contemplaron en el software de análisis cualitativo MAXQDA.

RESULTADOS

En primer lugar, se brindan algunas características que ayudan a circunscribir el conjunto de artículos analizados. A continuación, estos se interpretan en clave de las categorías de interés, para dar cuenta de los aspectos éticos en relación con el uso de la IA en la ES.

Caracterización de los artículos analizados

La síntesis de los principales resultados se presenta en la Tabla 1 (véase Anexo), organizada en orden alfabético. En ella, se recoge una síntesis de la información contextual de cada estudio, incluyendo referencia, metodología, lugar de estudio, palabras clave y etiquetas.

La Figura 2 ilustra la evolución de la producción científica sobre esta temática entre 2020 y mayo 2024. Destaca especialmente el año 2023, en el que se registró un notable aumento en la publicación de investigaciones, con un total de 17 trabajos, coincidiendo con el impacto generado tras el lanzamiento de ChatGPT el 30 de noviembre de 2022. En 2021 y 2024 se registraron cuatro publicaciones cada año, mientras que en 2022 se documentaron dos trabajos y en 2020, un único estudio.


Figura 2
Distribución temporal de los artículos

Distribución geográfica por lugar del estudio

La producción científica se concentra principalmente en España e Irlanda, que lideran como los países con mayor frecuencia de estudios sobre el fenómeno, con un total de cuatro publicaciones cada uno. Les siguen los Países Bajos y Suecia, con dos publicaciones. Los demás países registrados cuentan con una sola publicación, entre ellos: Bangladesh, Canadá, Chile, Croacia, China, Costa Rica, Corea del Sur, Ecuador, Italia, Nigeria, Perú, Reino Unido y Suiza. Además, se identificaron 12 estudios cuyo contexto geográfico no se especifica.

Diseño metodológico

El análisis del enfoque metodológico ofrece una visión clara de cómo se está abordando actualmente la investigación en esta temática. Según los datos presentados en el Anexo 1, predominan los estudios de análisis bibliográfico en comparación con aquellos de enfoque cuantitativo, cualitativo o mixto. En concreto, 17 artículos (58,6 %) corresponden a revisiones de la literatura, ya sean sistemáticas o no. El 42 % restante se distribuye entre estudios mixtos (descripción de una experiencia basada en un modelo), representando cada uno un 3,4 %.

Abordaje de las categorías

A partir de un adentramiento gradual en el material, desde la técnica de análisis de contenido (Ruiz Bueno, 2021), ha sido posible identificar cuatro cuestiones centrales donde se focaliza la atención en términos éticos y normativos: desafíos y riesgos éticos, marcos normativos-regulatorios, formación ética y modelos didácticos.

PI1. ¿Cuáles son los desafíos y riesgos éticos que se han detectado en las universidades? (las referencias sobre este punto se muestran en la Figura 3).

El uso de la IA en los procesos de enseñanza, aprendizaje y evaluación presenta desafíos que vienen siendo reconocidos en estudios recientes a escala mundial, tanto desde la perspectiva de docentes y estudiantes. En particular, es considerable su impacto en la ES, generando oportunidades y riesgos (Chan y Hu, 2023). Por ejemplo, se presentan casos acerca de cómo estudiantes universitarios se van adaptando al uso de la IA en su aprendizaje (Cisneros et al., 2023). Puntualmente advierten que, aunque la IA facilita el acceso a información y recursos, al mismo tiempo puede generar sobrecarga de información con escasez de habilidades críticas para evaluar contenidos. Incluso, ante tal prevalencia de herramientas de IA en constante crecimiento, en ocasiones los estudiantes incurren en plagio académico (Comas Forgas et al., 2023). La facilidad para generar contenido conlleva a esa tendencia y abre cuestionamientos sobre la integridad académica, así como la originalidad en las producciones estudiantiles.


Figura 3
Referencias asociadas a los desafíos y riesgos éticos

Sin dejar de reconocer las oportunidades que ofrece la IA, como la personalización de aprendizajes (Cordón García, 2023), se identifican potenciales riesgos para las personas y sociedades. En efecto, se llega a hablar de la “deshumanización” de la educación, de la mano de una dependencia de las tecnologías. De ahí la importancia de incorporar la ética en una formación que contemple el uso de la IA de modo vital (Guissepe Hernández et al., 2021; Huang et al., 2021). Encontramos también reportes que muestran que en ocasiones la ansiedad y la falta de autoeficacia en el uso de la IA por parte de los estudiantes (Kwak et al., 2022) pueden limitar su adopción y aplicación efectiva en entornos específicos de actuación. En esos términos se concibe una conciencia ética sobre la IA, que influye en las intenciones de comportamiento de quienes la usan.

En síntesis, es posible subrayar que, aunque la IA ofrece oportunidades significativas para mejorar la enseñanza, el aprendizaje y la evaluación, resulta fundamental abordar los desafíos éticos, la integridad académica y la preparación adecuada de los estudiantes para mitigar los riesgos asociados con su uso. Esto también involucra a los docentes e implica un enfoque proactivo en la formación y la regulación de la IA en contextos educativos. De hecho, informes de investigaciones sobre el tema (Ivanov, 2023; Vélez-Riveraet al., 2024) advierten la relevancia creciente que al binomio IA-ética le vienen dando las universidades, tanto a nivel institucional general como en carreras/áreas puntuales.

PI2. ¿Cuáles son las medidas normativas y éticas que han aplicado o sugerido las universidades en torno a la IA?

Un nutrido número de documentos revisa la necesidad de marcos normativos y/o regulaciones sobre el uso de la IA en la ES (Figura 4). Ha sido posible reconocer numerosas iniciativas en torno a medidas normativas y éticas que han sido propuestas o aplicadas por universidades alrededor del mundo en los últimos años. Desde el Parlamento Europeo se acuerda en que la implementación de un Código de Ética Académica proporciona un marco normativo que establece los principios y valores con la premisa de guiar la conducta en relación con el uso de IA, tanto por parte de estudiantes como de profesores (Cornejo-Plaza y Cippitani, 2023). En este sentido, las universidades han definido actos como el plagio y la falsificación de datos, entre otras prácticas deshonestas, como violaciones a este código, con consecuencias establecidas para tales infracciones.


Figura 4
Referencias asociadas a las medidas regulatoria y normativas

Se han propuesto políticas que guían el uso ético y responsable de la IA en entornos académicos (Aler et al., 2024). Estas políticas abordan la necesidad de asegurar que las tecnologías de IA se utilicen de manera que respeten la privacidad, equidad y transparencia. Por ello se espera que las universidades establezcan normas claras sobre el uso de este tipo de herramientas, al mismo tiempo que puedan dotar a docentes y estudiantes de pautas para su integración en el proceso educativo.

De ahí la relevancia de avanzar en la formación sobre IA, con la implementación de talleres y cursos que aborden la importancia de la integridad académica, el plagio, la citación y las buenas prácticas de investigación (Cordón García, 2023). Conscientes de ello, varias instituciones españolas han desarrollado módulos obligatorios en el currículo, con estudiantes de primer año, de cara a capacitarlos en materia de ética digital.

Las propuestas regulatorias en el nivel universitario no son restrictivas al ámbito de docencia, puesto que la Unión Europea también ha establecido los Comités de Ética en Investigación (Piedra Alegría, 2023). La propuesta es revisar y aprobar los proyectos de investigación antes de ejecutarse para garantizar la ética en el tratamiento de datos y la protección de los participantes. Yusuf et al. (2024) sugieren la implementación de evaluaciones de impacto ético en proyectos que involucren IA, revisando las implicaciones sociales y éticas, lo que otorga relevancia a marcos normativos en este punto.

Además de las propuestas anteriores, se pretende que existan regulaciones para generar ambientes inclusivos basados en IA, que fomenten la participación de los grupos marginados (Cox, 2021) mediante acciones como normativas para la admisión y becas para garantizar la igualdad y accesibilidad. Otro de los aspectos analizados es la responsabilidad social universitaria y la IA, por lo que los principios de FATE (Fairness, Accountability, Transparency and Ethics) son una muestra de las iniciativas vinculadas con las actividades académicas y de investigación para el bienestar de la comunidad (Henry y Oliver, 2022). Todo ello mediante proyectos de extensión y colaboración estudiantil y comunitarios, que alientan a las universidades a ser transparentes en el uso de los algoritmos de IA y la toma de decisiones resultante de estos.

La protección y privacidad de datos es otro aspecto por garantizar en las instituciones cuando incorporan IA, por lo que las regulaciones van encaminadas para que las universidades cumplan con dichas medidas (García Peñalvo et al., 2024) a través de una adecuada gestión y resguardo de la información. A este respecto, cobra relevancia la evaluación de las políticas en torno al uso de la IA (Moya y Eaton, 2023), por lo que se invita a las universidades a revisar y actualizar periódicamente sus normativas para respaldar su eficacia ante los nuevos desafíos.

Junto a lo expuesto, se alienta a las universidades a investigar las repercusiones sociales, económicas, ambientales y culturales de las tecnologías de IA para comprender su impacto en la sociedad (Chan, 2023). Esta sinergia entre investigación-docencia-vinculación-comunidad puede ayudar a las instituciones a anticiparse a los problemas y ajustar sus políticas de acuerdo con los hallazgos.

PI3. ¿Cómo se interpreta el uso ético de la IA en los procesos educativos? (Figura 5)

Los hallazgos obtenidos han permitido conocer a fondo las implicaciones “éticas” del uso de la IA en ES; ello ha desencadenado la necesidad de contar con un marco regulatorio. Concretamente, en esta pregunta se examina el panorama actual de las políticas universitarias con respecto al uso de IA. De particular interés son las universidades asiáticas, que presentan un contexto peculiar para observar la respuesta institucional a IA (Dai et al., 2024). Se espera que los hallazgos ofrezcan información útil sobre las direcciones futuras del desarrollo de políticas al respecto en tales universidades y en todo el mundo.


Figura 5
Referencias asociadas al uso ético de la IA en los procesos educativos

La integridad académica conforma un pilar esencial en la educación, en general, y en la formación de profesionales, en particular, sobre todo en un mundo donde la IA juega un papel cada vez más marcado. Múltiples herramientas, entre ellas el conocido ChatGPT, están presentes en la formación de competencias de terapeutas ocupacionales (Avello-Sáez y Estrada-Palavecino, 2023). En este escenario, amerita prestar atención a la integridad académica para evitar dependencias indebidas y promover aprendizajes auténticos que se requerirán en el desempeño laboral; entre ellos, la capacidad de interpretar las decisiones de la IA en consonancia con criterios éticos (Yu y Yu, 2023). Esto ha de trabajarse desde el inicio de la formación universitaria, con estrategias que refuercen la ética académica; como se advirtió en las carreras de Trabajo Social y Educación Social (Comas Forgas et al., 2023), el plagio académico puede prevalecer entre estudiantes.

Sin duda, existe una responsabilidad ineludible en la implementación de la IA en los distintos niveles del sistema educativo, en particular el superior (Mora Naranjo et al., 2023), donde una base ética de la mano de la integridad académica resulta esencial para su genuina aceptación y sostenibilidad.

PI4. ¿Cuáles son los enfoques o modelos didácticos que se han implementado en las universidades para el uso confiable de la IA? (Figura 6)

La creciente integración de la IA en la ES ha provocado debates en torno a los modelos didácticos y el uso ético de estas tecnologías. Los modelos educativos que se alientan refieren una integración efectiva de la IA en prácticas educativas (Chan, 2023) a través de estrategias específicas para su uso en los diversos contextos educativos. Ello en el marco de estándares de integridad académica a delimitar con políticas integrales y lineamientos lo más claros posible. Se reconocen beneficios para los aprendizajes, al mismo tiempo que preocupaciones, que giran en torno a la conjunción autonomía/dependencia, así como originalidad/plagio.


Figura 6
Referencias asociadas a los modelos didácticos implementados en las universidades

Una de las herramientas que ha cobrado mayor popularidad en diversidad de ámbitos, entre ellos académicos de nivel superior y de desarrollo profesional de los graduados, es el ChatGPT. Dada la importancia de educar a los estudiantes y profesionales en el empleo adecuado de estas herramientas, se ofrecen guías para favorecer el uso de esta IA conversacional de manera ética para complementar, y no reemplazar, las competencias humanas. Esto resulta acorde con iniciativas para fomentar una cultura de integridad académica y responsabilidad ética (Gallent Torreset al., 2023), particularmente en el uso de tecnologías avanzadas.

También se ha acuñado el concepto de Educación 4.0 (Gibert Delgado et al., 2023) en referencia a un enfoque que incorpora IA de manera innovadora con el propósito de promover el desarrollo de competencias digitales y pensamiento crítico en los futuros profesionales, afín a los desafíos de un mundo cada vez más digitalizado. Incluso la ética ha de constituir una parte nodal de los programas educativos que incorporen IA, de modo que los profesionales estén preparados para manejar los dilemas éticos que puedan surgir en sus ámbitos laborales (Huang et al., 2021). Se espera, en ese contexto, que los sistemas mantengan altos estándares éticos (Aler et al., 2024), mediante evaluaciones transparentes y justas, conscientes de los sesgos potenciales que pueden surgir al incluir IA.

De cara a resumir las relaciones entre las categorías analizadas en este estudio, se muestra un mapa de co-ocurrencia de códigos (Figura 7), en los que se representa el uso ético de la IA y su relación intrínseca con los requerimientos normativos sólidos para la utilización responsable, confiable y transparente de la tecnología. Se evidencia la necesidad de una normativa adecuada para mitigar los riesgos, mediante modelos didácticos que promuevan un equilibrio entre la innovación tecnológica y los principios éticos con los cuales regir su uso en la ES.


Figura 7
Co-ocurrencia de códigos en los documentos

Análisis bibliométrico

Tras realizar el análisis descriptivo del impacto de los artículos seleccionados y con el objetivo de identificar las posibles tendencias en la producción científica de los últimos casi cinco años (2020 - mayo 2024), se llevó a cabo un estudio de las relaciones entre sus palabras clave. Para ello, se utilizó la técnica de análisis de redes (Knoke y Yang, 2008), empleando el programa VOSviewer. De los 28 estudios que conforman la muestra, se extrajeron 90 palabras clave, cada una con un índice de co-ocurrencia de al menos dos veces. En el mapa de relaciones etiquetado (Figura 8), los nueve clústeres o nodos de palabras clave se relacionan, en función del grado de similitud, mostrando cómo se interrelacionan entre sí.

El clúster rojo se centra en los enfoques de investigación que abordan la relación entre ética y tecnología, especialmente en los campos de la investigación con seres humanos, como la educación y la medicina. Aumenta el interés por usar estas tecnologías en los entornos educativos, mostrando el papel de las plataformas digitales tanto en la comunicación de hallazgos como en la integración de la comunidad educativa.

El clúster verde hace foco en͏ el uso de la tecnología en ES para ayudar a promover inclusión en este nivel, especialmente de personas con discapacidad. Enfatiza el desarrollo de tecnologías de asistencia para mejorar una educación inclusiva, enfrentando desafíos éticos en su diseño y acceso para evitar desigualdades.͏

El clúster azul puntualiza los retos que presenta la transformación digital en los sectores de la investigación y la educación, subrayando el papel de la IA como impulsor de cambio. Destaca la necesidad de asegurar la autonomía y la integridad académica, adoptando un enfoque que prioriza al ser humano.

El clúster amarillo aborda la transformación que la IA y el análisis de grandes datos están provocando en el sector educativo, puntualmente en la optimización de los procesos de enseñanza y aprendizaje. Estas tecnologías permiten la personalización del contenido, ajustándose a las necesidades específicas de cada alumno, con un énfasis particular en el uso de robots sociales para potenciar la experiencia educativa.

El clúster morado comprende los retos y las oportunidades que los modelos de IA ofrecen en el sector educativo, con atención a la integridad académica y a la evaluación del aprendizaje. La implementación de esta tecnología ha incrementado las inquietudes relacionadas con el plagio, lo que requiere la creación de métodos de evaluación innovadores que desalienten esta conducta y fomenten un uso responsable.

El clúster turquesa abarca el ámbito legal, enfatiza el papel de la IA en la creación de herramientas de digitalización y automatización que, en el ámbito educativo, ofrecen múltiples oportunidades para mejorar la accesibilidad y adaptar la enseñanza a las necesidades individuales. No obstante, también resalta la importancia de asumir una responsabilidad en la implementación de estas tecnologías, para reducir los sesgos que podrían condicionar desfavorablemente los resultados de aprendizaje.

El clúster naranja analiza la relación entre la utilización de algoritmos, la supervisión en línea y los sistemas informáticos en los laboratorios de la ES, focaliza la dificultad de desarrollar y emplear estas tecnologías de manera ética.

El clúster marrón se refiere a la toma de decisiones fundamentadas en datos y algoritmos, considerando además posibles efectos adversos, tales como las implicaciones éticas y los sesgos que pueden surgir.

Finalmente, el clúster rosa examina el impacto de la IA en el acceso y uso de los recursos académicos, al mismo tiempo que aborda los desafíos de adaptación y privacidad que surgen con su implementación.


Figura 8
Mapa de relaciones etiquetado

Atendiendo al tamaño de las etiquetas de las palabras clave y al color de las diferentes zonas de aproximación, se observa el nivel de relevancia de los estudios a través del mapa de visualización de densidad en la Figura 9.

De esta manera, en la zona central del mapa (color amarillo) se sitúan, por su importancia y co-ocurrencia, las palabras clave pertenecientes a la línea de investigación relacionada con la IA, la ES y la ética, entre las que se encuentran: AI, high education, ethics, online proctoring, article, ethics research, disability, entre otras.

Por otro lado, la zona periférica del mapa (color próximo al verde) muestra la menor densidad de co-ocurrencia de los términos clave. Se localizan expresiones más específicas en torno a los que se han direccionado las investigaciones analizadas. Se distinguen palabras como: academic resources, automatization, digitization, privacy, students, distance-based higher education, data set, algorithm.


Figura 9
Mapa de densidades

DISCUSIÓN

El propósito de este estudio ha sido sintetizar aquellas investigaciones que se hacen eco del uso de la IA en el ámbito de la ES, ante los desafíos éticos emergentes y/o riesgos potenciales. Los estudios generados al respecto arrojan luz sobre cómo enfrentar el desafío de equilibrar la innovación tecnológica con la ética, la inclusión y la sostenibilidad. Cuatro parecen ser las claves: (1) la superación de desafíos y/o riesgos éticos a través del (2) diseño y desarrollo de normativas que aseguren un (3) uso cívico y responsable de la IA en los contextos académicos, y promuevan, a su vez, la (4) implementación de prácticas educativas y/o modelos didácticos éticos, que inciten al pensamiento crítico tanto en su uso como en su enseñanza.

No obstante, los resultados obtenidos en este trabajo advierten una necesidad, con algunos avances, en torno a las medidas normativas y éticas existentes sobre la IA, propuestas por las propias universidades, entre otros órganos competentes. Si bien las universidades han estado desarrollando normativas para guiar su integración y abordar los desafíos más relevantes (Michel-Villarreal et al., 2023) –lo cual ha supuesto nuevas oportunidades y posibilidades de repensar la formación de los futuros profesionales (Dai et al., 2024)–, aún queda camino por recorrer. En este punto, las instituciones de ES quedan convocadas a desarrollar sus respectivas políticas de orientación, administración y regulación de la IA (UNESCO, 2023). La existencia de estos marcos normativos fomenta un entorno académico transparente y de apoyo, que educa y guía a los estudiantes para hacer un uso adecuado y confiable de la IA, y promueve su integración en los procesos educativos.

De cara al diseño de estos marcos normativos, Nguyen et al. (2023) recogen en su trabajo siete principios que deberían contemplarse en el desarrollo de cualquier normativa sobre IA en educación (IAED, como refieren los autores): 1) gobernanza y administración; 2) transparencia y responsabilidad; 3) sostenibilidad y proporcionalidad; 4) privacidad; 5) seguridad y protección; 6) inclusión; 7) IAED centrada en el ser humano.

Recientemente, en España, el Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado del Ministerio de Educación, Formación Profesional y Deportes ha publicado una guía sobre el uso de la IA en el ámbito educativo. En concreto, se recoge un decálogo para atender a los principales dilemas éticos hallados (Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado [INTEF], 2024, p. 20): “Integración respetuosa y sostenible; Transparencia y conciencia; Equidad y no discriminación; Robustez y seguridad; Privacidad y protección de datos; Supervisión humana; Compatibilidad humana; Promoción del bienestar social; Aprendizaje colaborativo; Reflexión y anticipación”.

CONCLUSIONES

A raíz de los datos obtenidos, se puede identificar una serie de conclusiones, que dan respuesta a las preguntas de investigación que han guiado el trabajo.

Atendiendo a la PI1, los diferentes estudios reflexionan ante la transición de adopción de la IA en las instituciones de ES y cómo estas enfrentan desafíos como la integridad académica; se advierte que el uso desregulado de la herramienta conlleva consecuencias negativas como sobrecarga o dependencia, aumento de la ansiedad, falta de autoeficacia y promoción de infracciones (plagio, falsificación). Ante este escenario, se sugiere el diseño e implementación de Códigos de Ética Académica, que definen normas y penalizan acciones como el plagio y la alteración de datos (Cornejo-Plaza y Cippitani, 2023), así como el establecimiento de políticas de empleo responsable de la IA, garantizando su uso en entornos que respeten la privacidad, equidad y transparencia (Aler et al., 2024).

Respecto a la PI2, se detectó una tendencia en cuanto a las medidas normativas y éticas que han sugerido las universidades, que se alinean a políticas internacionales como las de la Unión Europea y la UNESCO (Cornejo-Plaza y Cippitani, 2023), para adaptar sus posibles normativas. Sin embargo, la aplicación de los reglamentos implica promover una responsabilidad compartida entre docentes y estudiantes para impulsar el pensamiento crítico en la toma de decisiones. Al respecto, diferentes instituciones han implementado cursos y talleres para reforzar la integridad académica, el uso ético de la IA, competencias digitales, buenas prácticas de investigación (Cordón García, 2023) y la creación de Comités de Ética (Piedra Alegría, 2023). Al tiempo que se han implementado evaluaciones de impacto ético en proyectos de IA para prever sus implicaciones sociales y culturales (Moya y Eaton, 2023; Yusuf et al., 2024) y para asegurar la diversidad e inclusión (Cox, 2021). Ejemplos muy específicos de recomendaciones éticas son las que ha sugerido el TEC de Monterrey en México (https://bit.ly/4317udp), donde se han establecido nueve principios para el uso de la IA por docentes y estudiantes. Sucintamente, estas normativas buscan sostener estándares académicos y fomentar una cultura de ética y responsabilidad en las universidades.

Considerando la PI3, los datos analizados indican un rol protagónico de las universidades para propiciar, gestionar, evaluar y actualizar marcos relevantes y eficaces, capaces de anticiparse a los problemas y proponer estándares. Ello engloba, asimismo, al ámbito de “buenas prácticas” en investigación y, en correspondencia con ello, la integración de la capacitación en competencias digitales, la creación de comités de ética y la realización de la evaluación del impacto ético en proyectos de IA. En efecto, el foco de atención está puesto en mitigar los riesgos de deshonestidad académica y promover un uso responsable de estas herramientas. Un ejemplo de ello se encuentra en el último boletín publicado por el Consejo Interuniversitario Nacional de Argentina (https://www.cin.edu.ar/), que asume a la IA como un recurso educativo válido en la ES.

Finalmente, en torno a la PI4, se concluye que la incorporación de la IA en la ES no solo se centra en la regulación, sino también en la promoción del uso adecuado y la reflexión crítica de su impacto en los diferentes sectores de la sociedad. Aparecen así modelos didácticos para integrar la IA en la práctica docente de modo que logren inspirar confianza.

La integración de la IA en la ES requiere no solo un enfoque regulatorio, sino también una reflexión crítica sobre su impacto en la formación académico-profesional, la creación de conocimiento y el desarrollo de competencias digitales. Las universidades están llamadas a prepararse para formar profesionales que utilicen estas tecnologías de manera responsable y colaborativa, integrándose en sus estrategias didácticas sin comprometer los principios éticos fundamentales. Este desafío implica un esfuerzo conjunto de la comunidad académica para asegurar que la adopción de la IA se haga de manera reflexiva, ética y alineada con los objetivos de calidad educativa.

A través de esta revisión se ha pretendido comprender el alcance y la naturaleza de las políticas existentes, así como identificar prácticas prometedoras, brechas y desafíos (Pham et al., 2014). No obstante, el estudio no está exento de limitaciones. Cabe mencionar, fundamentalmente, la relativa a la muestra; la mayoría de la literatura revisada y analizada procede de fuentes europeas, que pueden reflejar marcos culturales, regulatorios y educativos específicos, exclusivos de esa zona. Y esta centralización geográfica –o sesgo geográfico– puede afectar significativamente a la generalización de los hallazgos a un contexto global más amplio. Atendiendo a esta limitación, y a sus posibles implicaciones, sería posible mejorar la aplicabilidad de las propuestas, señaladas más arriba, en contextos internacionales realizando más estudios que incluyeran diversas perspectivas geográficas y culturales.

En conclusión, si bien este estudio ofrece información rigurosa sobre el uso ético de la IA en el contexto académico, sus limitaciones con respecto al enfoque geográfico de la muestra exigen cautela a la hora de generalizar los hallazgos. Abordar estas limitaciones, por ejemplo, mediante una investigación inclusiva, puede ayudar a garantizar que las propuestas sean relevantes y efectivas en diferentes contextos internacionales. Sea como fuere, el reto principal será fomentar un entorno universitario que priorice las consideraciones éticas y, a la vez, incorpore los últimos avances tecnológicos.

REFERENCIAS

Aler, A., Mora, M. y Nieves, J. C. (2024). How to teach responsible AI in Higher Education: challenges and opportunities. Ethics and Information Technology, 26(3). https://doi.org/10.1007/s10676-023-09733-7

Avello-Sáez, D. y Estrada-Palavecino, L. (2023). ChatGPT e seu impacto na formação de competências para terapeutas ocupacionais: uma reflexão sobre a integridade acadêmica. Cadernos Brasileiros de Terapia Ocupacional, 31, e3534. https://doi.org/10.1590/2526-8910.ctoen271035343

Baldrich, K. y Domínguez, J. C. (2024). El uso de ChatGPT en la escritura académica: un estudio de caso en educación. Pixel-Bit. Revista de Medios y Educación, 71, 141-157. https://doi.org/10.12795/pixelbit.103527

Chan, C. K. Y. (2023). A comprehensive AI policy education framework for university teaching and learning. International Journal of Educational Technology in Higher Education, 20(1), 38. https://doi.org/10.1186/s41239-023-00408-3

Chan, C. K. Y. y Hu, W. (2023). Students' voices on generative AI: Perceptions, benefits, and challenges in higher education. International Journal of Educational Technology in Higher Education, 20(43). https://doi.org/10.1186/s41239-023-00411-8

Cisneros, J. D. D., Limo, F. A. F., Tinoco, L. M. B., Aybar, H. N. C., Alarcon, V. G. C., Romero, M. Á. M. y Flores, R. A. R. (2023). Adjustment of Peruvian university students to artificial intelligence. Arts Educa, 36, 237-248. https://artseduca.com/article-detail/?id=145

Comas Forgas, R., Cerdá-Navarro, A., Touza Garma, C. y Moreno Herrera, L. (2023). Prevalencia y factores asociados al plagio académico en estudiantes de nuevo ingreso de Trabajo Social y Educación Social: un análisis empírico. RELIEVE. Revista Electrónica de Investigación y Evaluación Educativa, 29(2), 1-20. https://doi.org/10.30827/relieve.v29i2.29055

Cordón García, O. (2023). Inteligencia Artificial en Educación Superior: Oportunidades y Riesgos. RiiTE. Revista interuniversitaria de investigación en Tecnología Educativa, (15), 16-27. https://doi.org/10.6018/riite.591581

Cornejo-Plaza, I. y Cippitani, R. (2023). Consideraciones éticas y jurídicas de la Inteligencia Artificial en Educación Superior: desafíos y perspectivas. Revista de Educación y Derecho, (28). https://doi.org/10.1344/REYD2023.28.43935

Cox, A. M. (2021). Exploring the impact of Artificial Intelligence and robots on higher education through literature-based design fictions. International Journal of Educational Technology in Higher Education, 18(3). https://doi.org/10.1186/s41239-020-00237-8

Dai, Y., Lai, S., Lim, C. P. y Liu, A. (2024). University policies on generative AI in Asia: promising practices, gaps, and future directions. Journal of Asian Public Policy, 1-22. https://doi.org/10.1080/17516234.2024.2379070

Dávila Morán, R. C. y Agüero Corzo, E. C. (2023). Desafíos éticos de la inteligencia artificial: implicaciones para la sociedad y la economía. Conrado, 19(94), 137-144.

Flores, J. M. y García, F. J. (2023). Reflexiones sobre la ética, potencialidades y retos de la Inteligencia Artificial en el marco de la Educación de Calidad (ODS4). Comunicar, 31(74), 37-47. https://doi.org/10.3916/C74-2023-03

Fornasier, M. de O. (2021). Artificial intelligence and democratic rule of law. Revista de Estudos Constitucionais, Hermenêutica e Teoria do Direito (RECHTD), 13(3), 351–369. https://doi.org/10.4013/rechtd.2021.133.06

Gairín, J. y Alguacil, L. (Coords.). (2024). La gestión de la inteligencia artificial en los contextos universitarios iberoamericanos. EDO-Serveis Universitat Autònoma de Barcelona. https://ddd.uab.cat/record/300143

Gallent Torres, C., Zapata González, A. y Ortego Hernando, J. L. (2023). El impacto de la inteligencia artificial generativa en educación superior: una mirada desde la ética y la integridad académica. RELIEVE - Revista Electrónica de Investigación y Evaluación Educativa, 29(2). https://doi.org/10.30827/relieve.v29i2.29134

García-Fuentes, O., Raposo-Rivas, M., Martínez-Figueira, M. E. y Sarmiento-Campos, J. A. (2024). Análisis de vídeo-anotaciones sobre el uso de recursos tecnológicos durante el Prácticum. Pixel-Bit. Revista de Medios y Educación, 70, 143-161. https://doi.org/10.12795/pixelbit.102048

García Peñalvo, F. J., Llorens-Largo, F. y Vidal, J. (2024). The new reality of education in the face of advances in generative artificial intelligence. RIED. Revista Iberoamericana de Educación a Distancia, 27(1), 9-39. https://doi.org/10.5944/ried.27.1.37716

Gibert Delgado, R. P., Gorina Sánchez, A., Reyes-Palau, N. C., Tapia-Sosa, E. V. y Siza Moposita, S. F. (2023). Educación 4.0: Enfoque innovador apoyado en la inteligencia artificial para la educación superior. Universidad y Sociedad, 15(6), 60-74. https://rus.ucf.edu.cu/index.php/rus/article/view/4122/4032

González Alcaide, G. (2024). 1 d.C. (después de ChatGPT). Inteligencia artificial generativa en la educación superior. Publicaciones de la Universitat de València. https://puv.uv.es/1-d-c-despues-de-chatgpt.html

Guissepe Hernández, Y. K., Hernández Chávez, W. J. y Moucharrafieh Moucharafieh, S. (2021). Orientaciones éticas en la educación superior para el uso de la inteligencia artificial en ambientes disruptivos. REDHECS. Revista Electrónica de Humanidades, Educación y Comunicación Social, 29(19), 69-92. https://ojs2.urbe.edu/index.php/redhecs/article/view/4423

Henry, J. V. y Oliver, M. (2022). Who Will Watch the Watchmen? The Ethico-political Arrangements of Algorithmic Proctoring for Academic Integrity. Postdigital Science and Education, 4(2), 330-353. https://doi.org/10.1007/s42438-021-00273-1

Holmes, W., Iniesto, F., Anastopoulou, S. y Boticario, J. G. (2023). Stakeholder perspectives on the ethics of AI in distance-based higher education. International Review of Research in Open and Distributed Learning, 24(2), 96-117. https://doi.org/10.19173/irrodl.v24i2.6089

Huang, C., Samek, T. y Shiri, A. (2021). AI and ethics: Ethical and educational perspectives for LIS. Journal of Education for Library and Information Science, 62(4), 351-365. https://doi.org/10.3138/jelis-62-4-2020-0106

Humble, N. y Mozelius, P. (2022). The threat, hype, and promise of artificial intelligence in education. Discover Artificial Intelligence, 2(1), 22. https://doi.org/10.1007/s44163-022-00039-z

Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado. (2024). Guía sobre el uso de la Inteligencia Artificial en el ámbito educativo. Ministerio de Educación, Formación Profesional y Deportes. https://code.intef.es/wp-content/uploads/2024/07/Gu%C3%ADa-sobre-el-uso-de-la-IA-en-el-ámbito-educativo-INTEF_2024.pdf

Ivanov, S. (2023). The dark side of artificial intelligence in higher education. The Service Industries Journal, 43(15-16), 1055-1082. https://doi.org/10.1080/02642069.2023.2258799

Knoke, D. y Yang, S. (2008). Social network analysis. Sage. https://doi.org/10.4135/9781412985864

Kwak, Y., Ahn, J. W. y Seo, Y. H. (2022). Influence of AI ethics awareness, attitude, anxiety, and self-efficacy on nursing students' behavioral intentions. BMC Nursing, 21(1), 267. https://doi.org/10.1186/s12912-022-01048-0

López-Regalado, O., Núñez-Rojas, N., López-Gil, O. R. y Sánchez-Rodríguez, J. (2024). Análisis del uso de la inteligencia artificial en la educación universitaria: una revisión sistemática. Pixel-Bit. Revista de Medios y Educación, 70, 97-122. https://doi.org/10.12795/pixelbit.106336

Lopezosa, C., Codina, L., Pont-Sorribes, C. y Vállez, M. (2023). Use of generative artificial intelligence in the training of journalists: challenges, uses and training proposals. Profesional de la información, 32(4), e320408. https://doi.org/10.3145/epi.2023.jul.08

Marín, V. I. y Tur, G. (2024). Ethical Issues in the Use of Technologies in Education Settings: A Scoping Review. Education in the Knowledge Society, 25, e31301. https://doi.org/10.14201/eks.31301

McGrath, C., Pargman, T. C., Juth, N. y Palmgren, P. J. (2023). University teachers' perceptions of responsibility and artificial intelligence in higher education. An experimental philosophical study. Computers and Education: Artificial Intelligence, 4, 100139. https://doi.org/10.1016/j.caeai.2023.100139

Mendoza, D. S. O. E. (2021). Las revisiones sistemáticas como proceso de selección artificial del conocimiento científico en el área de salud. Revista de Ciencias Sociales, 30(59). https://doi.org/10.20983/noesis.2021.1.9

Michel-Villarreal, R., Vilalta-Perdomo, E., Salinas-Navarro, D. E., Thierry-Aguilera, R. y Gerardou, F. S. (2023). Challenges and Opportunities of Generative AI for Higher Education as Explained by ChatGPT. Education Sciences, 13(9), 856. https://doi.org/10.3390/educsci13090856

Mora Naranjo, B. M., Aroca Izurieta, C. E., Tiban Leica, L. R., Sánchez Morrillo, C. F. y Jiménez Salazar, A. (2023). Ética y Responsabilidad en la implementación de la Inteligencia Artificial en la educación. Ciencia Latina. Revista Científica Multidisciplinar, 7(6), 2054-2076. https://doi.org/10.37811/cl_rcm.v7i6.8833

Moya, B. A. y Eaton, S. E. (2023). Examinando Recomendaciones para el Uso de la Inteligencia Artificial Generativa con Integridad desde una Lente de Enseñanza y Aprendizaje. RELIEVE. Revista Electrónica de Investigación y Evaluación Educativa, 29(2). https://doi.org/10.30827/relieve.v29i2.29295

Nguyen, A., Ngo, H. N., Hong, Y., Dang, B. y Nguyen, B. P. T. (2023). Ethical principles for artificial intelligence in education. Education and Information Technologies, 28(4), 4221-4241. https://doi.org/10.1007/s10639-022-11316-w

Page, M. J., McKenzie, J. E., Bossuyt, P. M., Boutron, I., Hoffmann, T. C., Mulrow, C. D., Shamseer, L., Tetzlaff, J. M., Akl, E. A., Brennan, S. E., Chou, R., Glanville, J., Grimshaw, J. M., Hróbjartsson, A., Lalu, M. M., Li, T., Loder, E. W., Mayo-Wilson, E., McDonald, S., … Moher, D. (2021). The PRISMA 2020 statement: An updated guideline for reporting systematic reviews. BMJ, 372(71). https://doi.org/10.1136/bmj.n71

Pham, M. T., Rajić, A., Greig, J. D., Sargeant, J. M., Papadopoulos, A. y McEwen, S. A. (2014). A scoping review of scoping reviews: Advancing the approach and enhancing the consistency. Research Synthesis Methods, 5(4), 371-385. https://doi.org/10.1002/jrsm.1123

Piedra Alegría, J. (2023). Anotaciones iniciales para una reflexión ética sobre la regulación de la Inteligencia Artificial en la Unión Europea. Revista de Derecho, (28), e3264. https://doi.org/10.22235/rd28.3264

Pierrès, O., Christen, M., Schmitt-Koopmann, F. M. y Darvishy, A. (2024). Could the use of AI in Higher Education hinder students with disabilities? A scoping review. IEEE Access, 12, 27810-27828. https://doi.org/10.1109/ACCESS.2024.3365368

Rodríguez-Argueta, C. M. (2020). Tendencias de la oferta en educación superior en El Salvador - Relevancia de las carreras en Ciencia, Tecnología, Ingenierías y Matemáticas (por sus siglas en inglés STEM) ante la nueva economía digital. Entorno, (70), 22-32. https://doi.org/10.5377/entorno.v0i69.9559

Ruiz Bueno, A. (2021). El contenido y su análisis: enfoque y proceso. Universitat de Barcelona. http://hdl.handle.net/2445/179232

Samuel, G. y Derrick, G. (2020). Defining ethical standards for the application of digital tools to population health research. Bulletin of the World Health Organization, 98(4), 239. https://doi.org/10.2471/BLT.19.237370

Sánchez, M. M. (2023). La inteligencia artificial como recurso docente: usos y posibilidades para el profesorado. Educar, 60(1), 33-47. https://doi.org/10.5565/rev/educar.1810

Seldon, A., Lakhani, P. y Luckin, R. (2020). The Ethical Framework for AI in Education. The Institute for Ethical AI in Education. https://bit.ly/3Q9yobB

Svaricek, R. (2024). Sceptical teacher and silent students: a case study of teacher changes during a teacher professional development programme. Journal of Education for Teaching, 50(2), 310-328. https://doi.org/10.1080/02607476.2023.2296459

Torres-Fonseca, A. y López-Hernández, D. (2014). Criterios para publicar artículos de revisión sistemática. Revista de Especialidades Médico-quirúrgicas, 19(3), 393-399.

UNESCO. (2023). UNESCO survey: Less than 10% of schools and universities have formal guidance on AI. UNESCO. https://www.unesco.org/en/articles/unesco-survey-less-10-schools-and-universities-have-formal-guidance-ai

Vélez-Rivera, R., Muñoz-Álvarez, D., Leal-Orellana, P. y Ruiz-Garrido, A. (2024). Uso de Inteligencia Artificial en educación superior y sus implicancias éticas. Mapeo sistemático de literatura. Hachetetepé. Revista científica de Educación y Comunicación, (28). https://doi.org/10.25267/Hachetetepe.2024.i28.1105

Villegas, V. y Delgado, M. (2024). Inteligencia artificial: revolución educativa innovadora en la Educación Superior. Pixel-Bit. Revista de Medios y Educación, 71, 159-177. https://doi.org/10.12795/pixelbit.107760

Yu, L. y Yu, Z. (2023). Qualitative and quantitative analyses of artificial intelligence ethics in education using VOSviewer and CitNetExplorer. Frontiers in Psychology, 14, 1061778. https://doi.org/10.3389/fpsyg.2023.1061778

Yusuf, A., Pervin, N. y Román-González, M. (2024). Generative AI and the future of higher education: a threat to academic integrity or reformation? Evidence from multicultural perspectives. International Journal of Educational Technology in Higher Education, 21(21). https://doi.org/10.1186/s41239-024-00453-6

ANEXO

Tabla 1
Relación de referencias analizadas

Información adicional

Cómo citar: González-Fernández, M. O., Romero-López, M. A., Sgreccia, N. F., & Latorre Medina, M. J. (2025). Normative framework for ethical and trustworthy AI in higher education: state of the art. [Marcos normativos para una IA ética y confiable en la educación superior: estado de la cuestión]. RIED-Revista Iberoamericana de Educación a Distancia, 28(2), 181-208. https://doi.org/10.5944/ried.28.2.43511

Información adicional

redalyc-journal-id: 3314



Buscar:
Ir a la Página
IR
Visor de artículos científicos generados a partir de XML-JATS por