Servicios
Descargas
Buscar
Idiomas
P. Completa
La responsabilidad civil y la ética en la inteligencia artificial: una revisión sistemática de las ideas del período 2018-20231
Tatiana Dulima Zabala Leal; Carla Angélica Gómez Macfarland
Tatiana Dulima Zabala Leal; Carla Angélica Gómez Macfarland
La responsabilidad civil y la ética en la inteligencia artificial: una revisión sistemática de las ideas del período 2018-20231
Civil Liability and Ethics in Artificial Intelligence: A Systematic Review of Ideas from the Period 2018- 2023
Responsabilidade e ética na inteligência artificial: uma revisão sistemática das ideias de 2018-2023
Revista IUSTA, núm. 60, pp. 66-93, 2024
Universidad Santo Tomás
resúmenes
secciones
referencias
imágenes

Resumen: La investigación revisó estudios teóricos publicados entre 2019 y 2022 sobre responsabilidad civil y ética en el desarrollo de inteligencia artificial (IA), analizando 490 documentos de diversas bases de datos. Se identificó la necesidad de establecer mecanismos regulatorios para garantizar la rendición de cuentas en el desarrollo de aplicaciones de IA. Como respuesta, se propone la implementación de auditorías internas y externas con informes accesibles para los usuarios. Esto contribuiría a aumentar la confiabilidad de las aplicaciones, especialmente aquellas con potencial para impactar los derechos fundamentales. El objetivo del manuscrito es destacar la importancia de estos mecanismos regulatorios para abordar los desafíos éticos y legales asociados con el desarrollo de IA, promoviendo así una mayor transparencia y responsabilidad en este campo en rápida evolución.

Palabras clave: Inteligencia artificial, responsabilidad civil, ética, personería electrónica, derechos humanos.

Abstract: The research reviewed theoretical studies published between 2019 and 2022 on civil liability and ethics in the development of artificial intelligence (AI), analyzing 490 documents from various databases. The need to establish regulatory mechanisms to ensure accountability in the development of AI applications was identified. In response, the implementation of internal and external audits with reports accessible to users is proposed. This would contribute to increasing the reliability of applications, especially those with the potential to impact fundamental rights. The aim of the manuscript is to highlight the importance of these regulatory mechanisms in addressing the ethical and legal challenges associated with the development of AI, thus promoting greater transparency and accountability in this rapidly evolving field.

Keywords: Artificial intelligence, civil liability, ethics, electronic legal status, human rights.

Resumo: A investigação analisou estudos teóricos publicados entre 2019 e 2022 sobre responsabilidade civil e ética no desenvolvimento da inteligência artificial (IA), analisando 490 artigos de várias bases de dados. Foi identificada a necessidade de criar mecanismos regulamentares para garantir a responsabilização no desenvolvimento de aplicações de IA. Em resposta, propõe-se a realização de auditorias internas e externas com relatórios acessíveis aos utilizadores. Tal contribuiria para aumentar a fiabilidade das candidaturas, especialmente as que podem ter impacto nos direitos fundamentais. O objetivo do manuscrito é realçar a importância destes mecanismos regulamentares na abordagem dos desafios éticos e jurídicos associados ao desenvolvimento da IA, promovendo assim uma maior transparência e responsabilidade neste domínio em rápida evolução.

Palavras-chave: Inteligência artificial, responsabilidade civil, ética, personalidade eletrónica, direitos humanos.

Carátula del artículo

Artículos

La responsabilidad civil y la ética en la inteligencia artificial: una revisión sistemática de las ideas del período 2018-20231

Civil Liability and Ethics in Artificial Intelligence: A Systematic Review of Ideas from the Period 2018- 2023

Responsabilidade e ética na inteligência artificial: uma revisão sistemática das ideias de 2018-2023

Tatiana Dulima Zabala Leal2
Institución Universitaria Politécnico Grancolombiano, Colombia
Carla Angélica Gómez Macfarland3
Senado de la República Mexicana, México
Revista IUSTA, núm. 60, pp. 66-93, 2024
Universidad Santo Tomás

Recepção: 20 Outubro 2023

Aprovação: 06 Dezembro 2023

Introducción

En los últimos años, la Inteligencia Artificial (IA) ha desempeñado un papel crucial tanto en naciones desarrolladas como en aquellas en proceso de desarrollo. En las sociedades más avanzadas, su utilización se considera fundamental para mantener la primacía en la implementación de algoritmos de aprendizaje automático en diversos sectores. Sin embargo, este progreso ha suscitado un intenso debate a nivel global. El vertiginoso crecimiento en la creación de aplicaciones de IA contrasta con la lenta formulación de marcos regulatorios en distintos ámbitos (institucional, estatal, global y empresarial). Esta disparidad plantea desafíos en la gestión ética de la IA. Por lo tanto, en medio de este debate sobre el desarrollo de la IA, es imperativo promover una conciencia tecnológica que tenga una base teórica crítica en los derechos, al mismo tiempo que sea adaptable y receptiva a los avances constantes en ciencia y tecnología (Habermas, 2002).

La literatura ha subrayado la necesidad de desarrollar una conciencia ética simultáneamente al progreso de las aplicaciones de IA, en lugar de abordarla después. Esto se hace para prevenir conflictos como los señalados por filósofos como Immanuel Kant, quienes advierten que “los avances técnicos siempre se anticipan a las orientaciones morales con respecto a la utilización de estos generando conflictos” (Cortina Orts, 2019). Además, organismos internacionales como el Consejo Económico y Social han señalado en un dictamen de 2018 sobre inteligencia artificial los posibles efectos controvertidos y prácticos en el ámbito laboral derivados de la inclusión de la IA (Goñi Sein, 2019).

Desde una perspectiva social, el rápido desarrollo tecnológico ha acelerado los procesos de transformación social, evidenciando la necesidad de adaptar los sistemas normativos a esta realidad. Las sociedades, en constante cambio, han incorporado nuevos riesgos y valores debido a fenómenos como la globalización, el cambio climático, internet y las redes sociales. Esta intensa interrelación entre la sociedad y la tecnología ha generado problemas jurídicos complejos a nivel global, aumentando la brecha entre los procesos de transformación social y el derecho (Martínez Martínez y Zagrebelsky, 2009); Parra y Concha, 2021). La disrupción tecnológica, característica del siglo XXI, no se limita al lanzamiento de nuevos dispositivos, sino que implica innovación acelerada, sofisticación de componentes, calidad de productos y alcance global sin límites temporales ni geográficos (Azpiazu y Bayón, 2022).

Los avances en la regulación de la IA abordan cuestiones como la protección de datos y la contratación electrónica, lo que exige adaptar el derecho a una sociedad tecnológica digitalizada y virtual. El sistema legislativo debe enfrentar estos nuevos desafíos mediante la creación de sistemas jurídicos flexibles y dinámicos, que reflejen los contenidos, tiempos y relaciones sociales actuales y futuras (Parra y Concha, 2021). Ante esta necesidad, surge la importancia de un discurso que integre ética y responsabilidad, considerando diversos aspectos que rodean el desarrollo de las aplicaciones de la IA y evitando que las lógicas tecnológicas y de mercado desvíen la atención de aspectos cruciales para el desarrollo comunitario.

En este contexto, la comunidad se enfrenta a un tema de estudio caracterizado por su secreto en funcionamiento, identidad y objetivos, aunque existe una abundante producción científica y literaria. En un momento marcado por cambios sociales debido a la pandemia COVID-19 y a diversas perspectivas comunitarias, así como la renovación de métodos de investigación para abordar objetos de estudio en constante transformación. Por ello, surgen los metaestudios como herramientas para hacer una síntesis del conocimiento científico en un área determinada, identificando sus deficiencias. El presente estudio se propone revisar e interpretar estudios teóricos publicados entre 2019 y 2022 sobre la responsabilidad civil y la ética en el desarrollo de la IA.

Método

El enfoque utilizado para esta revisión sistemática es cualitativo, ya que se enfoca en la interpretación histórica de estudios relacionados con la responsabilidad civil y la ética en la IA de los últimos cinco años. Para cumplir con este propósito, se empleó el método de análisis documental, complementado con la técnica de revisión sistemática de literatura basada en la metodología PRISMA, que se detallará más adelante.

Procedimiento y estrategias de búsqueda

Se llevó a cabo una revisión sistemática de literatura siguiendo las pautas de la metodología PRISMA, según la Guía formulada por Page Mathew en 2021. Se cumplieron con los puntos 1-9, 16, 17, 23 y 26 (Mathew et ál., 2021). La búsqueda de artículos abarcó el período 2018-2023 en cinco bases de datos, incluyendo Biomedical Index (10), Complementary Index (80), Computers & Applied Sciences Complete (100), Dialnet (20), Directory of Open Access Journals (60), Fuente Académica Premier (140), Gale Academic One File (30), Legal Collection (10), Scopus (20), EBSCO (90) y Suplemental Index (30), con un total de 490 documentos revisados.

De los 490 artículos revisados, se aplicaron criterios de exclusión que incluyeron la limitación de publicaciones anteriores a 2019, el formato de papers, tesis de grado o libros, y la pertenencia de las revistas a categorías Q, A, B y C. No se establecieron restricciones en cuanto al idioma de publicación. Este proceso resultó en la selección de 45 documentos en español y 5 en inglés. Las ecuaciones de búsqueda utilizadas fueron: “inteligencia artificial” AND “ética”; “inteligencia artificial” AND “responsabilidad civil”; e “inteligencia artificial” AND “legislación”.

Selección de los estudios

Se realizó un proceso de selección por etapas como se puede observar en la figura1. El punto de partida fue la etapa de identificación, en la que se obtuvieron 490 documentos. En esta etapa se utilizaron los criterios de inclusión y exclusión descritos en la figura 1.


Figura 1.
Criterios de inclusión y exclusión
Fuente: elaboración propia.

En la segunda fase, se procedió a la selección de los artículos para el estudio. Se verificaron el ISSN y la clasificación de la revista, y se eliminaron los artículos duplicados, reduciendo el número inicial de 362 a un total de 180 documentos. Durante esta fase, se revisaron detalladamente los títulos, resúmenes, palabras clave y metodología implementada en cada artículo, descartando aquellos que no estuvieran directamente relacionados con los objetivos de la investigación.

En la fase de inclusión, se llevó a cabo una lectura completa de los documentos seleccionados previamente. Se descartaron aquellos artículos cuyos resultados no presentaban coherencia con el objetivo planteado para el estudio. Estas tres etapas bien definidas permitieron obtener un conjunto de 180 documentos aptos y relevantes para llevar a cabo una investigación sólida y enfocada en los temas de interés.


Figura 2.
Diagrama y flujo PRISMA: proceso de identificación y selección de la literatura
Fuente: elaboración propia.

Resultados

Después de completar el proceso de selección, se llevó a cabo la síntesis de los resultados con el fin de comparar los diferentes estudios incluidos en el análisis. Este proceso se basó en la consideración de varios datos relevantes, detallados en las tablas 1 y 2: autores, año de publicación, metodología utilizada, objetivo de cada estudio, resultados obtenidos y conclusiones.

La información recopilada en estas tablas permitió un análisis comparativo completo y estructurado, ofreciendo una visión general de los diversos enfoques, hallazgos y conclusiones de los estudios seleccionados. Esta fase fue fundamental para identificar similitudes, diferencias y tendencias en la investigación abordada, proporcionando una base sólida para la interpretación y discusión de los resultados en el contexto del objetivo de la investigación.

De los numerosos artículos revisados, se seleccionaron 52 pertinentes para el análisis de la responsabilidad civil y la ética en el desarrollo de la IA, todos ellos optando por la estrategia metodológica de revisión documental. Los detalles de las principales características de estos 52 artículos se encuentran presentados en las figuras 1, 2, 3 y 4. Este conjunto de artículos constituye la base del análisis exhaustivo realizado en la revisión sistemática, proporcionando una visión clara y precisa sobre la investigación relacionada con la responsabilidad civil y ética en el contexto de la inteligencia artificial.

En la búsqueda de artículos para esta investigación, se utilizaron diversas bases de datos relevantes. La más destacada fue Fuente Académica Premier, que representó el 28 % de los artículos seleccionados. Le siguieron EBSCO con el 17 %, Complementary Index con el 16 %, Directory of Open Access Journals con el 16 %, y tanto Gale Academic One File como Suplemental Index con el 5 % cada una. Además, DIALNET y SCOPUS contribuyeron con un 4 % cada una, mientras que Legal Collection y Computers & Applied Sciences Complete tuvieron una participación del 2 % respectivamente. Estos datos reflejan la importancia y variedad de las bases de datos utilizadas, asegurando una amplia cobertura y representación de los estudios relacionados con la responsabilidad civil y ética en el desarrollo de la inteligencia artificial.

Los datos muestran que la categoría IA se mantiene como el principal tema de estudio en todos los años. La ética destaca en 2018 y 2019, reapareciendo en 2021 con menos relevancia. Robóticase relaciona con la IA en 2019 y 2020. La relación con el Estado comenzó en 2020 vinculada con la democracia y se amplió en años siguientes con aspectos como la gobernanza y las políticas públicas, y en 2021 con el desarrollo sostenible. La investigación mostró un interés constante por la responsabilidad civil a lo largo del período estudiado. A partir de 2022, se comenzó a estudiar temas adicionales como la seguridad jurídica y la regulación, evidenciando una evolución en los temas de interés en el contexto de la inteligencia artificial. Estos resultados reflejan las tendencias de investigación en relación con la IA y sus implicaciones éticas, sociales y legales a lo largo del tiempo.

La conceptualización de la IA ha recibido la mayor atención en los estudios revisados, representando el 100 % de estos. Le siguen en importancia la legislación de la Unión Europea y la robótica, ambas con una presencia significativa en la investigación, cada una con el 11.11 % (n = 7).

Además, se identificaron otras variables estudiadas en menor medida. La relación de la IA con el derecho y su impacto en los derechos fundamentales tuvieron una participación del 7.96 % cada una (n = 5). Otros temas como la gobernanza de la IA, el tratamiento de la IA en el gobierno, la IA en los procesos de decisión y la historia de la IA, compartieron una participación del 4.76 % cada una (n = 3).

Los resultados destacan los temas más relevantes y estudiados en relación con la responsabilidad civil en el contexto de la IA, evidenciando la preocupación e interés en la regulación y la protección de datos personales como lo indican Galvis y Pesca (2021), así como los desafíos y consecuencias jurídicas que surgen de su implementación en diversos ámbitos.

En cuanto a la ética, los principales temas relacionados incluyen los desafíos éticos de la IA, los principios éticos en su desarrollo, las implicaciones éticas, legales y sociales, la bioética, la ética en el desarrollo de software y la humanización del robot. Se destaca la importancia de principios éticos como la transparencia, la equidad y la rendición de cuentas, respaldados por Cotino (2019); Rúa, Ángel, Giraldo y Marín (2020); Flores-Vivar y García-Peñalvo (2023) y Zabala (2021).

Algunos autores perciben el diseño de la regulación de la IA como un desafío complejo debido a la participación de múltiples partes interesadas, como mencionan Martínez (2019), Baranov, Mamychev, Plotnikov, Voronov, y Voronova (2020), Vásquez-Pita (2021) y Zabala (2021). Además, se reconoce que la IA es considerada una tecnología de alto riesgo, y los pioneros en proponer regulaciones son la Unión Europea y la UNESCO.

Tabla 1.
Síntesis de resultados de acuerdo con el año de publicación

Fuente: elaboración propia.

La interacción entre factores ambientales y tecnológicos en la convivencia con productos derivados de la IA es un tema resaltado por Valverde (2021). Por otro lado, se subraya la importancia de adoptar principios éticos para el desarrollo de la IA, especialmente los enunciados por la bioética, respaldados por Cotino (2019),Fernández (2021), Pérez (2021), Arbeláez-Campillo, Villasmil, y Rojas- Peña (2021), Flores-Vivar y García-Peñalvo (2023) y Zabala (2021). Este enfoque ético es respaldado por Terrones (2020), Cotino (2019), Porcelli (2021), Vásquez-Pita (2021), y Martin-Casals (2022), quienes coinciden en que los principios éticos de la bioética son los más apropiados para guiar el desarrollo de la IA. Asimismo, se destaca la relevancia de la participación de los usuarios en el establecimiento de procedimientos para crear un marco normativo que supervise el avance de la IA, según Salardi (2020), Zabala y Zuluaga (2021), Zabala (2021), Morte (2021), Flores-Ruiz, Miedes-Ugarte, y Wanner (2021), Antonov (2022), Ortega y Becerra (2022), y Becerra (2022). Además, se reconoce la necesidad de incluir el conocimiento de la IA en la formación académica, como mencionan Terrones (2020), Gálvez (2020), Porcelli (2021), Arbeláez-Campillo, Villasmil, y Rojas-Bahamón (2021), y Kluge, Fernandes de Oliveira, y Massmann (2022).

En cuanto al diseño de la regulación de las aplicaciones derivadas de la IA, Baranov, Mamychev, Plotnikov, Voronov, y Voronova (2020) proponen dos etapas que implican cambios en cada rama de la ley y una comprensión teórica de la experiencia nacional e internacional. Esta adaptación normativa a las características específicas de la IA también es destacada por Baranov, Mamychev, Plotnikov, Voronov, y Voronova (2020), Morales (2021), y Parra y Concha (2021), quienes abogan por la necesidad de una ley robótica. Otro aspecto crucial es el tratamiento de los datos personales por aplicaciones derivadas de la IA, una gran preocupación resaltada por Cascón-Katchadourian (2020), Galvis y Pesca (2020), Ramon (2020), De Lecuona (2021) y Gascón (2021). A su vez, Zurita (2021) señala que los comportamientos inadecuados de estas aplicaciones deben ser asimilados en el derecho al tratamiento de los productos defectuosos.

Finalmente, se menciona la dificultad para desarrollar una legislación común debido a las diferencias entre países y las características únicas de la IA para cada Estado, como indican Vásquez-Pita (2021), Blázquez (2022), Faggiani (2022) y Esquivel y Galvis (2022).

Tabla 2.
Agrupación de variables estudiadas en relación con la IA, la responsabilidad civil y la ética










Fuente: elaboración propia.

Discusión

Para diseñar una propuesta de legislación de la IA, es crucial considerar dos aspectos fundamentales. En primer lugar, se deben examinar los antecedentes del desarrollo de la IA en cada Estado, como destacan Esquivel y Galvis (2022). Además, se debe tener en cuenta las características inherentes de la IA, ya que, según autores como Baranov, Mamychev, Plotnikov, Voronov, y Voronova (2020), Morales (2021) y Parra y Concha (2021), la ley debe adaptarse a estas características. Estas características, según Scherer (2016), incluyen la autonomía, la imprevisibilidad y la falta de control.


Figura 3.
Características de la IA
Fuente: elaboración propia con base en Scherer (2016)

Al aplicar las observaciones al contexto colombiano, se evidencia un primer obstáculo: la ausencia de un concepto legal de IA. En este sentido, el derecho carece de elementos y características que permitan identificar el alcance de los actos derivados de la IA y sus posibles efectos. Es por ello que se proponen ciertas características como base para la tipificación jurídica de la IA en la normativa, tanto a nivel nacional como internacional.


Figura 4.
Características de la IA como sujeto con capacidad de producir efectos jurídicos
Fuente: elaboración propia.

Lo anteriormente expuesto concuerda con la afirmación de Salardi (2020) y Zabala y Zuluaga (2021) sobre la necesidad de otorgar personería jurídica a los robots, entendida como la facultad de reconocerlos como sujetos con derechos y obligaciones. Esta atribución de personalidad jurídica se relaciona con la capacidad del individuo, según algunos juristas, ya que la capacidad surge de la personalidad jurídica. Un ejemplo ilustrativo de esto es el reconocimiento de la IA como persona no humana en la India, donde se le atribuyeron derechos y obligaciones civiles, como el caso de RAGHAV, una IA reconocida oficialmente por el Parlamento indio por su autoría artística (Carmona, 2021).

Por otro lado, autores como Santos (2017) sugieren que los robots autónomos más complejos deberían tener una personalidad electrónica jurídica para asumir responsabilidades por sus acciones. Este enfoque se basa en la idea de que la personalidad jurídica electrónica puede aplicarse cuando los robots toman decisiones autónomas o interactúan con terceros de manera independiente.

Sin embargo, el proceso de otorgar personalidad a los robots puede enfrentar desafíos teóricos y filosóficos, y su aceptación variará entre países, como señalan Vásquez-Pita (2021), Blázquez (2022), Faggiani (2022) y Esquivel y Galvis (2022). Algunos países aún están lejos de necesitar una legislación para el desarrollo de la IA, y las características de esta tecnología varían según el Estado.

En este sentido, la atribución de personalidad jurídica a los robots puede interpretarse como un intento de humanización al atribuirles autoconciencia y capacidad de sentir. Sin embargo, el enfoque de la Unión Europea no se relaciona con la autoconciencia artificial, sino con la responsabilidad legal de las aplicaciones derivadas de la IA, como menciona Fernández (2021), quien introduce el concepto de humanismo digital.

El concepto de humanismo digital introduce la IA en un debate sobre su impacto, que va desde narrativas distópicas que la presentan como una amenaza hasta perspectivas que la consideran una oportunidad para mejorar el bienestar humano y abordar desafíos globales. Según Monasterio (2021), los 17 ejemplos de uso de la IA para alcanzar los Objetivos de Desarrollo Sostenible (ODS) pueden contribuir a cambiar la percepción de la tecnología, promoviendo una narrativa positiva en lugar de una visión negativa.

En relación con la robótica, se destaca su capacidad para aprender y tomar decisiones independientes, lo que plantea la necesidad de establecer responsabilidad legal por los daños causados por las aplicaciones de IA. Autores como Ramon (2020), Terrones (2020), Hernández (2020), y Zabala y Zuluaga (2021) reconocen esta necesidad a nivel mundial.

El Parlamento de la Unión Europea ha propuesto consideraciones y recomendaciones para regular aspectos como la robótica, incluida la posibilidad de otorgar personalidad jurídica o electrónica a los robots que toman decisiones autónomas. Esta perspectiva se relaciona con la problemática de la responsabilidad de los robots en diversos contextos jurídicos, como el derecho penal, procesal, civil, de contratos y tributario, como afirman Barrio (2018), Ramon (2020), Terrones (2020), Hernández (2020), Morales (2021), Martin (2022), y Pasquale (2022).

Chávez (2021) plantea la necesidad de una rama del derecho específica para abordar las implicaciones legales de los robots, denominada “derecho de los robots”, debido a las cualidades distintivas de estos dispositivos y su impacto en el ámbito jurídico. Esta idea es respaldada por Baranov, Mamychev, Plotnikov, Voronov, y Voronova (2020), Morales (2021), y Parra y Concha (2021), quienes también reconocen la necesidad de una nueva área legal.

Aunque el Parlamento Europeo (2018) menciona la noción de “persona electrónica”, Ercilla (2018) sugiere el término “ciber-físico” como una descripción más precisa para los robots inteligentes. Este término reflejaría mejor la combinación de elementos físicos y digitales que caracterizan a estos dispositivos. Además, el Comité Económico y Social Europeo (2017) se opone a otorgar un estatus jurídico a los robots debido al riesgo moral que implica, y sugiere la necesidad de investigar más a fondo las implicaciones legales y éticas de esta cuestión.

Santos (2017) y Zabala y Zuluaga (2021) respaldan la idea de otorgar personalidad electrónica a los robots autónomos, especialmente aquellos con alta complejidad, argumentando que esta personalidad les permitiría asumir responsabilidad por los daños que causen en situaciones donde toman decisiones autónomas o interactúan con terceros de manera independiente.

Por otro lado, Pasquale (2022) propone la creación de una figura intermedia entre las cosas y las personas físicas, llamada “persona electrónica”, argumentando que la configuración artificial de la personalidad no sería algo nuevo, ya que se ha hecho previamente con las personas jurídicas. Esta perspectiva equipara la capacidad de las personas físicas para adquirir derechos y obligaciones con la de las personas jurídicas, que, siendo artificiales, poseen esa misma capacidad al cometer actos con efectos jurídicos que las hacen plenamente responsables.


Figura 5.
Similitudes entre la persona jurídica y la posibilidad de la persona electrónica
Fuente: elaboración propia

La necesidad de una nueva figura jurídica para la inteligencia artificial (IA) y los robots inteligentes se fundamenta en varias razones esenciales. En primer lugar, la capacidad autónoma de actuación de la IA y los robots les permite realizar acciones jurídicas sin depender de la intervención humana, lo que demanda un reconocimiento legal de esta autonomía. Mientras que las personas jurídicas requieren la colaboración humana para cumplir con su objeto social, la IA y los robots pueden operar de manera independiente, lo que justifica una regulación legal adaptada a estas entidades no humanas. Además, la capacidad de la IA para llevar a cabo acciones y suscribir contratos por sí misma, incluso sin un cuerpo físico, resalta la necesidad de un marco legal que aborde esta singularidad y considere su capacidad cognitiva en la toma de decisiones. Asimismo, la capacidad de la IA y los robots para interactuar directamente con el entorno social sin supervisión humana destaca la necesidad de una figura jurídica que se ajuste a esta autonomía. Finalmente, la capacidad de la IA y los robots para actuar por delegación proporciona flexibilidad en su uso, lo que requiere una regulación específica para regular la delegación de responsabilidades y acciones en su contexto. Es decir, la creación de una nueva figura jurídica para la IA y los robots es esencial para abordar adecuadamente sus capacidades autónomas, su interacción con el entorno social y su relación con los seres humanos y otras entidades jurídicas. Al reconocer la posibilidad de otorgar personalidad a los robots, se enfrenta la realidad de que el proceso de transición hacia este objetivo será heterogéneo en distintos países, con barreras teóricas y filosóficas, según Vásquez-Pita (2021), Blázquez (2022), Faggiani (2022), y Esquivel y Galvis (2022). Sin embargo, se debe abordar en un corto plazo, a diferencia de lo sugerido por Martínez (2019), Baranov, Mamychev, Plotnikov, Voronov, y Voronova (2020), y Vásquez-Pita (2021), quienes consideran que la regulación de la IA es un evento lejano debido a la complejidad de los actores involucrados.

Desde las perspectivas de varios autores, el panorama jurídico podría tener tres actores: personas naturales con voluntad propia, colectivos de seres humanos con voluntad colectiva y productos derivados de la IA con voluntad determinada por algoritmos. Esto sugiere un conjunto de obligaciones y derechos jurídicos unidos al concepto de “persona”, como señalan autores como Fernández (2021) al hablar de humanismo digital.

A medida que se debate sobre la responsabilidad civil y el estatus jurídico de los robots, es esencial que los actores involucrados en el desarrollo y comercialización de aplicaciones de IA consideren la seguridad y los principios éticos en todas las etapas del proceso. Autores como Cotino (2019), Fernández (2021), Pérez (2021), Arbeláez- Campillo, Villasmil, y Rojas-Bahamón (2021), Flores-Vivar y García-Peñalvo (2023) y Zabala (2021) sostienen que los principios bioéticos son fundamentales para cualquier regulación de la IA.

Con base en el derecho a la dignidad humana, la Unión Europea ha establecido cuatro principios básicos para el desarrollo de aplicaciones de IA. El primero, en línea con los principios de beneficencia y no maleficencia de la bioética, busca el beneficio común y el fortalecimiento de la justicia, la paz y la autonomía ciudadana. Estos principios se alinean con los objetivos del Grupo de Expertos de Alto Nivel en Inteligencia Artificial en 2018, que incluyen la protección del proceso democrático, el suministro de bienes y servicios de alta calidad, la representatividad de los datos, la disminución de daños y el aumento de la confianza del usuario, así como la contribución a los objetivos de desarrollo sostenible de la ONU, de acuerdo con lo afirmado por Zabala (2021).

El segundo principio se relaciona con la autonomía humana, ya que implica que el hombre cede parte del poder de decisión a las aplicaciones de IA de manera voluntaria, aunque reversible, resaltando la necesidad de que el poder de decisión siempre esté en manos humanas.

El tercer principio, vinculado al segundo, es la supervisión humana de la autonomía, que enfatiza la necesidad de aumentar el control humano para disminuir riesgos y garantizar una auditoría adecuada de los productos de IA. Esto implica que los humanos deben tener la capacidad de desviar decisiones tomadas por aplicaciones inteligentes, según plantean Campione (2021) y Zabala (2021).

Se observa que la autonomía, característica única del ser humano, no puede ser atribuida a las aplicaciones de IA, ya que está supeditada al principio de libertad humana. Por tanto, es fundamental que el desarrollo de estas aplicaciones esté acompañado de procesos de evaluación y control realizados por humanos. La sociedad no debe sacrificar el control humano ni establecer límites a la prevención de daños que puedan surgir, incluso en pos del mejoramiento social que la IA pueda traer.

El uso de aplicaciones de IA se da en un contexto de controversia ética, lo que ha llevado a varias organizaciones a establecer principios éticos para su desarrollo y regulación. La Comisión de Asuntos Jurídicos (2020) propuso principios éticos basados en valores de la UE y en la Carta de Derechos Fundamentales, buscando equilibrar la innovación tecnológica con la protección de los derechos fundamentales y promover un enfoque ético y responsable en todas las fases de desarrollo y aplicación de la inteligencia artificial.


Figura 6.
Principios éticos para el uso de la IA en el contexto del desarrollo y regulación
Fuente: elaboración propia con base en la información de Zabala (2021).

La controversia global sobre la responsabilidad civil derivada del uso de aplicaciones de IA y los valores éticos asociados representan un desafío para los legisladores estatales, quienes buscan preservar la dignidad humana. Autores como Vásquez-Pita (2021), Blázquez (2022), Faggiani (2022) y Esquivel y Galvis (2022) validan esta preocupación. Aunque la IA promete soluciones prácticas, autores como Terrones (2020), Cotino (2019), Porcelli (2021), Vásquez-Pita (2021) y Martín-Casals (2022) advierten sobre sus riesgos, lo que impulsa la necesidad de protección jurídica efectiva. La IA y la robótica deben adaptarse al interés humano y a principios éticos aceptados socialmente, considerando su impacto psicológico y social para evitar una dependencia perjudicial. Además, el desarrollo de IA plantea debates sobre principios morales y éticos, ya que puede tener efectos jurídicos positivos y negativos, como cambios en la interacción humana, creación de dependencia, reemplazo de la mano de obra y agrandamiento de brechas socioeconómicas, según Brundage, M., Shahar Avin., Jack Clark. (2018). (2018).

A través de la revisión sistemática de literatura, se identificaron los siguientes principios éticos aplicables al desarrollo de la IA: justicia y equidad, transparencia, responsabilidad, no maleficencia, beneficencia, privacidad, autonomía y libertad, sustentabilidad, confianza, dignidad y solidaridad, como señalan Cotino (2019) y Flores- Vivar y García-Peñalvo (2023).

Conclusiones

La revisión e interpretación de estudios teóricos sobre la responsabilidad civil y la ética en el desarrollo de la IA (2019-2022) revela que las aplicaciones de IA tienen contextos diferentes en cada Estado, pero comparten un alto nivel de interdisciplinariedad. Para regular adecuadamente la responsabilidad civil, es crucial centralizar los datos y considerar la escalabilidad del sistema. Se sugieren características clave para la regulación:

  • No limitar la compensación por daños causados por aplicaciones de IA no humanas.

  • Basarse en la responsabilidad objetiva, enfocándose en probar el daño y el nexo causal.

  • Establecer un régimen de seguro obligatorio y un fondo de compensación para garantizar la reparación de daños.

  • Analizar la posibilidad de otorgar personalidad jurídica a aplicaciones de IA, como los robots, considerando su capacidad de toma de decisiones autónomas o interacción independiente con terceros.

Los expertos debaten sobre el momento adecuado para regular la IA, mayormente a largo plazo. La propuesta más discutida es otorgar una personería jurídica electrónica a aplicaciones autónomas y complejas, capaces de tomar decisiones independientes o interactuar con terceros. Algunos abogan por precaución, esperando a que la ciencia determine cuándo la autonomía de la IA es completa. Sin embargo, estas aplicaciones deberían tener al menos una mínima capacidad de autogestión para realizar trámites legales. Es crucial que los principios regulatorios sean similares en diferentes contextos regionales, aunque la regulación de la UE sirva como referencia principal, particularmente en aspectos como el reconocimiento legal de entidades y requisitos para sujetos de derechos.

Durante el período 2019-2022, se destacó la importancia de considerar los derechos afectados y los principios bioéticos al regular las aplicaciones derivadas de la IA. El equilibrio entre ventajas sociales y económicas junto con los riesgos potenciales en áreas como seguridad, salud, libertad e intimidad fue fundamental. Se adoptaron como axiomas éticos los principios de no maleficencia, beneficencia, autonomía y justicia, buscando minimizar los riesgos y promover una IA confiable que respete los derechos fundamentales y tenga un alto nivel tecnológico. El principio de no maleficencia estableció que las aplicaciones de IA no deben causar daños físicos, psicológicos, financieros o sociales, individualmente o colectivamente, respetando el derecho a la dignidad humana como base fundamental.

El principio de dignidad humana, intrínsecamente vinculado al valor espiritual y moral del ser humano, se ve afectado por la interacción de las aplicaciones de IA, que pueden vulnerar aspectos como la integridad física y moral, la libertad ideológica, el honor, la intimidad y la protección de datos personales. Por tanto, las regulaciones de IA deben prevenir y reparar estos daños. Por otro lado, el principio de beneficencia dicta que las aplicaciones de IA deben buscar el bienestar individual y colectivo, promoviendo la prosperidad, la equidad social, la sostenibilidad y la protección del medio ambiente. Sin embargo, es crucial considerar también el principio de justicia para garantizar una distribución equitativa de los beneficios y evitar situaciones de discriminación, dominación y pérdida de diversidad social.

El principio de autonomía en el desarrollo de IA implica garantizar el control humano sobre estas aplicaciones y su exclusión como armas, como lo establece la Resolución del Parlamento Europeo 2752 de 2018. Además, se deben implementar medidas especiales para proteger a grupos vulnerables como niños, ancianos y personas con discapacidad, asegurando el consentimiento informado y el derecho a rechazar la interacción con robots. Es fundamental que los desarrolladores garanticen la transparencia en la identificación de las interacciones humano-máquina para evitar manipulaciones. En cuanto a la justicia, se requiere una distribución justa de beneficios, accesibilidad a sistemas de IA, prevención del sesgo algorítmico y mecanismos de reparación para daños sociales e individuales.

El principio de justicia distributiva se enfrenta a un desafío importante debido a la diversidad de usos y contextos de aplicación de la IA, lo que requiere diseñar mecanismos específicos para cada caso. Además, es crucial considerar no solo la regulación para los desarrolladores de IA, sino también el uso que los seres humanos hacen de estos productos, ya que puede amenazar los derechos humanos. Instituciones como la UNESCO promueven un enfoque humanista de la IA para proteger los derechos humanos y optimizar las habilidades humanas. La regulación de la IA debe ser ética, no discriminatoria, equitativa y transparente, con seguimiento continuo y evaluación de su impacto en los seres humanos. Se requieren mecanismos de responsabilidad y rendición de cuentas en todas las etapas del desarrollo y la implementación de aplicaciones de IA, incluyendo auditorías internas y externas para garantizar la confiabilidad y protección de los derechos fundamentales.

Material suplementar
Referencias
Antonov, A. (2022). Gestionar la complejidad: la contribución de la UE a la gobernanza de la inteligencia artificial. Revista CIDOB d’Afers Internacionals, 131, 41-68. https://doi.org/10.24241/rcai.2022.131.2.41
Azpiazu Arrieta, G., y Bayón Pérez, J. . (2022). Tendencias laborales y el futuro del trabajo por medio de la robotización, digitalización e inteligencia artificial en España. Razón Crítica, (12). https://doi.org/10.21789/25007807.1805
Arbeláez-Campillo, D. F., Villasmil Espinoza, J. J., y Rojas-Bahamón, M. J. (2021). Inteligencia artificial y condición humana: ¿Entidades contrapuestas o fuerzas complementarias? Revista de Ciencias Sociales, 27(2), 502-513. https://doi.org/10.31876/rcs.v27i2.35937
Añón Roig, M. J. (2022). Derechos y libertades: Revista de Filosofía del Derecho y derechos humanos, (47), 17-49. https://dialnet.unirioja.es/servlet/articulo?codigo=8497850
Baranov, P., Mamychev, A., Plotnikov, A. A., Voronov, D. Yu., y Voronova, E. (2020). Problems of Legal Regulation of Robotics and Artificial Intelligence from the Psychological Perspective. Propósitos y Representaciones, 8(2), e511. [en línea]. http://dx.doi.org/10.20511/pyr2020.v8n2.511
Barrio, M. A. (2018). Del derecho de internet al derecho de los robots. En Barrio, M. (Coord.), Derecho de los Robots. Madrid: Wolters Kluwer. https://www.moisesbarrio.es/pdf/libro_derecho_robots.pdf
Becerra, J. (2022). La Inteligencia Artificial en la decisión jurídica y política. Araucaria, 24(49). https://revistascientificas.us.es/index.php/araucaria/article/view/15557
Belintxon Martín, U. (2021). Derecho internacional privado e inteligencia artificial: algunos retos e incertidumbres para el transporte en el siglo XXI. Sociology & Technoscience / Sociología y Tecnociencia, 11(Extra,2), 17–36. https://doi.org/10.24197/st.Extra_2.2021.17-36
Blázquez Ruiz, F. J. (2022). Riesgos para la privacidad en la aplicación de la inteligencia artificial al ámbito biosanitario. Implicaciones éticas y legales. Anales de la Cátedra Francisco Suárez, 56, 245-268.
Brundage, M., Shahar Avin., Jack Clark. (2018). The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation. Future of Humanity Institute; University of Oxford; Centre for the Study of Existential Risk; University of Cambridge; Center for a New American Security; Electronic Frontier Foundation; OpenAI. https://www.researchgate.net/publication/323302750_The_Malicious_Use_of_Artificial_Intelligence_Forecasting_Prevention_and_Mitigation
Carmona González, D. (2021). Implementación y precisión de un nuevo método de cálculo biométrico basado en técnicas de inteligencia artificial. Universidad Complutense de Madrid. https://eprints.ucm.es/id/eprint/70509/1/T43051.pdf
Cascón-Katchadourian, J. (2020). Tecnologías para luchar contra la pandemia Covid-19: geolocalización, rastreo, big data, SIG, inteligencia artificial y privacidad. Profesional de la Información, 29(4). https://doi.org/10.3145/epi.2020.jul.29
Castellanos Claramunt, Jorge. (2020). Democracia, Administración pública e inteligencia artificial desde una perspectiva política y jurídica. Revista Catalana de Dret Públic, 60, 137-147. https://doi.org/10.2436/rcdp.i60.2020.3344
Chávez Valdivia, A. K. (2021). Hacia otra dimensión jurídica: el derecho de los robots. Revista Del Instituto De Ciencias Jurídicas De Puebla, México, Nueva Época, 15(48), 325-337. https://revistaius.com/index.php/ius/article/view/681
Campione, R. (2021). Recopilar y vigilar: algunas consideraciones filosófico-jurídicas sobre inteligencia artificial. Sociology & Technoscience / Sociología y Tecnociencia, 11(Extra, 2), 123–139. https://doi.org/10.24197/st.Extra_2.2021.123-139
Criado, J. I. (2021). Inteligencia Artificial (y Administración Pública). EUNOMÍA. Revista En Cultura De La Legalidad, (20), 348-372. https://doi.org/10.20318/eunomia.2021.6097
Comité Económico y Social Europeo. (2017). Dictamen sobre la «Inteligencia artificial: las consecuencias de la inteligencia artificial para el mercado único (digital), la producción, el consumo, el empleo y la sociedad». Diario Oficial de la Unión Europea. https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=CELEX:52016IE5369&from=BG
Comisión de Asuntos Jurídicos. (2020). Informe con recomendaciones destinadas a la Comisión sobre un marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas (2020/2012(INL)). Ibán García del Blanco (Ponente), Urmas Paet, Alexandra Geese, Valter Flego, & Assita Kanko (Ponentes de opinión). Parlamento Europeo. https://www.europarl.europa.eu/doceo/document/A-9-2020-0186_ES.html
Cortina Orts, A. (2019). Ética de la inteligencia artificial. Anales de la Real Academia de Ciencias Morales y Políticas, 96, 379-393. [en línea] https://www.unesco.org/es/artificial-intelligence/recommendation-ethics
Costa, F. V., & Martins, N. S. C. (2022). Proceso democrático, inteligencia artificial, masificación de la ratio decidendi. Revista Tesis Juris – RTJ, 11(1), 114-135. http://doi.org/10.5585/rtj.v11i1.19221
Cotino Hueso, L. (2019). Ética en el diseño para el desarrollo de una inteligencia artificial, robótica y big data confiables y su utilidad desde el derecho. Revista Catalana de Dret Públic, (58), 29-48. [en línea]. https://doi.org/10.2436/rcdp.i58.2019.3303
De Lecuona, I. (2021). Aspectos éticos, legales y sociales del uso de la inteligencia artificial y el Big Data en salud en un contexto de pandemia. Revista Internacional De Pensamiento Político, 15, 139–166. https://doi.org/10.46661/revintpensampolit.5599
Ercilla García, J. (2018). Normas de Derecho Civil y Robótica. Robots Inteligentes, Personalidad Jurídica, Responsabilidad Civil y Regulación. Pamplona: Thomson Reuters Arazandi.
Espinosa, J. R. (2021). The Development of Artificial Intelligence in the Framework of Competition La Win the Eu/El Desarrollo De La Inteligencia Artificial en El Marco Del Derecho De La Competencia en La Ue. Revista de Direito Brasileira, 29, 452.
Esquivel Zambrano, L. M., y Galvis Martínez, J. C. (2022). Derechos y deberes en la inteligencia artificial: dos debates inconclusos entorno a su regulación. Nuevo Derecho, 18(31), 1-17. https://doi.org/10.25057/2500672X.1479
Faggiani, V. (2022). El derecho a un proceso con todas las garantías ante los cambios de paradigma de la inteligencia artificial. Teoría y realidad constitucional, (50), 517-546. https://dialnet.unirioja.es/metricas/documentos/ARTREV/8744158
Fernández Fagina, J. L. (2021). Hacia el Humanismo Digital desde un denominador común para la Cíber Ética y la Ética de la Inteligencia Artificial. Disputatio. Philosophical Research Bulletin, 10(17), 107–130. [en línea]. https://dialnet.unirioja.es/servlet/articulo?codigo=8018155
Fernandes de Oliveira, N., y Massmann, D. (2022). Sobre a eficiência da ética como ferramenta de governança da inteligência artificial. Veritas, 67(1), 1–11. https://doi.org/10.15448/1984-6746.2022.1.42584
Flores-Vivar, J., y García-Peñalvo, F. (2023). Reflections on the ethics, potential, and challenges of artificial intelligence in the framework of quality education (SDG4). [Reflexiones sobre la ética, potencialidades y retos de la Inteligencia Artificial en el marco de la Educación de Calidad (ODS4)]. Comunicar, 74, 37-47. https://doi.org/10.3916/C74-2023-03
Flores-Ruiz, D., Miedes-Ugarte, B., y Wanner, P. (2021). Inteligencia relacional, inteligencia artificial y participación ciudadana. El caso de la plataforma digital cooperativa «Les Oiseaux de Passage». Recerca. Revista de Pensament i Anàlisi, 26(2), 1-25. [en línea]. http://dx.doi.org/10.6035/recerca.5514
Francisca, R. F. (2020). Inteligencia Artificial y Agricultura: nuevos retos en el sector agrario. Campo Jurídico, 8(2), 123–139. https://doi.org/10.3749/revistacampjur.v8i2.662
Gálvez Valega, J. (2020). Innovation-Artificial Intelligence: Challenges of the Right Against a Digital Society. Utopía y Praxis Latinoamericana, 25, 461–472. https://doi.org/10.5281/zenodo.4278404
Galvis Cano, L., y Pesca Mesa, D. A. (2020). Límites del tratamiento de los datos personales en el ámbito laboral frente al uso de las tecnologías de la información y comunicación en la era digital. IUSTA, (52), 51–76. https://doi.org/10.15332/25005286.5482
Gascón Marcén, A. (2021). El impulso japonés a un acercamiento global a la inteligencia artificial y el comercio electrónico. Mirai. Estudios Japoneses, 5, 53–66. https://doi.org/10.5209/mira.73600
Goñi Sein, J. L. (2019). Defendiendo los derechos fundamentales frente a la inteligencia artificial. Lección inaugural del Curso Académico 2019-2020, Universidad Pública de Navarra. [en línea]. https://academica-e.unavarra.es/handle/2454/34886
Habermas, J. (2002). El futuro de la naturaleza humana. ¿Hacia una eugenesia liberal? Barcelona: Paidós. https://revistadecomunicacion.com/pdf/2003/Res147-148.pdf
Hernández Zuluaga, J. C. (2020). Can machines think? Inteligencia Artificial y Derecho de Daños. Revista E-Mercatoria, 19(1), 3–36. https://revistas.uexternado.edu.co/index.php/emerca/article/view/7246/9959
Kluge Corrêa, N., Fernandes de Oliveira, N., y Massmann, D. (2022). Sobre a eficiência da ética como ferramenta de governança da inteligência artificial. Veritas, 67(1), 1–11. https://doi.org/10.4067/s0718-00122022000200003
Martín-Casals, M. (2022). An Approach to Some EU Initiatives on the Regulation of Liability for Damage Caused by AI-Systems. Ius et Praxis (07172877), 28(2), 3–24.
Martínez Martínez, F., y Zagrebelsky, G. (2009). El derecho dúctil: Ley, derechos, justicia (5.a ed., Trad. M. Gascón). Trotta. https://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S0041- 86332009000100018
Martínez Martínez, R. (2019). Inteligencia artificial desde el diseño. Retos y estrategias para el cumplimiento normativo. Revista Catalana de Dret Públic, (58). [en línea]. https://doi.org/10.2436/rcdp.i58.2019.3317
Mathew, P., et ál. (2021). Declaración PRISMA 2020: una guía actualizada para la publicación de revisiones sistemáticas. Revista Española de Cardiología, 74(9), 790-799. [en línea]. https://www.sciencedirect.com/science/article/pii/S0300893221002748?via%3Dihub
Monasterio Astobiza, A. (2021). Inteligencia Artificial para el bien común (AI4SG): IA y los Objetivos de Desarrollo Sostenible. Arbor, 197(802), a629. https://doi.org/10.3989/arbor.2021.802007
Morales Moreno, Á. (2021). Inteligencia artificial y derecho penal: primeras aproximaciones. Revista Jurídica de Castilla y León, 53, 177–202. https://www.jcyl.es/web/jcyl/AdministracionPublica/es/Plantilla100Detalle/1131978346397/Publicacion/1285024121501/Redaccion
Morte Ferrer, R. (2021). Valoraciones éticas para una inteligencia artificial adecuada a la privacidad. Arbor, 197(802), a628. https://doi.org/10.3989/arbor.2021.802006
Ortega Ruíz, L., y Becerra, J. (2022). La Inteligencia Artificial en la decisión jurídica y política. Araucaria, 24(49), 217–238. https://doi.org/10.12795/araucaria.2022.i49.10
Parlamento Europeo. (2018). Propuesta de Resolución 2752 del Parlamento Europeo. Recuperado de https://www.europarl.europa.eu/doceo/document/A-8-2017-0005_ES.html#title1
Parra Sepúlveda, D., y Concha Machuca, R. (2021). Inteligencia artificial y derecho. Problemas, desafíos y oportunidades. Vniversitas, 70. [en línea] https://doi.org/10.11144/Javeriana.vj70.iadp
Pasquale III, F. A. (2022). The Price of Autonomy: Liability Standards for Complementary and Substitutive Medical Robotics and Artificial Intelligence. Ius et Praxis (07172877), 28(1), 3–19. https://doi.org/10.4067/s0718-00122022000100003
Peña, J. S. (2022). Inteligencia artificial para la seguridad jurídica. Superando el problema de la cognoscibilidad del derecho. Revista Oficial Del Poder Judicial, 14(17), 55–117. https://doi.org/10.35292/ropj.v14i17.568
Pérez Ragone, Á. (2021). Justicia Civil en La Era Digital Y Artificial: ¿Hacia Una Nueva Identidad? Revista Chilena de Derecho, 48(2), 203–229. [en línea]. https://doi.org/10.7764/R.482.9
Porcelli, A. M. (2021). La inteligencia artificial aplicada a la robótica en los conflictos armados. Debates sobre los sistemas de armas letales autónomas y la (in) suficiencia de los estándares del derecho internacional humanitario. Estudios Socio-Jurídicos, 23(1). https://doi.org/10.12804/revistas.urosario.edu.co/sociojuridicos/a.9269
Ramon Fernández, F. (2020). Inteligencia Artificial y Agricultura: nuevos retos en el sector agrario. Campo Jurídico, 8(2), 123–139. https://www.researchgate.net/publication/350081042_Inteligencia_Artificial_y_Agricultura_nuevos_retos_en_el_sector_agrario
Rúa Bustamante, M., Ángel Muñoz, S., Giraldo Aristizábal, J., y Marín Tapiero, J. (2020). Mecanismos Alternativos de Solución de Conflictos (MASC) e Inteligencia Artificial (IA) para la Solución de Controversias en Línea (SCL): Una Apuesta por la Descongestión en la Administración de Justicia. The Law, State and Telecommunications Review, Brasilia, 12(1), 77-112. https://doi.org/10.26512/lstr.v12i1.25808
Salardi, S. (2020). Robótica e inteligencia artificial: Retos para el derecho. Revista Derechos y Libertades, 42, 203–232. https://doi.org/10.14679/1158
Santos Gonzales, M. J. (2017). Regulación legal de la robótica y la inteligencia artificial: Retos de futuro. Revista Jurídica de la Universidad de León, 4, 25-50. http://revpubli.unileon.es/index.php/juridica/article/view/5285/4108
Scherer, M. (2016). Regulating artificial intelligence systems: Risks, challenges, competencies, and strategies. Harvard Journal of Law & Technology, 29(2), 353-400. http://dx.doi.org/10.2139/ssrn.2609777
Temesio Vizoso, S. G. (2022). Reflexiones sobre la inteligencia artificial y la bibliotecología. Palabra Clave (La Plata), 11(2), e159. https://doi.org/10.24215/18539912e159
Terrones Rodríguez, A. (2020). Inteligencia artificial y ética de la responsabilidad. Cuestiones de Filosofía, 4(22), 141-170. [en línea]. https://doi.org/10.19053/01235095.v4.n22.2018.8311
Valverde Pérez; Nuria (2021). Presentación. Inteligencia artificial y nuevas éticas de la convivencia. Arbor, 197(800): a599. https://doi.org/10.3989/arbor.2021.800001
Vásquez- Pita, E. (2021). La UNESCO y la gobernanza de la inteligencia artificial en un mundo globalizado. La necesidad de una nueva arquitectura legal. Anuario de la Facultad de Derecho. Universidad de Extremadura, 37, 273-302. https://file:///C:/Users/jonat/Downloads/Dialnet-LaUNESCOYLaGobernanzaDeLaInteligenciaArtificialEnU-8360236.pdf
Verdegay, J., Lamata, M., Pelta,D. y Cruz, C. (2021). Inteligencia artificial y problemas de decisión: la necesidad de un contexto ético. Suma de Negocios, 12(27), 104-114, julio-diciembre 2021, ISSN 2215-910X. https://doi.org/10.14349/sumneg/2021.V12.N27.A2
Zabala Leal, T., y Zuluaga, P. (2021). Los retos jurídicos de la inteligencia artificial en el derecho en Colombia. Jurídicas CUC, 17(1), 475–498. [en línea]. http://dx.doi.org/10.17981/juridcuc.17.1.2021.17
Zabala Leal, T. D. (2021). La ética en inteligencia artificial desde la perspectiva del derecho. Via Inveniendi Et Iudicandi, 16(2). https://doi.org/10.15332/19090528.6785
Zurita Martín, I. (2021). Proposals for legislative reform of the European White Paper on Artificial Intelligence in the field of safety and civil liability. Actualidad Jurídica Iberoamericana, 14, 438- 487.
Notas
Notas
1 Este artículo es resultado del proyecto de investigación “Marco normativo de las industrias creativas, tecnología, contratos y arbitraje en Colombia”, identificado con el código 86860, perteneciente al grupo de investigación Derecho, Sociedad y Empresa y al semillero de investigación Derecho, Sociedad y Gobierno de la Escuela de Derecho y Gobierno de la Institución Universitaria Politécnico Grancolombiano.
Autor notes
2 Abogada, magíster en Derecho Comercial y Contratos Internacionales, y estudiante activa del programa de Doctorado en Derecho Económico y de la Empresa de la Universidad Internacional Iberoamericana México. Es docente tiempo completo de la Institución Universitaria Politécnico Grancolombiano y docente investigadora del Grupo de Investigación Derecho, Sociedad y Empresa de la Escuela de Derecho y Gobierno en la Línea de Investigación “Marco normativo de las industrias creativas, tecnología, contratos y arbitraje en Colombia”. Correo electrónico: tzabala@poligran.edu.co. ORCID: 00000001-8938-7106 Cvlac: https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000155298
3 Doctora en Política Pública, investigadora B de la Dirección General de Análisis Legislativo del Instituto Belisario Domínguez Senado de la República Mexicana y directora de Tesis del Doctorado en Derecho Económico y de la Empresa de la Universidad Internacional Iberoamericana UNINI. Correo electrónico: carla.gomez@senado.gob.mx, ORCID 0000-0002-3584-6968

Figura 1.
Criterios de inclusión y exclusión
Fuente: elaboración propia.

Figura 2.
Diagrama y flujo PRISMA: proceso de identificación y selección de la literatura
Fuente: elaboración propia.
Tabla 1.
Síntesis de resultados de acuerdo con el año de publicación

Fuente: elaboración propia.
Tabla 2.
Agrupación de variables estudiadas en relación con la IA, la responsabilidad civil y la ética










Fuente: elaboración propia.

Figura 3.
Características de la IA
Fuente: elaboración propia con base en Scherer (2016)

Figura 4.
Características de la IA como sujeto con capacidad de producir efectos jurídicos
Fuente: elaboración propia.

Figura 5.
Similitudes entre la persona jurídica y la posibilidad de la persona electrónica
Fuente: elaboración propia

Figura 6.
Principios éticos para el uso de la IA en el contexto del desarrollo y regulación
Fuente: elaboración propia con base en la información de Zabala (2021).
Buscar:
Contexto
Descargar
Todas
Imágenes
Visualizador XML-JATS. Desarrollado por Redalyc