Artículo original (investigación)

En el umbral de una nueva era: El derecho privado ante la robótica y la inteligencia artificial

On the threshold of a new era: Private law versus robotics and artificial intelligence

Oswaldo Navas Tapia *
Pontificia Universidad Católica del Ecuador - PUCE, Ecuador

En el umbral de una nueva era: El derecho privado ante la robótica y la inteligencia artificial

Revista Facultad de Jurisprudencia, núm. 9, pp. 178-219, 2021

Pontificia Universidad Católica del Ecuador

Recepción: 07 Abril 2020

Aprobación: 04 Diciembre 2020

Resumen: Este ensayo enfrenta los temas conceptuales que permiten aquilatar la magnitud de la irrupción de la IA, la robótica y el Big Data al concluir la segunda década del siglo XXI. Hace un repaso por las sorprendentes bondades que ofrece al hombre la tecnología inteligente que pretende ser autónoma y que, por esa misma razón, plantea desafíos éticos no fáciles de abordar y menos de resolver. La Era Digital está removiendo, desde sus raíces, la forma que tenemos de entender el Derecho positivo, como una potestad de imperium del Estado, pues la regulación normativa de la actividad humana, con inusitada rapidez, está pasando a la iniciativa privada. La UE ha generado importante normativa regional que bien podría servir de guía para el resto de Estados en el mundo. La robótica, en particular, genera honda preocupación en el ámbito de la responsabilidad civil y en el mundo laboral por la potencial eliminación de fuentes de empleo para los seres humanos.

Palabras clave: Inteligencia artificial, robótica, algoritmo, aprendizaje activo, sistema legal.

Abstract: This essay addresses the conceptual themes that allow the magnitude of the emergence of AI, robotics and Big Data at the end of the second decade of the 21st century. It reviews the surprising goodness offered to man by intelligent technology that is intended to be autonomous and, for the same reason, poses ethical challenges that are not easy to address and less to solve. The Digital Age is removing, from its roots, the way we understand positive Law, as a power of imperium of the State, because the regulation of human activity, with unusual speed, is moving to private initiative. The UE has generated important regional regulations that could well serve as a guide for the rest of the world. Robotics, in particular, raises serious concern in the field of civil liability and in the world of work due to the potential elimination of sources of employment for human beings.

Keywords: Artificial intelligence, robotics, algorithm, active learning, legal system.

INTRODUCCIÓN

Se ha comparado la irrupción de la robótica y la inteligencia artificial (IA) con el impacto que en su momento significó la invención de la imprenta en el siglo XV por Gutenberg que, como sabemos, hizo posible que la búsqueda del conocimiento empírico sustituyera a la doctrina sagrada y que la Era de la Razón reemplace gradualmente a la Era de la Religión, dando lugar, entre otras cosas, al aparecimiento de la Ilustración, en una transformación que duró siglos.

Asimismo, se acepta que la primera revolución industrial se produjo con el aparecimiento de la máquina a vapor, en la segunda mitad del siglo XIX; la segunda revolución fue la de los inventos mecánicos producto del descubrimiento de la electricidad; la tercera corresponde a la irrupción de la electrónica y la informática en la vida del hombre, al finalizar el siglo pasado. Hoy, asistimos a la cuarta revolución, transformadora de la sociedad, la de los entes ciberfísicos, que admite la posibilidad de crear entes con estructuras capaces de tomar decisiones autónomas (en base a algoritmos matemáticos), y que tendrán una incidencia decisiva en nuestras vidas.

Como señala la Asamblea del Consejo de Europa (2017b) la convergencia tecnológica[1] “tiene consecuencias no sólo para los derechos humanos y la forma en que pueden ejercerse, sino también para el concepto fundamental de lo que caracteriza a un ser humano”. La omnipresencia de las nuevas tecnologías y sus aplicaciones está desdibujando los límites entre el ser humano y la máquina, entre las actividades en línea y fuera de línea, entre el mundo físico y el virtual, entre lo natural y lo artificial, y entre la realidad y la virtualidad. Lo que ahora se avecina en el horizonte es el ser humano aumentado.

¿Frente a esta realidad que cala en lo más hondo de la naturaleza humana, qué papel le corresponde al Derecho? ¿Es acaso el último bastión que le queda a la humanidad para defenderse de las amenazas que implican la IA y la robótica? ¿La IA y la robótica traerán consigo el progreso y el bienestar de la humanidad, abreviando procesos y simplificando las tareas humanas, al punto que se eliminen los conflictos y el mundo del Derecho pierda su razón ser?

Estos tópicos pretenden abordarse en esta investigación, pero de antemano anticipo que no se ofrecerán certezas, pues el sacudón que implica la irrupción de la inteligencia artificial en la vida de los seres humanos es de tal envergadura que no sólo volatiza la ley y el Derecho en su sentido clásico, garantizados por el Estado y fundamentados en su poder de imperium, sino que incluso llega a comprometer derechos humanos que se daban por sentados como verdades absolutas. La libertad, la privacidad, la dignidad humana han sido puestas en el tapete del debate. En la otra orilla, el todopoderoso derecho a la información, ha creado la sociedad de la transparencia, y arrecia con su discurso en aras de la libertad también, para que todos contribuyamos con nuestros datos a un mercado planetario que se mueve en Internet.

Tampoco se ofrece una visión apocalíptica, pues el desarrollo de la ciencia y la tecnología siendo producto del ser humano (por naturaleza inteligente y creativo) deben estar diseñadas para el servicio a la humanidad y oponerse a su avance y desarrollo sería una insensatez. La IA aplicada a la investigación científica, a la medicina, a la exploración del cosmos, son sólo pocos ejemplos de cómo estos nuevos desarrollos tecnológicos pueden contribuir al bienestar y al perfeccionamiento del hombre. Pero resultaría miope no advertir de los riesgos y es irresponsable no estar preparados para los cambios rotundos y rápidos que ya han empezado a llegar.

1. INTELIGENCIA ARTIFICIAL, ROBOTS Y BIG DATA

1.1. Los algoritmos

El término algoritmo se ha vuelto tan utilizado cuando se habla de inteligencia artificial que conviene empezar asumiendo su significado. Según la RAE (2014) es el “conjunto ordenado y finito de operaciones que permite hallar la solución de un problema”. Y en una segunda acepción lo define como “método y notación en las distintas formas del cálculo”. Aunque bien se podría al algoritmo como una secuencia de comandos para que una computadora transforme un input en output, o un código software que procesa un conjunto limitado de instrucciones (Cotino, 2019). Los algoritmos son de diversas clases y tienen diferentes aplicaciones, pero se podría afirmar que sus propiedades básicas son: universalidad, opacidad y el impacto en la vida de las personas. (Monasterio, 2017)

Los algoritmos no son nuevos, han sido utilizados en programas informáticos por décadas. Lo que ocurre es que actualmente algoritmos avanzados de aprendizaje automático (advanced machine-learning algorithms) están revolucionando y automatizando la vida del ser humano. Pero debemos tener presente que la creación de algoritmos no es exclusivamente un procedimiento estadístico o matemático, sino que requiere la intervención humana para recopilar, preparar y analizar datos, incluyendo decisiones de desarrolladores y directivos. (Coglianese y Lehr, 2017)

1.2. La Inteligencia Artificial (IA):

La IA hace posible que las máquinas aprendan de la experiencia, se ajusten a nueva información y realicen tareas como seres humanos, recurriendo para ello al aprendizaje profundo y al procesamiento del lenguaje natural. De este modo, las computadoras se entrenan para efectuar tareas específicas mediante el procesamiento de grandes cantidades de datos, siendo capaces de reconocer patrones en los datos.

La IA difiere de la automatización de robots soportada en hardware, pues, en vez de automatizar tareas manuales, realiza tareas computarizadas frecuentes de alto volumen de modo confiable, haciendo posible la automatización del aprendizaje y el descubrimiento repetitivo a través de datos. Este tipo de automatización requiere de la investigación humana para configurar el sistema y alimentarlo con los datos apropiados, de ahí que la IA puede agregar inteligencia a productos ya existentes.

Sin embargo, mediante algoritmos de aprendizaje progresivo, la IA se adapta para permitir que los datos realicen la programación, encontrando estructura y regularidades en los datos de tal suerte que el algoritmo adquiere la habilidad de ser clasificador o predictor; los modelos se van adaptando cuando se les alimentan con nuevos datos; y, además, la técnica de retropropagación permite al modelo ajustarse cuando la primera respuesta no es del todo correcta. La IA procesa datos profundos utilizando redes neuronales que tienen varias capas ocultas, requiriéndose una enorme cantidad de datos para entrenar modelos de aprendizaje profundo que aprenden directamente de ellos. Mientras más datos se les entrega, más precisos se vuelven, por lo que, actualmente, la IA alcanza una increíble precisión a través de redes neuronales profundas, lo que antes era imposible.

La limitación principal de la inteligencia artificial es que aprende de los datos que se le suministran y no existe otra manera en que se pueda incorporar el conocimiento. Eso significa que cualquier imprecisión en los datos se verá reflejada en los resultados y que toda capa adicional de predicción o análisis se tiene que agregar por separado.

Por el momento, los sistemas de IA están entrenados para realizar una tarea específica. Son sistemas absolutamente especializados que se enfocan en una sola actividad y están lejos de comportarse como humanos. Igualmente, los sistemas de autoaprendizaje no son autónomos y, aunque las tecnologías de inteligencia artificial que se observan en el cine y la televisión continúan siendo ciencia ficción, las computadoras que pueden sondear datos complejos para aprender y perfeccionar tareas específicas cada vez son más y están en constante evolución.

1.3. Robot y robot inteligente:

La palabra robot fue utilizada de manera pública por vez primera el 25 de enero de 1921, fecha en que el escritor checo Karel apek (1890-1938) estrenó en el Teatro Nacional de Praga su obra Rossum’s Universal Robot .Rossumovi univerzální roboti) que, en la trama, es el nombre de la fábrica que produce los robots. Etimológicamente, viene del vocablo eslavo robota, que designa al trabajo efectuado de modo forzado, el trabajo esclavo.. En la obra, los robots terminan matando a su creador.

Pero el origen más remoto de la idea de crear seres no humanos se remonta al golem, que en la mitología judía es la personificación de un ser animado creado a partir de materia inanimada (barro, piedra). La palabra golem ya la encontramos en la Biblia (salmos 139:16) y en las narraciones talmúdicas en referencia a una sustancia embrionaria o incompleta.

La industria cinematográfica generalmente ha ofrecido una visión apocalíptica sobre la presencia de robots y autómatas que llegan a controlar y dominar la vida de los seres humanos. Aunque también existen otras que muestran a ciertos androides[2], incluso con sentimientos, y en afán colaborativo con el hombre. La humanidad ha cumplido un siglo con la idea, muchas veces atemorizante, de compartir su existencia con los robots. Una buena representación de esta afirmación está plasmada en películas como: Metropolis (1927); Planeta prohibido (1956); Terminator (1984); la saga de La Guerra de las Galaxias (1977-2019); Blade Runner (1982); El hombre bicentenario (1999); Matrix (2001); A.I. Inteligencia Artificial (2001); Yo, robot (2008); y, Ex Machina (2015). En todas ellas, podríamos concluir, que la emoción y los sentimientos son la última frontera en la evolución de las máquinas.

Más allá de la ciencia ficción, de los temores y del entusiasmo por el avance de la ciencia y la tecnología al servicio del hombre, el mundo de la robótica ha hecho su aparecimiento con evidencia incontrastable de que cambiará muchos de los paradigmas sobre los que hasta ahora se ha asentado la sociedad contemporánea: el trabajo, las relaciones humanas, la producción de bienes y servicios, la cultura, el derecho.

La Norma ISO 8373 (2012) define robot como el “mecanismo accionado programable en dos o más ejes con un grado de autonomía, que se mueve dentro de su entorno, para realizar las tareas previstas”. Pero ha sido necesario crear una nueva categoría para los robots inteligentes, así, la misma Norma define al robot inteligente como el “capaz de realizar tareas detectando su entorno y/o interactuando con fuentes externas y adaptando su comportamiento”. (2.28)

Según el Parlamento Europeo (2017a), las características de un robot inteligente deben ser:

- Capacidad de adquirir autonomía mediante sensores y/o mediante el intercambio de datos con su entorno (interconectividad) y el intercambio y análisis de dichos datos;

- Capacidad de auto aprendizaje a partir de la experiencia y la interacción (criterio facultativo);

- Un soporte mínimo;

- Capacidad de adaptar su comportamiento y acciones al entorno; y,

- Inexistencia de vida en sentido biológico.

De lo cual podemos concluir con Santos González (2017) que:

Robot inteligente será aquella máquina física que de manera autónoma a través de programas y sensores inteligentes pueda llegar a tomar decisiones basándose en la lógica e IA prediciendo las necesidades de los humanos y de las situaciones en las que se ven envueltos actuando, alterando e interactuando con el mundo físico, todo ello sin estar sometidos al control continuo de los humanos.

1.4. Big Data (Macrodatos)

El término Big Data se debe al libro de Schönberger y Cukier (2013) que se ha difundido incluso en el ámbito del habla castellana. Sin embargo, el Parlamento Europeo (2017b) utiliza el vocablo macrodatos, al que lo ha definido del siguiente modo:

El concepto de macrodato se refiere a la recopilación, análisis y acumulación constante de grandes cantidades de datos, incluidos datos personales, procedentes de diferentes fuentes y objeto de un tratamiento automatizado mediante algoritmos informáticos y avanzadas técnicas de tratamiento de datos, utilizando tanto datos almacenados como datos transmitidos en flujo continuo, con el fin de generar correlaciones, tendencias y patrones (analítica de macrodatos).

Para visualizar las características del Big Data se ha hecho referencia a las V (Gartner, 2012): volumen, variedad, velocidad y valor. A éstas se debería añadir, al menos una V adicional: veracidad (Puyol, 2015). El propósito del Big Data es captar, gestionar y tratar enormes volúmenes de datos agregándoles valor al rescatar datos poco utilizados o inaccesibles para descubrir un conocimiento hasta ahora oculto, utilizando información de fuente muy variada: datos generados por humanos, generados biométricamente, producidos máquina a máquina, productos de grandes transacciones o del uso de la web, redes sociales, archivos públicos, bancarios, entre otros.

Pero, el Big Data no sólo dice relación a descomunales cantidades de datos, a las herramientas y procedimientos utilizados para tratarlos, sino que ofrece un giro en el pensamiento computacional y en la investigación, al producirse una convergencia con la IA y la robótica, lo que en conjunto hace que los sistemas computacionales sean capaces de tratar, aprender, resolver problemas y tomar decisiones autónomas a partir esa enorme cantidad de datos analizados. (Boyd y Crawford, 2011)

2. BIG DATA, IA Y ROBÓTICA: LA NUEVA REALIDAD

Los robots y los sistemas de inteligencia artificial (IA) son uno de los grandes inventos verdaderamente disruptivos del entorno digital, y constituyen, sin duda, un vector de cambio vertiginoso de nuestras sociedades que apenas si hemos comenzado a vislumbrar. Empiezan a invadir todos los ámbitos de la vida, todos los escenarios, no sólo la carrera armamentista, sino autos, aspiradoras, robots de compañía, robots de entretenimiento, religión, trabajo, juegos que compiten con el ser humanos, vehículos autónomos, sex-bot, entre otros.

El Big Data, la IA y la robótica son auténticos aceleradores de la vida y de la sociedad, de esta modernidad líquida en la que, como describe Bauman (2004), lo único estable es el cambio continuo y debemos quedar dispuestos y flexibles al mismo, preparados para cambiar la sintonía, la mente en cualquier momento. Dice el filósofo polaco que: “La fluidez o la liquidez son metáforas adecuadas para aprehender la naturaleza de la fase actual -en muchos sentidos nueva- de la historia de la modernidad” (Bauman, 2004)

2.1. Aplicaciones sorprendentes

En las dos primeras décadas del siglo XXI hemos sido testigos de aplicaciones sorprendentes de la tecnología autónoma y la inteligencia artificial. Al día de hoy, sin intervención humana directa o control externo, los sistemas inteligentes entablan diálogos con clientes en centros de llamadas en línea, manejan incesantemente y con gran precisión manos robóticas que recogen y manipulan objetos, compran y venden grandes cantidades de acciones en milisegundos, maniobran o frenan automóviles para prevenir choques, clasifican personas y su comportamiento, imponen multas a automovilistas recogiendo información de cámaras en carreteras, resuelven conflictos por productos defectuosos entre personas situadas en países distintos.

Hasta hace poco, los robots industriales sólo podían realizar movimientos rígidos y tareas específicas, al ser incapaces de percibir un entorno en tres dimensiones, apenas podían servir una comida o limpiar una casa. Sin embargo, hace casi una década, Microsoft creó Kinect, que permitió a los jugadores de videojuegos interactuar con sus juegos a través de los movimientos del cuerpo. La tecnología de Kinect interpreta los movimientos físicos en tres dimensiones y emulándolo los ingenieros han creado robots que se mueven como humanos. Antes los robots necesitaban de una programación compleja. Hoy en día, las empresas los entrenan, guiándolos simplemente por los movimientos que deben realizar, de este modo se acelera exponencialmente su velocidad de aprendizaje y aumenta su funcionalidad[3]. Monument Machines, por ejemplo, tiene robots que preparan y sirven 360 hamburguesas por hora en restaurantes totalmente automatizados. Kura, una cadena de sushi japonés, utiliza robots para preparar la comida y cintas transportadoras automatizadas para entregarla. Redbox, un operador de quioscos de DVD en EE.UU. y Canadá, ofrece unos dos millones de videos a los consumidores todos los días. Blockbuster operaba decenas de tiendas y empleaba a cientos de personas en el mismo territorio que hoy con siete empleados que recargan los quioscos.

Todo esto, sin mencionar los robots que hacen exploraciones submarinas, los que son lanzados al espacio para la exploración del universo; las plataformas de aprendizaje (Machine Learning Platforms); TechRadar: Artificial Intelligency Technologies; Speech Recognition; Virtual Agents; AI-optimized Hardware; Decision Management; Deep Learning Platforms; Biometrics; Robotic Process Automation; Text Analytics and NLP.

2.2. ¿Necesitamos a los robots?

Parece evidente que los robots ofrecerán a la humanidad un gran apoyo. Es muy común la referencia a las posibilidades que los robots presentan con la anglosajona expresión 3D, esto es, permiten afrontar tareas que se caracterizan por los tres adjetivos que empiezan por d: dull (tedioso), dirty (sucio) y dangerous (peligroso). Así pueden llevar a cabo tareas muy largas, aburridas y físicamente muy exigentes, superando los inconvenientes del cansancio y la tensión acumulada de la plantilla y la imposibilidad o gran dificultad de los relevos. Se destaca igualmente que los robots están especialmente pensados para trabajar en ambientes sucios porque permiten operar en zonas donde existe contaminación NbQR (nuclear, biológica, química y radiactiva) y donde los riesgos para el organismo humano serían demasiado elevados si se realizasen misiones con personal de carne y hueso. Finalmente, la tercera “d” está relacionada con misiones en las que el peligro para un ser humano es demasiado importante debido a amenazas en tierra, como es el caso de las catástrofes naturales.

Pero más allá de estas formidables capacidades y el apoyo que ellas representan para el ser humano, el peligro existe. Baste recordar lo señalado por el físico británico Stephen Hawking en 2014 que, tras reconocer que los sistemas inteligentes desarrollados hasta ahora han resultado útiles y beneficiosos para la humanidad, advertía que los esfuerzos por crear este tipo de tecnología avanzada pueden poner en riesgo la supervivencia de los seres humanos. Mencionaba que: “El desarrollo de la inteligencia artificial podría significar el fin de la raza humana”, pues “los robots podrían llegar a tomar el control y se podrían rediseñar a sí mismos” para reemplazar a los humanos. Podría entonces invertirse la pregunta y los robots podrían llegar a preguntarse: ¿Para qué necesitamos a los humanos?

Por lo pronto nos reconfortamos dando por cierto que los robots nunca serán capaces de adquirir inteligencia emocional y que, por lo tanto, el ser humano será siempre insustituible.

2.3. El aprendizaje profundo y la opacidad de las herramientas

El aprendizaje profundo, que es parte del aprendizaje automático, se refiere al uso de redes neuronales para mejorar aspectos como el reconocimiento de voz, la visión por ordenador y el procesamiento del lenguaje natural. Rápidamente se está convirtiendo en uno de los campos más solicitados en informática. En los últimos años, el aprendizaje profundo ha ayudado a lograr avances en áreas tan diversas como la percepción de objetos, la traducción automática y el reconocimiento de voz (todas ellas áreas especialmente complejas para los investigadores en IA). Está menos sometido a supervisión, e implica, entre otras cosas, la creación de redes neuronales a gran escala que permiten que el ordenador aprenda y piense por sí mismo sin necesidad de intervención humana directa.

Se puede constatar que las herramientas cognitivas más poderosas son también las más opacas, puesto que sus acciones han dejado de ser programadas linealmente por humanos. Al parecer, es la primera vez que el hombre está creando algo sobre lo que tal vez no va a tener control. Sobre esto ha escrito Slavoj Zizek (2006), comparando la técnica actual con la propia de la Modernidad:

La tecnología moderna era ‘transparente’ en el sentido de que mantenía viva la ilusión de que era posible comprender ‘cómo funciona la máquina’, es decir, se suponía que la interfaz debería permitir al usuario un acceso directo a la máquina que había detrás (…) la ‘transparencia’ posmoderna designa exactamente lo contrario de esta actitud analítica global (…) el precio de esta ilusión de continuidad con nuestros entornos cotidianos es que el usuario se ‘acostumbra a una tecnología opaca’, la maquinaria digital ‘tras la pantalla’ se vuelve totalmente impenetrable, incluso invisible.

Citemos un par de ejemplos: Google Brain desarrolla una IA que al parecer construye otras de su misma naturaleza mejor y más rápidamente que los humanos. AlphaZero puede autoejecutarse y pasar en cuatro horas de ser completamente ignorante de las reglas del ajedrez a alcanzar el nivel del campeón del mundo. De hecho, es imposible comprender exactamente cómo logró AlphaGo vencer al campeón mundial de Go. Estos dos casos ilustran que el aprendizaje profundo y los llamados “enfoques de redes generativas antagónicas” (en inglés generative adversarial networks) hacen posible que las máquinas se enseñen a sí mismas nuevas estrategias y adquieran nuevos elementos para ser incorporados en sus análisis. De esta forma, las acciones de estas máquinas se vuelven indescifrables y escapan del escrutinio humano. Esto se debe, en primer lugar, a que resulta imposible averiguar cómo se generan los resultados más allá de los algoritmos iniciales. En segundo lugar, porque el rendimiento de estas máquinas se basa en los datos utilizados durante el proceso de aprendizaje y estos pueden no estar disponibles o ser inaccesibles. Esto también implica que, si estos sistemas usan datos con sesgos y errores, estos dos últimos quedarán enraizados en el sistema. A menudo, cuando los sistemas pueden aprender a realizar este tipo de tareas complejas sin la instrucción o supervisión humana, se les califica como autónomos. Dichos sistemas pueden manifestarse en forma de sistemas robóticos de alta tecnología o software inteligente, como los bots. En muchos casos, estos sistemas autónomos son lanzados y liberados en nuestro mundo sin supervisión, a pesar de que poseen el potencial de alcanzar objetivos que no fueron previstos por sus diseñadores o propietarios humanos.

2.4. Lo que podemos constatar al día de hoy

La IA en la forma de aprendizaje automático, especialmente el aprendizaje profundo que se alimenta de datos masivos, se está volviendo cada vez más poderosa. Asimismo, la IA se está aplicando en mayor medida a nuevos productos y servicios digitales, en los sectores público y privado, y en contextos tanto militares como civiles. El funcionamiento interno de la IA puede ser extremadamente difícil o imposible de monitorear, explicar y evaluar críticamente. Además, las capacidades avanzadas de la IA se están acumulando sobre todo en manos del sector privado y, por lo general, con derechos exclusivos.

La mecatrónica avanzada posibilita una gama amplia de sofisticados sistemas robóticos y de alta tecnología de aplicación práctica. Por ejemplo, en los sectores de servicios y producción industrial, asistencia sanitaria, comercio minorista, logística, domótica (automatización del hogar), seguridad y protección. Dos campos de particular importancia en los debates públicos son los sistemas robóticos aplicados a las armas y los vehículos autónomos.

Se están creando sistemas cada vez más inteligentes que dicen exhibir un alto grado de autonomía, lo que significa que son sistemas que de forma independiente desarrollan y realizan tareas, sin necesidad de operadores o de control humano. Se constata una tendencia a incrementar la automatización y autonomía en robótica, IA y mecatrónica, pues Estados y grandes empresas hacen enormes inversiones en este campo y las superpotencias del mundo aspiran a asegurarse una posición de liderazgo en la investigación de la IA.

Existe un desarrollo dirigido a estrechar aún más la interacción entre humanos y máquinas, por ejemplo, equipos compuestos por sistemas de IA y profesionales humanos obtienen mejor rendimiento en algunos campos que cuando trabajan por separado. La IA y la robótica son mundos fascinantes que nos demuestran cómo el hombre puede transformar este planeta en un mundo más fácil y confortable. Pero, como en todo, los riesgos están al asecho, y en este caso pueden ser fatales.

3. LOS DESAFÍOS ÉTICOS

3.1. La dignidad humana

La dignidad humana supone el valor básico fundamentador de los derechos humanos que tienden a explicitar y satisfacer las necesidades de la persona en la esfera moral (Pérez Luño, 2017). Constituye no sólo la garantía negativa de que la persona no va a ser objeto de ofensas o humillaciones, sino que entraña también la afirmación positiva del pleno desarrollo de la personalidad de cada individuo (Bloch, 1980). El pleno desarrollo de la personalidad supone, a su vez, de un lado, el reconocimiento de la total autodisponibilidad, sin interferencias o impedimentos externos, de las posibilidades de actuación propias de cada hombre; de otro, la autodeterminación (Selbstbestimmung des Menschen) que surge de la libre proyección histórica de la razón humana, antes que de una predeterminación dada por la naturaleza. (Maihofer, 1968)

Por lo tanto, el derecho a la libertad, al honor, a la privacidad y a la propia imagen, que son el contenido básico de la dignidad humana, no pueden verse disminuidos en ningún caso por la actividad que despliega la inteligencia artificial[4]. En otras palabras, diríamos que son su límite, señalan sus bordes y encausan sus ímpetus. El potencial de la robótica se ve matizado por una serie de tensiones o posibles riesgos que debe ser evaluado detenidamente a la luz de la seguridad y la salud humanas; la libertad, la intimidad, la integridad y la dignidad; la autodeterminación y la no discriminación, y la protección de los datos personales.

3.2. La robótica genera nuevas vulnerabilidades

Si el concepto de consumidor implicaba ya una vulnerabilidad ante las fuerzas del mercado. La IA y la robótica generan una nueva categoría de vulnerabilidad, nos hacen aún más débiles que los consumidores normales.

El consumidor vulnerable – y todos lo somos - está expuesto a los riesgos del mercado: vía limitada para maximizar su bienestar, menor capacidad para elegir, dificultad para obtener información, menor capacidad para comprar. El consumidor tiene una nueva categoría de vulnerabilidad, que merece una nueva protección, más aún si se trata de personas con capacidad mental, física o psicológica distinta, o en razón de su edad, credibilidad, género, quienes quedan más expuestos a los fenómenos derivados de la IA y la robotización.

3.3. Las tres leyes de Asimov

Isaac Asimov, en su relato Circulo Vicioso (Runaround, 1942), estableció tres leyes que deben aplicarse a los robots. Hasta el momento, sin que tengan ninguna fuerza vinculante, sirven para dimensionar la magnitud de lo que podría deparar la construcción de robots sin ninguna regla o parámetro de orden ético o moral. Estas tres leyes dicen:

Un robot no hará daño a un ser humano ni permitirá que, por inacción, éste sufra daño.

Un robot obedecerá las órdenes que reciba de un ser humano, a no ser que las órdenes entren en conflicto con la primera ley.

Un robot protegerá su propia existencia en la medida en que dicha protección no entre en conflicto con las leyes primera y segunda (un robot no hará daño a la humanidad ni permitirá que, por inacción, ésta sufra daño).

3.4. Principios éticos de la robótica europea

El Parlamento Europeo (2017a) en su Normas de Derecho Civil sobre robótica, establece los siguiente principios éticos:

1. El riesgo de la robótica debe ser evaluado detenidamente a la luz de la seguridad y la salud humanas; la libertad, la intimidad, la integridad y la dignidad; la autodeterminación y la no discriminación, y la protección de los datos personales.

2. El marco normativo debe actualizarse y completarse por medio de directrices éticas que reflejen la complejidad del ámbito de la robótica y sus numerosas implicaciones sociales, médicas y bioéticas. Es preciso un marco ético claro, estricto y eficiente que oriente el desarrollo, diseño, producción, uso y modificación de los robots.

3. El principio de transparencia consiste en que siempre ha de ser posible justificar cualquier decisión que se haya adoptado con ayuda de la inteligencia artificial y que pueda tener un impacto significativo sobre la vida de una o varias personas. Siempre debe ser posible reducir los cálculos del sistema de inteligencia artificial a una forma comprensible para los humanos; los robots avanzados deberían estar equipados con una “caja negra” que registre los datos de todas las operaciones efectuadas por la máquina, incluidos, en su caso, los pasos lógicos que han conducido a la formulación de sus decisiones.

4. Las orientaciones éticas deben basarse en principios de beneficencia, no maleficencia, autonomía y justicia, así como en los principios consagrados en la Carta de los Derechos Fundamentales de la Unión Europea, como la dignidad humana, la igualdad, la justicia y la equidad, la no discriminación, el consentimiento informado, la vida privada y familiar y la protección de datos, así como en otros principios y valores inherentes al Derecho de la Unión, como la no estigmatización, la transparencia, la autonomía, la responsabilidad individual, y la responsabilidad social, sin olvidar las actuales prácticas y códigos éticos.

5. Se debe prestar especial atención a los robots que representan una amenaza significativa para la privacidad debido a su ubicación en espacios tradicionalmente protegidos y privados y a su capacidad para obtener y transmitir información y datos personales y sensibles.

Además, el Parlamento Europeo ha aprobado los siguientes documentos: Carta sobre robótica; Código de Conducta Ética para los ingenieros en robótica; Código Deontológico para los Comités de Ética de la Investigación; Licencia para los diseñadores; y, Licencia para los usuarios.

4. LA RESPUESTA DEL DERECHO

4.1. Falta de regulación de Internet

Desde su origen, en los años 90, ha existido una falta de regulación o regulación tardía respecto de los fenómenos derivados del uso de Internet. La experiencia demuestra que el derecho ha funcionado de manera reactiva mediante la jurisprudencia, generalmente tardía, y una legislación tibia y dispersa. Esto ha desembocado en una alegalidad masiva en la red, con los problemas jurídicos y culturales que vienen adjuntos. Entre los beneficiarios de este escenario desregularizado están las grandes empresas tecnológicas que en la alegalidad logran una posición y tamaño de dominio tal que cuando la respuesta regulatoria llega, su eficacia real es ínfima. (Cotino, 2017)

Esta preocupación ha motivado que el Parlamento Europeo (2017a) reconozca que:

Es necesario disponer de una serie de normas en materia de responsabilidad, transparencia y rendición de cuentas que reflejen los valores humanistas intrínsecamente europeos y universales que caracterizan la contribución de Europa a la sociedad; que esas normas no deben afectar al proceso de investigación, innovación y desarrollo en el ámbito de la robótica.

Asumiendo que es necesaria una regulación, las preguntas saltan a la vista: ¿Quiénes deberían regular: los gobiernos locales, los Estados nacionales, las organizaciones internacionales? En efecto, una problemática global ¿necesitaría una normativa nacional o supranacional?; ¿hablamos de autorregulación, de heterorregulación, de autorregulación impuesta?; ¿una regulación promovida, a través de normas públicas, privadas, estándares industriales, códigos tipo?; ¿cuál debe ser el nivel de participación de los sectores implicados en la elaboración e implementación de las normas?; ¿qué instrumentos normativos, para qué niveles o ámbitos, por cuánto tiempo, sobre qué temas, qué mecanismos de evaluación normativa pueden implementarse?; ¿los órganos legislativos tradicionales, están en condiciones de dictar leyes apropiadas, eficaces y efectivas?; ¿de qué manera se va compatibilizar la regulación sobre inteligencia artificial y robótica con los derechos fundamentales de los seres humanos?

4.2. Riesgos y respuestas jurídicas

Una clasificación de los riesgos que implican la IA y la robótica para determinar la respuesta jurídica que merecen, distingue tres niveles de externalidades: discretas, sistémicas y existenciales. (Petit, 2017)

Las discretas son aquellas que no afectan significativamente a la sociedad, pues se resuelven ex post, de modo reactivo, mediante la aplicación de normas jurídicas vigentes y, eventualmente, con la intervención de jueces y tribunales. Las externalidades sistémicas (systemic externality) afectan significativamente a la sociedad y al interés público, por lo que se hace necesaria una regulación previa que debería fundamentarse en la planificación, la evaluación y la experimentación. En el tercer nivel están los riesgos existenciales (existernality), que dicen relación con la existencia misma de la humanidad, cuya respuesta natural debería ofrecer la comunidad internacional.

El mismo Petit (2017) señala tres grandes enfoques y tipos de respuesta jurídicos:

a) el legalista, que es la respuesta del derecho actual sobre la realidad de la IA y robótica: responsabilidad, privacidad, trabajo, ciberseguridad, entre otros. El peligro de este enfoque es que juristas ajenos a lo tecnológico realicen propuestas incompletas o sesgadas, y que se generen puntos ciegos al tratar los nuevos fenómenos desde las normas existentes;

b) el tecnológico, que partiendo del tipo de servicio tecnológico específico (autos sin conductor, robots sociales, educación, salud, seguridad, empleo, domésticos, entretenimiento exoesqueletos, entre otros.) cada ámbito se analiza en clave jurídica; y,

c) el enfoque que parte de las tres leyes de la robótica de Asimov, ya mencionadas, según el cual la normas se pueden incorporar directamente a la tecnología, en el sentido de que un comando y su cumplimiento está imbuido en la tecnología misma.

4.3. Nuevas formas de regulación y gobernanza

Frente a una tecnología vertiginosa que va creando nuevas realidades a paso acelerado, cabe preguntarse si es hora de introducir, asimismo, nuevas formas y mecanismos de regulación y gobernanza.

Le Déaut (2017), en el Consejo de Europa, planteaba una regulación biodegradable pues no hay tiempo:

Para evaluar los riesgos y determinar las consecuencias a mediano y largo plazo para la salud humana y las implicaciones para los derechos humanos […] necesitamos un nuevo tipo de legislación que pueda revisarse regularmente para acompañar a estos desarrollos a menudo cambiantes ya menudo radicales en la ciencia y la tecnología y su aplicación. (Consejo de Europa, 2017a)

Posiblemente debamos seguir el nuevo paradigma del beta continuo, propio a la filosofía de la web 2.0, según el cual, descartando versiones definitivas de un programa, utilidad o aplicación, todo queda dispuesto para el cambio y adaptación continuos. De tal forma que, incluso las políticas y las normas de derecho, deben quedar permanentemente “a modo de prueba”. Desde luego, este Derecho líquido (Pibá, 2016) enerva todo sentido de estabilidad y seguridad jurídica tal cual los hemos conocido hasta ahora. Aunque, por supuesto, existen juristas que reivindican un derecho sólido, “objetivo y estable del Estado y en especial los derechos fundamentales como tal”. (Villaverde, 2018)

Ante la dificultad de falta de ritmo de la legislación o escasa información para regular, se postula la conveniencia de técnicas como: las sunset clauses, por las que la regulación tiene fecha o condiciones de caducidad, y la legislación experimental (Ranchordas, 2014); las regulatory sandboxes, en alusión a zonas de arena cercadas para que jueguen los niños; o, de una smart regulation (Zetzsche, 2017). Cualquiera de las formas pasa por experimentar, probar o testear regulaciones por espacios de tiempo reducidos, a pequeña escala en ámbitos o sectores reducidos para, sobre la prueba y el error, reunir más y mejor información que garanticen un mayor nivel de acierto de la respuesta regulatoria.

Lo que sí parece evidente es que los problemas derivados de la irrupción tecnológica no pueden resolverse exclusivamente de forma reactiva y a través de sentencias jurisdiccionales que pueden devenir en arbitrarias y tardías. Es necesario que se adopten decisiones políticas, que los legisladores asuman que el mundo cambia aceleradamente y que la forma clásica de elaboración de la ley se muestra abiertamente insuficiente y hasta retardataria. Pero también los actores políticos, sociales, institucionales y académicos deben intervenir en este debate crucial para la vigencia del Derecho.

La toma de decisiones no siempre puede esperar a que se prueben todas las opciones e intereses en un entorno cambiante. Por ello, sin renunciar a la idea de un Derecho sólido, hay que introducir nuevas fórmulas regulatorias, más dinámicas, que incorporen la evaluación y adecuación normativa, que faciliten diversas versiones, que introduzcan fórmulas de remisiones a la determinación normativa por órganos capacitados técnicamente y con suficiente legitimación. Esto permitirá que el Derecho despliegue razonablemente su eficacia ante los nuevos retos, naturalmente sin vulnerar los derechos humanos de nadie.

4.4. Privatización de la regulación

La regulación que pretenda tener alguna eficacia debe ser el resultado de fórmulas de gobernanza en las que intervenga activamente el sector tecnológico privado afectado sobre el que tienen que aplicarse las normas. Particularmente necesario es un Derecho en red con participación horizontal de todos los operadores (Muñoz Machado, 2000)[5]. La regulación debe emanar de la comunidad afectada (instituciones, individuos y empresas implicadas) y se articula a través de variadas formas, en especial, de soft law. Otra vía es la estandarización técnica internacional de naturaleza privada, cuya regulación una vez adoptada por el sector, en muchas oportunidades es aceptada por los Estados e instituciones cediendo espacios a lo privado. Se produce así, el reenvío desde la normativa pública a la privada o remisiones directas o indirectas a las distintas versiones de la norma técnica privada (por ejemplo, las normas ISO), para asegurar así la adecuación sin necesidad de modificación normativa (Tarrés Vives, 2003). También es una opción articular a través de códigos, normas de conducta, modelos de autorregulación más o menos impulsada por los poderes públicos de los diferentes niveles. En muchos casos estas fórmulas tienen mayores garantías de eficacia real teniendo en cuenta además que se trata de un fenómeno especialmente transnacional.

La participación del sector sin duda es necesaria, pero son también muchos los riesgos. Por ejemplo, en el ámbito de la IA, está latente el peligro de la captura regulatoria o el capitalismo clientelar por el que grupos influyen haciendo prevalecer su interés privado frente al interés general (Petit, 2017). De hecho, y frente a lo que se pueda pensar, tales capturas del regulador en el ámbito de las tecnologías emergentes no sólo se dan a favor del siempre poderoso sector tecnológico. En muchas ocasiones el regulador queda capturado por el sector social o empresarial que queda desplazado por las tecnologías emergentes, pero que suele gozar de importantes apoyos políticos y sociales. (Doménech, 2017)

No hay que descuidar el potencial del Big Data y la AI para la misma generación y creación de normas (algorithmic regulation). Los peligros de dejar en manos de programadores o directamente de algoritmos las propuestas regulatorias no son escasos como los derivados de mala información y sesgos que pueda tener el algoritmo que proponga regulaciones (Lodge y Mennicken, 2017). Tampoco las graves deficiencias o errores sustanciales en que incurren los programadores al traducir normas jurídicas en código (Citron, 2007); y, la mala influencia algorítmica en los procesos normativos democráticos a través de sistemas de manipulación masiva y desinformación.

4.5. Principios de precaución y responsabilidad

Ante la incertidumbre sobre el futuro que genera la ciencia y tecnología hay que responder con nuevos instrumentos del Derecho como son los principios de precaución y de responsabilidad. (Sánchez Barrilao, 2016)

El principio de cautela o precaución proclamado por la Comisión Europea (2000) desde el año 2000 señala que, si una política o acción puede causar daño a las personas o al medio ambiente, y no existiera consenso científico al respecto, la política o acción en cuestión debe abandonarse. Implica un enfoque de la gestión del riesgo a partir del cual se han desarrollado técnicas, directrices y garantías jurídicas. Identificados los riesgos, quienes los alegan deben demostrarlos y, como consecuencia, pueden exigir que el productor, fabricante o importador demuestren la ausencia de peligro. En los procesos e investigación es exigible transparencia y la participación de los implicados. Se deben consultar y evaluar los datos científicos, evaluar las consecuencias de actuar o no actuar y las decisiones deben ser proporcionales, no discriminatorias, coherentes con otras decisiones. El resultado de estos procesos es la adopción de decisiones a lo largo del tiempo, puesto que deben actualizarse periódicamente al estado de la técnica, conocimiento y evaluación permanente de riesgos. Las técnicas que implica este principio se adecúan a las necesidades de regulación dinámica y continua que exige el fenómeno del Big Data y la IA.

4.6. Incorporación de técnicas de responsabilidad activa y una aproximación a la responsabilidad algorítmica

El principio de responsabilidad activa se ha proyectado en el Derecho a través de técnicas bien conocidas como los estudios de impacto previos, de especial importancia en el ámbito del medio ambiente o la discriminación. Debiendo destacar por su afinidad tecnológica las técnicas de responsabilidad proactiva, demostrada o accountability que últimamente se exigen en materia de protección de datos. De este modo quien asume la responsabilidad de tratar datos personales debe cumplir las exigencias normativas y ser capaz de demostrarlo. (González, 2017)

El Reglamento Europeo de Protección de Datos (2016) apuesta por mecanismos proactivos y preventivos en vez de reactivos, imponiendo la protección de datos desde el diseño y por defecto (art. 25), de modo que la privacidad se integre desde el inicio en la gestión y ciclo de vida del tratamiento de datos. Igualmente, se exige la evaluación de impacto de protección de datos (art. 35). El principio de responsabilidad proactiva incorpora una filosofía de acción que apuesta por el valor del diseño tecnológico basado en el cumplimiento normativo (Martínez, 2017). No sólo los riesgos de privacidad y protección de datos, sino la prevención de la discriminación y los sesgos algorítmicos pasa en muy buena medida por incorporar estas técnicas preventivas de evaluación de impacto. (Cotino, 2017)

La fundamental cuestión de la responsabilidad por las consecuencias de los usos de inteligencia artificial o robótica amerita un estudio profundo del tema. Por el momento mencionemos que el Parlamento de la UE (2017a) considera crucial la fijación de la responsabilidad por cuanto que los robots “interactúan con su entorno y pueden modificarlo de forma significativa”. A mayor autonomía del robot, “más difícil será considerarlos simples instrumentos en manos de otros agentes” (humanos) y, por tanto, seguir el general esquema de responsabilidad. Como punto de partida se afirma que “independientemente del instrumento jurídico futuro que se escoja en materia de responsabilidad civil por los daños y perjuicios causados por robots” en ningún caso hay que “limitar el tipo o el alcance de los daños y perjuicios que puedan ser objeto de compensación, ni tampoco limitar la naturaleza de dicha compensación, por el único motivo de que los daños y perjuicios hayan sido causados por un agente no perteneciente a la especie humana” (139. nº 52). Esta misma línea sigue la Asamblea Parlamentaria del Consejo de Europa (2012):

Las referencias a la toma de decisiones independiente por parte de los sistemas de IA no pueden eximir a los creadores, propietarios y gerentes de estos sistemas de la responsabilidad por violaciones de los derechos humanos cometidas con estos sistemas, incluso en casos en que un acto responsable no haya sido ordenado directamente por un humano responsable comandante u operador. (140, nº 9. 1.1)

4.7. Autoridades especializadas e independientes

Fundamental elemento no sólo para la regulación, sino para la adopción de políticas y de la misma gobernanza en materia de IA, Big Data y robótica es fijar quién o quiénes determinan criterios, controlan y supervisan el sector tecnológico. Aspecto sustancial por la especialización y el carácter técnico de la materia, su condición de impredecible, la necesidad de evaluación continua, de flexibilidad y adaptación a los cambios, la importancia de integrar a los técnicos, interesados y especialistas. Lo cual nos dirige hacia el reconocimiento de organizaciones sectoriales y de autoridades con competencias especializadas en estas materias.

A estas autoridades se les debe reconocer vigorosas potestades de conocimiento de los algoritmos, lógicas y acceso a las descomunales bases de datos que manejan tanto el sector privado como el público. De un lado, se trata del acceso a una información y conocimientos que requiere de una enorme especialización y, de otro, el reconocimiento de fuertes facultades de acceso a estas instancias reguladoras puede ser el mecanismo idóneo para conciliar la necesidad de control y supervisión del cumplimiento normativo con las obligaciones de confidencialidad, secreto, derechos legítimos de propiedad, propiedad industrial, propiedad intelectual del sector respecto de sus datos, algoritmos e IA.

La independencia de estas autoridades del poder público parece ser un imperativo categórico.

4.8. Los avances de la Unión Europea

Como ya hemos manifestado, la Unión Europea es la Región que lidera al mundo en cuanto a regulación sobre IA, robótica y Big Data, entre otras materias que las nuevas tecnologías de la información han traído consigo. El mundo, ciertamente debe mirar a Europa para saber el camino que debe recorrer, incluso para no tropezar en la misma piedra.

Solamente en los últimos cuatro años la UE ha producido los siguientes instrumentos jurídicos: Resolución con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (16 de febrero de 2017); Resolución sobre la digitalización de la industria europea (1 de junio de 2017); Resolución sobre los sistemas armamentísticos autónomos (12 de septiembre de 2018); Resolución sobre la igualdad lingüística en la era digital (11 de septiembre de 2018); Propuesta de Reglamento del Parlamento Europeo y del Consejo (6 de junio de 2018, COM/2018/0434) por el que se establece el programa Europa Digital para el período 2021-2027; Reglamento por el que se crea la Empresa Común de Informática de Alto Rendimiento Europea (Reglamento 2018/1488, de 28 de septiembre de 2018); Informe de la Comisión de Industria, Investigación y Energía y las opiniones de la Comisión de Mercado Interior y Protección del Consumidor, de la Comisión de Asuntos Jurídicos, de la Comisión de Libertades Civiles, Justicia y Asuntos de Interior y de la Comisión de Medio Ambiente, Salud Pública y Seguridad Alimentaria (A80019/2019); Declaración sobre Inteligencia Artificial, robótica y sistemas “autónomos” (De la Comisión Europea, 9 de marzo de 2018); Política Industrial Global Europea, sobre una industria global europea en materia de inteligencia artificial (12 de febrero de 2019).

4.9. Nuevos derechos

Los posibles efectos de los sistemas autónomos en la vida privada y la privacidad generan expectativas, desafíos y preocupaciones. A la luz de tales inquietudes, en los ambientes académicos europeos se ha puesto en el tapete de discusión la necesidad de incorporar, al menos, dos nuevos derechos, que emanan de las realidades tecnológicas que vivimos:

a. El derecho al contacto humano significativo.

b. El derecho a no ser perfilado, medido, analizado, aconsejado (coached) o provocado (nudged).

Desde luego, no son los únicos derechos que reclaman la luz frente a las nuevas tecnologías de la información y el conocimiento, pero por el momento parecería que son los más importantes para modular el embate de la IA y la robótica.

4.10. Personalidad jurídica para los robots

Un aspecto importante tiene que ver con la eventual personalidad jurídica de los robots. Así, se discute actualmente sobre la posibilidad de otorgar una personalidad robótica específica, de tal manera que puedan ser consideradas como personas electrónicas. Al respecto el Parlamento Europeo (2017) ha propuesto:

Crear a largo plazo una personalidad jurídica específica para los robots, de forma que como mínimo los robots autónomos más complejos puedan ser considerados personas electrónicas responsables de reparar los daños que puedan causar, y posiblemente aplicar la personalidad electrónica a aquellos supuestos en los que los robots tomen decisiones autónomas inteligentes o interactúen con terceros de forma independiente.

Es decir, se podría crear una personalidad robótica, al menos para los robots autónomos más avanzados, de tal manera que sean considerados como personas electrónicas con capacidad jurídica para responder por los daños que ocasionen. Pero esta personalidad electrónica se atribuiría también a aquellos robots que tomen decisiones autónomas e inteligentes y a aquellos que interactúen de forma independiente con terceros.

4.11. Impacto de la robótica en el mundo del trabajo

4.11.1. Las oportunidades

La robótica y la IA son descritas como tecnologías disruptivas que pueden “transformar vidas y prácticas de trabajo”, afectar al mercado laboral y los niveles de empleo. Las eventuales oportunidades que la robótica podría ofrecer al mundo del trabajo incluye la sustitución de algunos puestos de trabajo, pero también la creación de otros nuevos que transformarán nuestras vidas y prácticas profesionales; un mayor uso de la robótica y la inteligencia artificial también debe reducir la exposición de los seres humanos a condiciones perjudiciales y peligrosas, así como contribuir a crear más puestos de trabajo de calidad y dignos y a mejorar la productividad; reconversión de los trabajadores programas de alfabetización digital: invertir en la formación y el reciclaje profesional de la mano de obra existente; promover la reindustrialización y permitir que también los trabajadores se beneficien del incremento de la productividad; rediseñar las políticas del mercado de trabajo, los regímenes de seguridad social y la fiscalidad; impulsar las capacidades digitales, incluida la programación, a lo largo de la enseñanza y formación, desde los primeros años de escolarización hasta el aprendizaje permanente.

4.11.2. Los desafíos

Pero los desafíos son también formidables: los robots amenazan muchos puestos de trabajo para los seres humanos (fuentes directas e indirectas); ¿quién cotizará a la seguridad social en sistemas deficitarios (la gran mayoría) que necesitan los aportes de los trabajadores actuales para pagar las pensiones a los jubilados?; ¿tienen responsabilidad jurídica los robots por productos defectuosos o daños a terceros?; ¿los robots deben pagar impuestos?

De todo lo cual podemos concluir en lo siguiente: el robot debe trabajar únicamente en plazas peligrosas, insalubres y tediosas; el robot debe cotizar a la seguridad social, de acuerdo al número de horas laboradas; el robot debe ser responsable por los daños que cause, transmitiendo esa responsabilidad a su propietario, a sus constructores (en la parte proporcional y pertinente), siempre que disponga de autonomía[6]; tenga una configuración física; y, disponga de capacidad de interacción física con otros trabajadores (Guanter, 2018); y, el derecho del trabajo se fundamenta en el trabajo humano y el robot aunque con altas dosis de IA no puede ser considerado como tal.

CONCLUSIONES

La IA, los robots y el Big Data son creaciones verdaderamente disruptivas del entorno digital que constituyen un vector de cambio vertiginoso de la sociedad actual. Su presencia en nuestras vidas tiene una evidencia incontrastable y cada día nos vamos adaptando a su uso y modificando nuestras pautas de conducta a la lógica algorítmica que nos imponen.

En la hora actual, somos testigos de aplicaciones sorprendentes de la tecnología autónoma y la inteligencia artificial puestas al servicio de la humanidad. Sin embargo, los sistemas inteligentes no dejan de significar desafíos y peligros para los seres humanos y su forma de vida moderna, apoyada cada vez con más frecuencia e intensidad a las máquinas inteligentes y a los robots.

Debemos sostener entonces, de manera emblemática, que la dignidad humana es el valor básico fundamentador de los derechos humanos que tienden a explicitar y satisfacer las necesidades de la persona en la esfera moral. Es la garantía negativa de que la persona no va a ser objeto de ofensas o humillaciones y es la afirmación positiva del pleno desarrollo de la personalidad de cada individuo. Por tanto, el derecho a la libertad, al honor, a la privacidad y a la propia imagen, que son el contenido básico de la dignidad humana, no pueden verse disminuidos, bajo ninguna consideración, por la actividad que despliega la inteligencia artificial.

El mundo del Derecho ha actuado de forma reactiva mediante la jurisprudencia, generalmente tardía, y una legislación tibia y dispersa, que ha desembocado en una alegalidad masiva en la red, con los problemas jurídicos y culturales que vienen adjuntos. Ante una tecnología vertiginosa que va creando nuevas realidades a paso acelerado, es necesario introducir nuevas formas y mecanismos de regulación y gobernanza.

Para determinar los riesgos y la respuesta jurídica que merecen, Petit (2017) distingue tres niveles de externalidades: las discretas son las que no afectan significativamente a la sociedad, pues se resuelven ex post, de modo reactivo, aplicando normas jurídicas vigentes y con la intervención de jueces y tribunales; las sistémicas afectan significativamente a la sociedad y al interés público, por lo que es necesaria una regulación previa que debe fundamentarse en la planificación, la evaluación y la experimentación; y, las existenciales, que dicen relación a la existencia misma de la humanidad, cuya respuesta natural debe ofrecer la comunidad internacional.

El sistema legislativo tradicional parece incapaz de modernizarse y ofrecer, acorde a los tiempos que corren, no sólo regulación, sino políticas para la gobernanza en materia de IA, Big Data y robótica. Entonces, quién o quiénes determinan criterios, controlan y regulan el sector tecnológico, cuyas características son su honda especialización técnica, su condición de impredecible, la necesidad de evaluación continua, de flexibilidad y adaptación a los cambios. De ahí la necesidad de un Derecho en red con participación horizontal de todos los involucrados, cuya regulación emane de la comunidad afectada (instituciones, individuos y empresas) articulado de variadas formas, en especial, mediante soft law. También se puede recurrir a la estandarización técnica internacional de naturaleza privada cuya regulación una vez adoptada por el sector, es aceptada por los Estados, produciéndose el reenvío desde la normativa pública a la privada o remisiones directas o indirectas a las distintas versiones de la norma técnica privada (por ejemplo, a las normas ISO). Otra opción es articular a través de códigos, normas de conducta, modelos de autorregulación permitida por los poderes públicos, fórmulas regulatorias que en muchos casos tienen mayores garantías de eficacia considerando que se trata de un fenómeno fundamentalmente transnacional.

Según el principio de cautela o precaución, proclamado por la Comisión Europea desde el año 2000, si una política o acción puede causar daño a las personas o al medio ambiente, y no existe consenso científico al respecto, la política o acción en cuestión debe abandonarse. Además, el principio de responsabilidad activa en el ámbito del Derecho a implicado el uso de técnicas como los estudios de impacto previos, especialmente en el ámbito del medio ambiente o la discriminación, y las técnicas de responsabilidad proactiva, demostrada o accountability que se exigen en materia de protección de datos, de tal modo que quien asume la responsabilidad de tratar datos personales debe cumplir las exigencias normativas y ser capaz de demostrarlo.

Es digno de destacarse cómo en los últimos 5 años, la Unión Europea ha puesto en vigencia una copiosa normativa que procura regular la IA, la robótica y el Big Data, en aras de proteger al ser humano de eventuales peligros. Lo cual contrasta con la escasa o ninguna regulación que al respecto dispone América Latina, Región ésta que debería asimilar inmediatamente la normativa europea sin ningún prejuicio ni temor.

En el ámbito de la IA surgen nuevos derechos, necesarios para proteger al individuo de nuevas amenazas que el uso de la tecnología hace posible. Entre otros, son especialmente importantes: el derecho al contacto humano significativo y el derecho a no ser perfilado, medido, analizado, aconsejado (coached) o provocado (nudged). Y se discute actualmente sobre la posibilidad de otorgar una personalidad robótica específica, de tal manera que puedan ser consideradas como personas electrónicas.

Una adecuada regulación sobre robótica, en relación al mundo del trabajo, debe permitir que el robot trabaje exclusivamente en plazas peligrosas, insalubres y tediosas; obligar que el robot cotice a la seguridad social; y, que sea responsable por los daños que cause, transmitiendo esa responsabilidad a su propietario y a sus constructores.

Todas estas reflexiones nos llevan a concluir que, así como en el mundo de la tecnología y la inteligencia artificial, en el ámbito del Derecho hemos traspasado ya el umbral de una nueva era, pletórica de bondades, desafíos, y amenazas.

REFERENCIAS BIBLIOGRÁFICAS

Asamblea Parlamentaria del Consejo de Europa. (2012). Cuarta Parte de la Sesión Ordinaria de 2012. Estrasburgo, Francia.

Asimov, I. (1943). Círculo vicioso (Runaround).

Bauman, Z. (2004). Modernidad líquida. México D.F.: Editorial Fondo de Cultura Económica.

Bengio, Y., Courville A., y Vincent. P. (2013). Representation Learning: A Review and New Perspectives. IEEE Trans, PAMI, special issue Learning Deep Architectures.

Bloch, E. (1980). Derecho natural y dignidad humana, trad. González Vicén, Aguilar. Madrid.

Boyd D. y Crawford K. (2011). Six Provocations for Big Data, A Decade in Internet Time: Symposium on the Dynamics of the Internet and Society.

Citron, D. K. (2007). Technological Due Process. Wash. U. L. Rev., 85, pp. 1249-1313.

Coglianse, C. y Lehr, D. (2017). Regulating by Robot: Administrative Decision Making in the MachineLearning Era. Georgetown Law Journal, Forthcoming, University of Penn, Institute for Law & Econ Research Paper, (17-8).

Comisión Europea (2000). Comunicación de la Comisión sobre el recurso al principio de precaución. COM/2000/0001 final. Recuperado de: https:// eur-lex.europa.eu/legalcontent/ES/TXT/ HTML/?uri=CELEX:52000DC0001&from=ES

Cotino Hueso, L. (2017). Big data e inteligencia artificial. Una aproximación a su tratamiento jurídico desde los derechos fundamentales. Revista Internacional de Éticas Aplicadas, (24), pp. 131-150.

Cotino Hueso, L. (2019), Riesgos e impactos del Big Data, la inteligencia artificial y la robótica. Enfoques, modelos y principios de la respuesta del derecho. Revista General de Derecho Administrativo, (50).

Doménech, G. (2017). La regulación de la economía colaborativa en el sector del taxi y los VTC. En Montero Pascual, Juan José (dir.), La regulación de la economía colaborativa. Airbnb, BlaBlaCar, Uber y otras plataformas, pp. 351401.

García Rubio, M. P. (2016). Sociedad líquida y codificación. Anuario de derecho civil, 69(3), pp. 743-780.

Gartner, S. (2012). Emerging Market Analysis. México: IT.

González, P. A. (2017). Responsabilidad proactiva en los tratamientos masivos de datos, en Dilemata, Ética de datos, sociedad y ciudadanía, (24), pp. 115-129.

Guanter, S. (2018). Robótica y su impacto en los Recursos Humanos y en el marco regulatorio de las Relaciones Laborales, capítulo tercero. Madrid: Edit. Wolter Kluwer.

IBM KNOWLEDGE CENTER (s. f.). Redes neuronales. Recuperado de: https://www.ibm.com/support/ knowledgecenter/es/SS3RA7_sub/modeler_ mainhelp_client_ddita/components/neuralnet/idh_ neuralnet.html

Consejo de Europa (2017a). Technological convergence, artificial intelligence and human rights. Informe del parlamentario Jean-Yves Le Déaut, Committee on Culture, Science, Education and Media Doc. 14288, Conclusiones, nº 69.

Kant, I. (2002). ¿Qué es la Ilustración? Madrid: Tecnos.

Lodge, M. y Mennicken, A. (2017). The importance of regulation of an by algorithm. En Leighton Andrews, Bilel and others, Algoritmic Regulation, London School of Economics and Políticas Science, Discussion paper, (85), pp. 2-7.

Maihofer, W. (1968). Rechtsstaat und menschliche Würde. Klostermann, Frankfurt a. M.

Martínez Martínez, R. (2017). Cuestiones de ética jurídica al abordar proyectos de Big Data. El contexto del Reglamento General de Protección de Datos. Dilemata, Ética de datos, sociedad y ciudadanía, (24), pp. 151-164.

Mayer-Schönberger, V. y Cukier, K. (2013). Big Data: A Revolution That Will Transform How We Live, Work, and Thin. London: John Murray Publishers.

Monasterio, A. (2017). Ética algorítmica: Implicaciones éticas de una sociedad cada vez más gobernada por algoritmos. Dilemata, Ética de datos, sociedad y ciudadanía, (24), pp.

Muñoz Machado, S. (2000). La regulación de la Red. Poder y Derecho en Internet. Madrid: Taurus.

Parlamento Europeo y del Consejo. (2016). Reglamento Europeo de Protección de Datos. REGLAMENTO (UE) 2016/679.

Parlamento Europeo. (2017a). Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica, n° 1 (2015/2103/INL).

Parlamento Europeo. (2017b). Resolución del Parlamento Europeo, de 14 de marzo de 2017, sobre las implicaciones de los macrodatos en los derechos fundamentales: privacidad, protección de datos, no discriminación, seguridad y aplicación de la ley (2016/2225/INI).

Pérez Luño, A. (2017). Derechos Humanos, Estado de Derecho y Constitución, 11° ed. Madrid: Tecnos.

Petit, N. (2017). Law and Regulation of Artificial Intelligence and Robots - Conceptual Framework and Normative Implications. Working paper.

Pibá, J. (ed.) (2016). Liquid Society and Its Law. Routledge.

Puyol Montero, J. (2014). Una aproximación a Big Data. Revista de Derecho UNED, (14), pp. 471-505.

Ranchordas, S. (2014). Constitutional Sunsets And Experimental Legislation: A Comparative Perspective. Chentelham: EDWARD Elgar Pub.

Reed, C. (2012). Making Laws for Cyberspace, cap. IV. Oxford, London: Oxford University Press.

Sánchez Barrilao, J. (2016). El Derecho constitucional ante la era de Ultrón: la informática y la IA como objeto constitucional. Estudios de Deusto, Revista de la Universidad de Deusto, 64(2), pp. 225-258.

Santos González, M. (2017). Regulación legal de la robótica y la IA: retos de futuro. Revista Jurídica de la Universidad de León, (4), pp. 25-50.

Tarrés Vives, M. (2003). Las normas técnicas en el Derecho Administrativo. Documentación Administrativa, (265266), pp. 151-184.

Tene O. y Polonetsky, J. (2013). Big data for All: Privacy and User Control in the Age of Analytics. Northwestern Journal of Technology and Intellectual Property, 11(5).

Villaverde Menéndez, I. (2018). El constitucionalismo líquido. La dogmática constitucional de los derechos fundamentales del siglo XXI tras 40 años de Constitución Española de 1978. En R. Punset et al (coord). Cuatro décadas de una Constitución normativa (1978-2018): Estudios sobre el desarrollo de la Constitución Española, pp. 31-51.

Zetzsche, Dirk et. al. (2017). Regulating a Revolution: From Regulatory Sandboxes to Smart Regulation. Fordham Journal of Corporate and Financial Law, pp. 31-103.

Notas

1 Se refiere a la convergencia de la IA, la robótica y el Big Data.
2 Según el RAE (2014), la definición de androide es: autómata de figura humana.
3 La Ley de Moore, dice que la capacidad informática se duplica aproximadamente cada dos años. Si alguien ofrece un centavo hoy, dos centavos mañana, cuatro centavos al día siguiente, y así sucesivamente, cada día durante un mes, tendría más de U$ 2 millones a finales del mes.
4 El Código de Conducta para los ingenieros en robótica, del Parlamento Europeo señala: “Derechos fundamentales: Las actividades de investigación en materia de robótica deben respetar los derechos fundamentales; y por su parte, las actividades de concepción, ejecución, difusión y explotación, por su parte, han de estar al servicio del bienestar y la autodeterminación de las personas y de la sociedad en general. La dignidad y la autonomía humanas — tanto físicas como psicológicas — siempre tienen que respetarse”.
5 En el ámbito del Big Data no falta quienes se inclinan hacia formas de regulación suaves (Tene y Polonetsky, 2013). En el ámbito de la
6 Autonomía, adquirida a través de sensores y/o mediante el intercambio y análisis de datos (interconectividad).

Notas de autor

* Pontificia Universidad Católica del Ecuador - PUCE. Professor of law (Docente titular).

Email: ONAVAST@puce.edu.ec

Ciudad: Quito

País: Ecuador

ORCID:https://orcid.org/0000-0003-1889-7437

Enlace alternativo

HTML generado a partir de XML-JATS4R por