Secciones
Referencias
Resumen
Servicios
Buscar
Fuente


Desafíos éticos de la Inteligencia Artificial en la personalización del aprendizaje
Ethical Challenges of Artificial Intelligence in the personalization of learning
Desafios éticos da inteligência artificial na personalização da aprendizagem
Revista Interamericana de Investigación, Educación y Pedagogía, vol. 17, núm. 2, pp. 377-392, 2024
Universidad Santo Tomás

Artículo de reflexión


Recepção: 12 Fevereiro 2024

Aprovação: 15 Abril 2024

DOI: https://doi.org/10.15332/25005421.10000

Resumen: La Inteligencia Artificial (IA) ha emergido como una fuerza transformadora en múltiples aspectos de la sociedad contemporánea, incluyendo la educación. A pesar de sus promesas de personalizar el aprendizaje y mejorar los resultados educativos, su implementación plantea desafíos éticos significativos. Este artículo explora tales desafíos, focalizándose en la equidad educativa, el empoderamiento del estudiante, la construcción de confianza en los sistemas de IA, la protección de datos personales y la preservación de la diversidad educativa. Aunque la IA ofrece la capacidad de adaptar la enseñanza a las necesidades personales, existe el riesgo de amplificar desigualdades preexistentes debido a disparidades en el acceso a la tecnología y recursos educativos, o de una dependencia excesiva de la tecnología.

La reflexión ética y la implementación de políticas adecuadas son fundamentales para maximizar los beneficios de la IA mientras se mitigan sus posibles repercusiones negativas en el ámbito educativo.

Palabras clave: Inteligencia artificial, justicia, responsabilidad, transparencia, privacidad, autonomía.

Abstract: Artificial Intelligence (AI) has emerged as a transformative force in multiple aspects of contemporary society, including education. Despite its promises to personalize learning and improve educational outcomes, its implementation poses significant ethical challenges. This article explores such challenges, focusing on educational equity, student empowerment, building trust in AI systems, protecting personal data and preserving educational diversity. While AI offers the ability to tailor learning to personal needs, there is a risk of amplifying pre-existing inequalities due to disparities in access to technology and educational resources, or over-reliance on technology. Ethical reflection and the implementation of appropriate policies are critical to maximize the benefits of AI while mitigating its potential negative impacts on education.

Keywords: Artificial intelligence, fairness, accountability, transparency, privacy, autonomy.

Resumo: A Inteligência Artificial (IA) surgiu como uma força transformadora em múltiplos aspectos da sociedade contemporânea, incluindo a educação. Apesar das suas promessas de personalizar a aprendizagem e melhorar os resultados educativos, a sua aplicação coloca desafios éticos significativos. Este artigo explora esses desafios, centrando-se na equidade educativa, na capacitação dos estudantes, na criação de confiança nos sistemas de IA, na proteção dos dados pessoais e na preservação da diversidade educativa. Embora a IA ofereça a capacidade de adaptar a aprendizagem às necessidades pessoais, existe o risco de amplificar as desigualdades pré-existentes devido a disparidades no acesso à tecnologia e aos recursos educativos, ou a uma dependência excessiva da tecnologia. A reflexão ética e a aplicação de políticas adequadas são fundamentais para maximizar os benefícios da IA e, ao mesmo tempo, atenuar os seus potenciais impactos negativos na educação.

Palavras-chave: Inteligência artificial, justiça, responsabilidade, transparência, privacidade, autonomia.

Introducción

La Inteligencia Artificial (IA) ha arribado como una fuerza transformadora en diversos aspectos de la vida contemporánea, desde la economía y la salud hasta la educación y el entretenimiento ( Aparicio-Gómez, et al, 2024). Su potencial para revolucionar industrias y mejorar la calidad de vida es innegable; sin embargo, este avance tecnológico también trae consigo un conjunto de desafíos éticos que deben ser abordados para asegurar un desarrollo y aplicación responsables. Este artículo se adentra en los desafíos éticos emergentes asociados con la IA en la personalización del aprendizaje, explorando cómo asegurar la equidad, empoderar el aprendizaje, construir confianza, proteger los datos estudiantiles y preservar la libertad de aprender.

Uno de los principales desafíos éticos en la aplicación de IA para la personalización del aprendizaje es garantizar la equidad educativa. Si bien la IA promete adaptar los contenidos y métodos educativos según las necesidades individuales de los estudiantes, existe el riesgo de perpetuar y amplificar desigualdades preexistentes. Factores como el acceso desigual a la tecnología, recursos educativos limitados y disparidades socioeconómicas pueden influir en cómo los estudiantes se benefician de las herramientas de IA. Es crucial desarrollar políticas y prácticas que aseguren que todos los estudiantes, independientemente de su origen o contexto, puedan acceder y beneficiarse equitativamente de la personalización del aprendizaje mediante IA.

La IA ofrece oportunidades significativas para empoderar a los estudiantes a través de un aprendizaje más autónomo y personalizado. Al analizar datos y patrones de aprendizaje, los sistemas de IA pueden identificar áreas de fortaleza y debilidad de cada estudiante, ofreciendo retroalimentación y recursos adaptados para maximizar su progreso académico. Esta capacidad para individualizar la experiencia educativa no solo mejora el rendimiento académico, sino que también fomenta la motivación intrínseca y el compromiso del estudiante. Sin embargo, es fundamental que este empoderamiento no se traduzca en una dependencia excesiva de la tecnología ni en la reducción de la interacción humana en el proceso educativo.

La construcción de confianza en los sistemas de IA utilizados para la personalización del aprendizaje es esencial para su aceptación y efectividad. Los educadores, estudiantes y padres deben confiar en que los algoritmos de IA son éticos, transparentes y están diseñados para beneficiar genuinamente el aprendizaje del estudiante. La transparencia en cómo se recopilan, utilizan y analizan los datos estudiantiles es crucial para mitigar preocupaciones sobre la privacidad y la seguridad de la información personal. Los sistemas de IA deben estar sujetos a una supervisión ética constante para evitar sesgos algorítmicos y asegurar que las decisiones educativas no estén influenciadas por variables irrelevantes o discriminatorias.

La proliferación de datos personales en entornos educativos impulsados por IA plantea serias preocupaciones sobre la privacidad y la protección de datos. Los sistemas de IA recopilan una gran cantidad de información sensible sobre el rendimiento académico, las preferencias de aprendizaje y el comportamiento del estudiante. Es fundamental implementar políticas claras y protocolos robustos de seguridad cibernética para proteger estos datos contra accesos no autorizados, uso indebido y brechas de seguridad. Los educadores y administradores deben educar a los estudiantes sobre la importancia de la privacidad digital y empoderarlos para tomar decisiones informadas sobre cómo se utilizan sus datos personales en contextos educativos.

La personalización del aprendizaje mediante IA tiene el potencial de transformar positivamente la experiencia educativa al adaptarse a las necesidades individuales y preferencias de los estudiantes. Sin embargo, existe el riesgo de que la personalización extrema pueda limitar la diversidad de perspectivas y experiencias educativas. Es crucial mantener un equilibrio entre la adaptación personalizada y la exposición a una variedad de contenidos, ideas y métodos educativos. La preservación de la libertad de aprender implica no solo ofrecer opciones educativas diversas, sino también fomentar un entorno inclusivo donde los estudiantes puedan desarrollar habilidades críticas, creativas y colaborativas que trasciendan las limitaciones de los algoritmos de IA.

La integración de la IA en la personalización del aprendizaje presenta oportunidades emocionantes para mejorar la educación mediante enfoques adaptativos y centrados en el estudiante. No obstante, para maximizar los beneficios y mitigar los riesgos éticos, es imperativo abordar de manera proactiva los desafíos relacionados con la equidad, el empoderamiento, la confianza, la privacidad de los datos y la libertad educativa. Este artículo explora estas cuestiones éticas fundamentales, subrayando la necesidad de políticas informadas y prácticas éticamente responsables que guíen el desarrollo y la implementación de sistemas de IA en contextos educativos contemporáneos.

Asegurando la equidad en la educación personalizada

En un mundo donde la IA está cada vez más presente, asegurar la justicia es fundamental para evitar desigualdades y asegurar que los beneficios de la personalización del aprendizaje se distribuyan equitativamente entre todos los sectores de la sociedad ( Brundage, et al., 2020). Una importante dimensión radica en el diseño y desarrollo de algoritmos. Los sistemas de IA deben ser diseñados con cuidado para mitigar sesgos y discriminaciones. Esto implica usar datos representativos y diversificados durante el entrenamiento de los algoritmos, evitando así la perpetuación de prejuicios históricos y sociales. Es esencial implementar auditorías de equidad que identifiquen y corrijan cualquier forma de parcialidad en los sistemas de IA.

Los desarrolladores y científicos de datos tienen la responsabilidad de adoptar enfoques que promuevan esta justicia algorítmica ( O'Neill, 2017). Esto incluye métodos para detectar y corregir sesgos tanto en los datos como en los resultados generados por los modelos de IA. La justicia en la IA abarca la accesibilidad y la distribución equitativa de los beneficios tecnológicos. Si bien la IA puede transformar la educación y mejorar la calidad de vida, es crucial que estos avances estén disponibles para todos, no solo para unos pocos privilegiados. Se deben establecer políticas y marcos regulatorios que fomenten la inclusión digital y el acceso equitativo a estas tecnologías avanzadas, cerrando así las brechas digitales entre diferentes grupos socioeconómicos y evitando que la IA amplifique las desigualdades existentes.

Las decisiones basadas en IA pueden tener un impacto significativo en áreas como la educación, las finanzas y el empleo. Por lo tanto, es crucial que los procesos de toma de decisiones sean transparentes y comprensibles para aquellos afectados por estas decisiones ( Toft, 2018). Esta transparencia no solo promueve la confianza en los sistemas de IA, sino que también facilita una supervisión efectiva y una rendición de cuentas adecuada. Igualmente, la justicia distributiva en el contexto de la IA implica asegurar que los beneficios económicos generados por estas tecnologías sean distribuidos de manera justa entre todas las partes interesadas, incluidos los trabajadores y las comunidades impactadas por la automatización y los cambios en el mercado laboral.

Las decisiones tomadas con el apoyo de la IA hoy pueden tener repercusiones a largo plazo para las generaciones futuras ( Verma, 2019). Es esencial considerar estos impactos a largo plazo y asegurar que las soluciones basadas en IA no comprometan el bienestar ni los derechos de las generaciones venideras. Asimismo, la justicia en el contexto global implica adaptar el desarrollo y la implementación de la IA a las diversas realidades culturales y contextuales en todo el mundo, reconociendo que las soluciones tecnológicas efectivas pueden variar significativamente de una región a otra.

Usando la tecnología para empoderar el aprendizaje

La rápida expansión de la IA ha ampliado significativamente las posibilidades y desafíos en múltiples áreas de la sociedad contemporánea. En este contexto, la noción de responsabilidad emerge como un principio ético fundamental que guía el diseño, desarrollo y aplicación de la IA ( Doshi et al., 2020). En el presente epígrafe, exploraremos la importancia de utilizar la tecnología para empoderar el aprendizaje mediante la responsabilidad en el uso de la IA, abordando sus implicaciones éticas, sociales y legales, así como los mecanismos necesarios para asegurar una práctica responsable en este ámbito.

La responsabilidad en el uso de la IA implica un compromiso ético por parte de todos los actores involucrados, desde los desarrolladores y diseñadores de sistemas de IA hasta los usuarios finales y los responsables de su implementación en la sociedad ( Aparicio-Gómez, et al, 2024). Este compromiso se basa en la necesidad de asegurar que los beneficios derivados de la IA se maximicen, mientras se minimizan los riesgos y efectos adversos asociados con su aplicación.

Es crucial reconocer la responsabilidad de los diseñadores y desarrolladores de sistemas de IA en la creación de tecnologías éticamente responsables que empoderen el aprendizaje. Esto implica adoptar prácticas de diseño centradas en el ser humano, que consideren no solo la eficiencia y precisión de los algoritmos, sino también sus posibles impactos sociales, culturales y éticos ( Mittelstadt, 2019). Los principios de diseño ético, como la equidad, la transparencia y la rendición de cuentas, deben integrarse en todas las etapas del ciclo de vida del desarrollo de la IA.

Los usuarios finales de la IA tienen una responsabilidad activa en su uso ético y responsable, incluyendo la comprensión de los sistemas con los que interactúan y la toma de decisiones informadas sobre su implementación en contextos específicos. La alfabetización digital y la formación en ética de la IA son componentes determinantes para capacitar a los usuarios en la evaluación crítica y el uso reflexivo de estas tecnologías.

La responsabilidad en el uso de la IA también abarca aspectos legales y regulatorios. Es esencial establecer marcos normativos que rijan el desarrollo y despliegue de la IA, garantizando la protección de los derechos individuales y colectivos, así como la rendición de cuentas por parte de los agentes involucrados ( Pasquale, 2020). Estos marcos deben ser adaptables y actualizables para hacer frente a los rápidos avances tecnológicos y los nuevos desafíos éticos que surgen en el uso de la IA.

La gestión adecuada de los riesgos asociados con la implementación de la IA es un aspecto crucial de la responsabilidad en su uso. Esto incluye la identificación de posibles sesgos algorítmicos, discriminación algorítmica y otros impactos adversos que puedan surgir en el despliegue de sistemas de IA. La evaluación de riesgos éticos debe ser un componente integral de la planificación y desarrollo de proyectos de IA, con el objetivo de minimizar los riesgos potenciales y mitigar sus consecuencias negativas.

La responsabilidad en el uso de la IA implica un compromiso con la rendición de cuentas y la transparencia en todas las etapas del ciclo de vida de estos sistemas ( Sandvig & Wachter, 2019). Los desarrolladores y usuarios de la IA deben ser transparentes sobre cómo se recopilan, procesan y utilizan los datos, así como sobre los algoritmos y modelos subyacentes en los sistemas de IA. Solo mediante un enfoque ético y colaborativo podemos aprovechar plenamente el potencial transformador de la IA en la educación, asegurando que cada implementación contribuya positivamente al empoderamiento y desarrollo integral de los estudiantes.

Construyendo confianza en la personalización del aprendizaje

La transparencia emerge como un principio esencial en el desarrollo ético de la IA, desempeñando un papel fundamental en la construcción de confianza tanto entre los usuarios como en la sociedad en general, especialmente en el contexto de la personalización del aprendizaje. En un entorno educativo cada vez más influenciado por la IA, la transparencia se convierte en un mecanismo indispensable para entender, evaluar y confiar en estas tecnologías. Esta dimensión abarca desde la claridad en el diseño y operación de los algoritmos hasta la apertura en la gestión de datos y los procesos de toma de decisiones ( Castelvecchi, 2016).

La transparencia en el diseño de sistemas de IA implica la necesidad de que estos sean comprensibles para los educadores y los responsables de su implementación. Los algoritmos deben explicarse de manera accesible, permitiendo una evaluación crítica de su desempeño y posibles sesgos. Esto es crucial para asegurar que las decisiones automatizadas en la personalización del aprendizaje sean justas y éticamente sólidas.

Así, transparencia en la recopilación y uso de datos es esencial para mantener la confianza en los sistemas de IA educativos. Los usuarios deben ser informados claramente sobre qué datos se recopilan, cómo se utilizan y cómo se protege su privacidad. Esto no solo protege los derechos individuales, sino que también fomenta una cultura de responsabilidad y confianza en la comunidad educativa respecto al uso ético de la IA ( Gebhardt et al., 2020).

Sin embargo, alcanzar un nivel adecuado de transparencia en la IA presenta desafíos significativos. La complejidad de algunos algoritmos puede dificultar su comprensión para los no especialistas, lo que subraya la necesidad de desarrollar interfaces y herramientas educativas que faciliten la interpretación de los resultados algorítmicos. Por lo tanto, la gestión de grandes volúmenes de datos plantea preocupaciones en términos de privacidad y seguridad, requiriendo políticas claras y procedimientos robustos para garantizar la protección de la información sensible ( Lipton, 2018).

Para abordar estos desafíos, es esencial que los desarrolladores de IA y los responsables de políticas adopten prácticas de transparencia desde las primeras etapas del diseño. Esto implica no solo desarrollar algoritmos comprensibles, sino también promover la colaboración entre la academia, la industria y la sociedad civil para establecer estándares éticos y mejores prácticas. La transparencia no solo fortalece la rendición de cuentas y la supervisión regulatoria, sino que también empodera a los educadores y estudiantes al proporcionarles el conocimiento necesario para participar activamente en el uso y desarrollo ético de la IA en la personalización del aprendizaje.

Protegiendo los datos de los estudiantes en la era de la IA

La protección de la privacidad se erige como un derecho humano fundamental, especialmente crucial en el contexto de la IA. En un entorno digitalizado y globalizado, donde los datos son activos de gran valor, preservar la privacidad de las personas se convierte en una piedra angular para asegurar su autonomía y dignidad. Este derecho abarca el control que tienen las personas sobre la recolección, uso y divulgación de su información personal, algo particularmente vulnerable debido a la capacidad intrusiva y omnipresente de las tecnologías de recolección y análisis de datos utilizadas en IA ( Acquisti et al., 2015).

Para abordar estos desafíos éticos, es imperativo integrar consideraciones de privacidad a lo largo de todo el ciclo de vida de los sistemas de IA. Desde la recopilación inicial de datos hasta su implementación y más allá, se deben adoptar medidas proactivas para minimizar la recopilación y retención de datos personales. Esto incluye la implementación de robustas medidas de seguridad y anonimización para proteger la información sensible ( Solove, 2008). Es crucial también asegurar la transparencia y el consentimiento informado de las personas en cuanto al uso de sus datos en aplicaciones de IA, permitiéndoles comprender cómo se recopilan, almacenan y utilizan sus datos, así como la posibilidad de optar por no participar en ciertos tipos de procesamiento de datos si así lo desean. Esto requiere un diseño centrado en el usuario que garantice la claridad y accesibilidad en la comunicación de políticas de privacidad y gestión de datos.

Un aspecto crítico en la protección de la privacidad en la IA es la mitigación de sesgos y discriminación algorítmica. Los sistemas de IA pueden perpetuar y amplificar sesgos inherentes en los datos, lo que puede resultar en decisiones injustas o discriminatorias. Es esencial, por tanto, implementar estrategias para identificar y corregir estos sesgos, asegurando así la equidad y la imparcialidad en la aplicación de los algoritmos, de tal manera que así como los retos técnicos y éticos, la privacidad en la IA también plantea importantes cuestiones legales y regulatorias ( Zuboff, 2019). Establecer marcos normativos sólidos es fundamental para proteger la privacidad de las personas sin obstaculizar la innovación y el desarrollo tecnológico. Esto requiere una colaboración estrecha entre legisladores, reguladores, expertos en tecnología y la sociedad en general, con el fin de diseñar políticas que equilibren adecuadamente la protección de la privacidad con otras consideraciones sociales y económicas.

El hecho de garantizar la privacidad en la era de la IA no solo implica salvaguardar datos personales contra usos indebidos o intrusivos, sino también asegurar que la tecnología se implemente de éticamente. Solo mediante un enfoque integral que integre principios éticos, técnicos y legales, podemos maximizar los beneficios de la IA en la personalización del aprendizaje mientras protegemos los derechos fundamentales de los estudiantes y todos las personas involucrados.

Preservando la libertad de aprender

La autonomía humana, en el marco de la ética de la IA, se centra en la capacidad de las personas para tomar decisiones significativas y mantener el control sobre sus propias vidas. Es crucial que la IA sea diseñada y aplicada de manera que fortalezca este principio fundamental, en lugar de erosionarlo al relegar la toma de decisiones a sistemas automatizados ( Calo, 2015). La preservación de la autonomía implica garantizar que los sistemas de IA proporcionen información clara y accesible, permitiendo a los usuarios entender cómo se utilizan sus datos y cómo se generan las decisiones algorítmicas.

Los desarrolladores de IA tienen la responsabilidad de fomentar la transparencia en el funcionamiento de los algoritmos, asegurando que los usuarios puedan tomar decisiones informadas y participar activamente en el proceso ( Floridi, 2013). Es esencial evitar diseños que manipulen o coaccionen a los usuarios, comprometiendo su capacidad para decidir de manera autónoma. La capacidad de la IA para influir en el comportamiento humano, a través de la personalización y la predicción, debe ser ejercida con precaución para no limitar injustamente la libertad de elección de las personas.

En entornos como el cuidado de la salud, los sistemas de IA pueden ofrecer recomendaciones personalizadas de tratamiento. Sin embargo, es crucial que estas recomendaciones sean transparentes y basadas en evidencia científica sólida, permitiendo a los pacientes decidir de manera informada sobre su atención médica ( Johnson, 2016). De lo contrario, existe el riesgo de que la IA influya indebidamente en las decisiones de los pacientes, comprometiendo su autonomía y bienestar.

Es fundamental considerar el impacto de la IA en la distribución del poder y la toma de decisiones en la sociedad. La concentración de poder en aquellos que diseñan y controlan los sistemas de IA podría amenazar la autonomía y la participación democrática de las personas. Por ello, se deben establecer mecanismos robustos de rendición de cuentas y gobernanza transparente para garantizar que la IA se utilice de manera ética, respetando los derechos y la autonomía de todos los miembros de la sociedad.

El ejercicio de preservar la autonomía humana en sistemas de IA no solo implica garantizar la transparencia y la participación informada de los usuarios, sino también proteger contra la manipulación algorítmica y asegurar que la influencia de la IA no socave indebidamente la capacidad de las personas para tomar decisiones autónomas y significativas en sus vidas.

Conclusiones

La integración de la IA en la personalización del aprendizaje presenta desafíos éticos significativos que deben abordarse para asegurar un desarrollo responsable y beneficioso en el ámbito educativo. Principalmente, la equidad educativa emerge como una preocupación central, dado el riesgo de que la IA amplifique desigualdades existentes debido a disparidades en el acceso a la tecnología y recursos educativos. Para mitigar este riesgo, es esencial implementar políticas que garanticen que todos los estudiantes, independientemente de su trasfondo, puedan beneficiarse equitativamente de las herramientas de IA.

La capacidad de la IA para empoderar a los estudiantes mediante un aprendizaje más personalizado y autónomo es prometedora, pero debe equilibrarse con la preservación de interacciones humanas significativas en el proceso educativo.

Construir confianza en los sistemas de IA es crucial, requiriendo transparencia en el manejo de datos estudiantiles y la implementación de medidas para mitigar sesgos algorítmicos y proteger la privacidad.

La protección de datos personales también se destaca como una preocupación relevante, subrayando la necesidad de políticas claras y protocolos de seguridad robustos para evitar el acceso no autorizado y el uso indebido de información sensible. Finalmente, preservar la libertad de aprender implica no solo ofrecer personalización educativa, sino también fomentar la diversidad de perspectivas y experiencias educativas para desarrollar habilidades críticas y creativas en los estudiantes.

La implementación ética de la IA en la personalización del aprendizaje requiere un enfoque deliberado en estos desafíos éticos fundamentales. Abordar estos temas no solo asegurará que la IA mejore efectivamente la educación, sino que también garantizará que este avance tecnológico se desarrolle de manera responsable, beneficiando a todos los estudiantes de manera equitativa.

Referencias

Acquisti, A., Brandimarte, L., & Loewenstein, G. (2015). Privacy and human behavior in the age of information. Science, 347(6221), 509-514.

Aparicio-Gómez, Oscar-Yecid, Aparicio-Gómez, Carlos Alfonso., & von Feigenblatt, Otto Federico (2024). Tejiendo conexiones: la simbiosis transformadora entre aprendizaje e Inteligencia Artificial. Hachetetepé. Revista científica De Educación y Comunicación, (28), 1-11. https://doi.org/10.25267/Hachetetepe2024.i28.1103

Aparicio-Gómez, Oscar-Yecid, Aparicio-Gómez, William-Oswaldo (2024). Homo technicus: From techné to Artificial Intelligence. von Feigenblatt, Otto., Aparicio-Gómez, Oscar-Yecid (Eds.) (2024). Artificial Intelligence and Education: An Ongoing Dialogue (pp. 97-119). Barcelona: Octaedro. ISBN: 978-84-10282-04-9.

Brundage, M., Klein, J., & Wang, M. (2020). The malicious use of artificial intelligence: Forecasting, prevention, and mitigation. Artificial Intelligence, 328.

Calo, R. (2015). Against autonomy: Why self-driving cars, and other autonomous machines, are bad ideas. Columbia Law Review, 114(4), 993-1062.

Castelvecchi, V. (2016). Making AI explainable: Efforts to demystify machine learning and make it more transparent. Nature News, 538(7623), 435.

Doshi, V., Whittaker, C., & Tambe, P. (2020). Auditing AI: A framework for enabling the responsible use of artificial intelligence. Proceedings of the ACM on Human-Computer Interaction, 4(CSCW1), 1-18.

Floridi, L. (2013). The ethics of information. MIT Press.

Gebhardt, M., Wadler, S., & Berk, A. (2020). Bias and fairness in artificial intelligence. Proceedings of the AAAI Conference on Artificial Intelligence, 34(01), 745-752.

Johnson, D. D. (2016). Pervasive artificial intelligence: Should we fear or welcome it? In The ethics of artificial intelligence (pp. 246-263). Cambridge University Press.

Lipton, Z. C. (2018). The flip side of learning: A survey of algorithmic biases. Communications of the ACM, 61(7), 38-47.

Mittelstadt, B., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2019). The ethics of artificial intelligence. Nature, 561(7723), 388-392.

O'Neill, S. (2017). Weapons of math destruction: How big data increases inequality and threatens democracy. Crown Publishing.

Pasquale, F., & Goertzel, B. (2020). The black box problem and artificial intelligence. Artificial Intelligence and Society, 56, 1-9.

Sandvig, E., & Wachter, S. (2019). Auditing algorithms: Beyond explanation. Science, 365(6453).

Solove, D. J. (2008). Understanding privacy. Harvard University Press.

Toft, M. B. (2018). Algorithmic fairness and the limits of human-centered design. Ethics and Information Technology, 20(2), 223-239.

Verma, S., & Doshi-Velez, F. (2019). Fairness and causality in predictive modeling. Proceedings of the AAAI Conference on Artificial Intelligence, 33(1), 1992- 1999.

Zuboff, S. (2019). The age of surveillance capitalism: The fight for the future of our privacy. PublicAffairs.



Buscar:
Ir a la Página
IR
Visualizador XML-JATS. Desarrollado por