Artículos de Revisión

Exploración filosófica de la epistemología de la inteligencia artificial: Una revisión sistemática

Philosophical exploration of the epistemology of artificial intelligence: a systematic review

Daniel Román-Acosta
Universidad de Zulia, República Bolivariana de Venezuela

Exploración filosófica de la epistemología de la inteligencia artificial: Una revisión sistemática

Uniandes Episteme. Revista digital de Ciencia, Tecnología e Innovación, vol. 11, núm. 1, pp. 101-122, 2024

Universidad Regional Autónoma de los Andes

©️2023 por los autores. Este artículo es de acceso abierto y distribuido según los términos y condiciones de la licencia Creative Commons Atribución-NoComercial-CompartirIgual 4.0 Internacional.

Recepción: 03 Diciembre 2023

Revisado: 18 Diciembre 2023

Aprobación: 21 Diciembre 2023

Publicación: 01 Enero 2024

Resumen: Este trabajo exploró la intersección filosófica de la inteligencia artificial mediante una revisión sistemática que abordó la epistemología y la autenticidad de la comprensión de las máquinas. El contexto actual de rápido crecimiento en IA plantea cuestionamientos sobre la naturaleza del conocimiento que generan las máquinas. Se establecieron tres preguntas clave para guiar la revisión, y se aplicó parte de la declaración PRISMA en la búsqueda y selección de estudios relevantes. Los resultados revelaron una diversidad de perspectivas filosóficas y resaltaron la complejidad de evaluar la autenticidad de la comprensión de las máquinas. La conclusión destacó la necesidad continua de investigar esta intersección, enfatizando la importancia de marcos teóricos que integren ética y epistemología en la evaluación del conocimiento generado por la IA.

Palabras clave: Epistemología, información y comunicación, inteligencia artificial, conocimiento, transferencia de conocimiento.

Abstract: This work explored the philosophical intersection of artificial intelligence (AI) through a systematic review addressing the epistemology and authenticity of machine understanding. The current context of rapid AI growth raises questions about the nature of knowledge generated by machines. Three key questions were established to guide the review, and the PRISMA statement was applied in the search and selection of relevant studies. The results revealed a diversity of philosophical perspectives and underscored the complexity of assessing the authenticity of machine understanding. The conclusion highlighted the ongoing need to investigate this intersection, emphasizing the importance of theoretical frameworks that integrate ethics and epistemology in assessing knowledge generated by AI.

Keywords: Epistemology, information and communication, artificial intelligence, knowledge, knowledge transfer.

INTRODUCCIÓN

La epistemología, como rama de la filosofía, analiza críticamente los principios y resultados de una disciplina científica, explorando la naturaleza del conocimiento, la justificación de creencias y la relación entre el que conoce y lo conocido. Busca comprender cómo se adquiere, valida y justifica el conocimiento (Santos y Pieczkowski, 2022). En este sentido, puede aplicarse a otros campos, como la escritura, la política, la salud, la comunicación, la educación y la inteligencia artificial (IA), donde se analiza la validez de las teorías y se reflexiona sobre la naturaleza del conocimiento en esos contextos específicos. (Roman Acosta, 2023; Basile y Feo Istúriz, 2022; Lariguet y Yuan, 2021; Cárdenas, 2007; Roman Acosta et al., 2024; Liu et al., 2021)

La IA es un ámbito dinámico en constante evolución que se ocupa del desarrollo de sistemas inteligentes capaces de percibir, razonar, aprender, comunicarse y actuar en entornos complejos (Liu et al., 2021). Como disciplina emergente, se dedica al estudio y desarrollo de métodos y técnicas teóricas para simular y expandir la inteligencia humana (Cao, 2017). Desde un enfoque técnico, el diseño de una IA beneficiosa destaca la importancia de una base sólida en IA (Tussyadiah, 2020). En términos prácticos, la IA representa una dirección científica aplicada para la creación de complejos sistemas tecnológicos y de software que imitan el gemelo digital de la inteligencia humana, con capacidad para aprender, adaptarse, autorealizarse y evolucionar según las preferencias establecidas.

La mayoría de las definiciones de IA se centran en ella como un subcampo de la informática o en términos de cómo las máquinas pueden imitar la inteligencia humana (Tuo et al., 2021). También se considera que la IA es la capacidad de un sistema para interpretar correctamente datos externos, aprender de esos datos y lograr objetivos y tareas específicas mediante una adaptación flexible (Feng et al., 2021).

Este contexto plantea un desafío actual en la evaluación del aporte de la IA al conocimiento humano, generando debates sobre su capacidad para proporcionar información relevante para la humanidad. En este escenario, la epistemología se ve desafiada a explorar la naturaleza del conocimiento, y la IA no escapa a esta reflexión (Kvanvig, 2003; Arias, 2023).

La definición de epistemología según Vergara Estévez (2010) aporta significativamente a la comprensión integral del análisis crítico de los principios e hipótesis en diversas disciplinas científicas. Destaca que la epistemología "significa o equivale a filosofía de las ciencias, aunque algunos autores sostienen la tesis de su autonomía respecto a la filosofía" (p. 37). Esta perspectiva resulta esencial para evaluar la naturaleza científica del conocimiento generado por la IA.

Por otro lado, Burrell (2016) analiza los algoritmos de aprendizaje automático, proporcionando percepciones cruciales sobre la opacidad de los sistemas de IA. Enfoca la clasificación de información mediante algoritmos computacionales y distingue tres formas de opacidad: (1) la derivada del mantenimiento secreto de información a nivel corporativo o estatal, (2) la resultante del desconocimiento técnico y (3) una opacidad inherente a los algoritmos de aprendizaje automático y la escala necesaria para su aplicación efectiva.

Desde una perspectiva histórica, la epistemología ha abordado cuestiones fundamentales relacionadas con la justificación, la verdad y las creencias. Sin embargo, en el contexto actual, el auge de la IA plantea preguntas cruciales sobre la autenticidad y el alcance del conocimiento producido por las máquinas. Investigadores como Torres Novoa y Ocampo Quintero (2022), Machado (2020), y Zada González y Bravo Placeres (2023) han explorado este terreno, destacando la necesidad de abordar el concepto mismo de conocimiento en el contexto de la IA.

Los enfoques tradicionales de la epistemología han intentado definir el conocimiento en términos de justificación, pero han enfrentado desafíos significativos en este intento (Bird, 2007). Simultáneamente, se ha criticado a la epistemología naturalizada por descuidar el concepto normativo de justificación, una preocupación central en la epistemología tradicional (Laetz, 2010). Asimismo, ha habido un continuo debate en epistemología sobre la importancia del valor de la verdad, abordando cuestionamientos acerca de si la veracidad debería considerarse como un elemento en la valoración de las creencias (Weissglass, 2020).

En este sentido, la presente revisión tiene como objetivo comprender la naturaleza y los desafíos inherentes a la capacidad de las máquinas para generar conocimiento, examinando las contribuciones teóricas de estudios que sitúan la atención en los intentos de abordar la posibilidad y el alcance del conocimiento generado por la IA.

La revisión se basa en una variedad de referentes teóricos, desde enfoques tradicionales en la epistemología hasta perspectivas más contemporáneas, como la epistemología de la virtud, tal como la plantea MacAllister (2012). También se considera la obra de Ganascia (2010), que ofrece una perspectiva filosófica crucial para entender el conocimiento producido por la IA en el contexto de las "ciencias de la naturaleza" y las "ciencias de la cultura". Además, la investigación se nutre de reflexiones éticas, como las presentadas por Omari y Mohammadian (2016), que subrayan la importancia de establecer principios para limitar las acciones de agentes autónomos.

El concepto de hibridación coevolutiva de la inteligencia humana y de la máquina ha sido propuesto como un elemento clave para la intelectualización del mundo, sugiriendo que esta hibridación podría conducir a soluciones para problemas históricamente inaccesibles para la humanidad (Krinkin et al., 2022). Sin embargo, existen debates en curso sobre si las máquinas con IA realmente comprenden los datos que procesan o si simplemente siguen reglas sintácticas, planteando dudas sobre la autenticidad de la comprensión de las máquinas (Pepperell, 2022).

En consecuencia, el avance de la IA está intrínsecamente vinculado a la ingeniería del conocimiento, la confiabilidad y la ética. Jobin y Ienca (2019), destacan lo importante de fomentar la confianza en la IA mediante iniciativas educativas y, al mismo tiempo, considerar cuidadosamente las implicaciones éticas asociadas con los sistemas de IA. Alfred (2022), en su investigación, señala que la IA impacta positivamente al aprovechar el conocimiento de los ingenieros, mejorando sus habilidades en tecnología de la información y subrayando la necesidad imperante de responsabilidad y confiabilidad en las tecnologías de IA.

Es pertinente destacar que, a pesar de los avances impresionantes en el aprendizaje automático y la IA, persiste el escepticismo sobre si estos sistemas realmente están aprendiendo la "verdadera" estructura subyacente (Whittington et al., 2018). Estas cuestiones entrelazan los ámbitos de la filosofía y la tecnología, conduciendo a una exploración del potencial de la IA para producir conocimiento valioso. En otras palabras, la pregunta sobre si las máquinas pueden generar conocimiento relevante para la humanidad implica una indagación profunda en la naturaleza misma del conocimiento y en cómo este se produce (Balanzó et al., 2020).

La novedad de este trabajo radica en la convergencia de la epistemología con la tecnología de IA, explorando la capacidad de las máquinas para generar conocimiento y su autenticidad en comprender datos frente a reglas sintácticas. Este enfoque busca aportar una perspectiva crítica a la discusión filosófica actual, considerando el panorama emergente de la IA y sus implicaciones para la producción de conocimiento.

La importancia de este trabajo en el campo de la epistemología se manifiesta en su contribución a la comprensión de la relación entre la IA y la generación de conocimiento. Al explorar las implicaciones filosóficas de la IA, se busca arrojar luz sobre las posibilidades y limitaciones de las máquinas en la producción de conocimiento valioso para la humanidad (MacAllister, 2012). Asimismo, el trabajo de Tejedor (2022) arroja luz sobre las implicaciones filosóficas del pensamiento científico, especialmente en relación con las ciencias naturales, lo cual es relevante para comprender los fundamentos filosóficos del conocimiento generado por la IA.

El propósito fundamental de este escrito es abordar la pregunta central: ¿pueden las máquinas con IA generar conocimiento relevante para la humanidad? Para responder a esta interrogante, el trabajo se propone analizar los debates filosóficos actuales en torno a la epistemología de la IA y examinar la autenticidad de la comprensión de las máquinas (Román Acosta, 2023; Román Acosta et al., 2024; Wang, 2017; Sankey, 2002; Geman et al., 2015).

La Introducción presenta la delimitación del problema, la revisión de antecedentes y establece la relevancia del estudio. La sección de Métodos detalla la aproximación metodológica empleada en la revisión de literatura y análisis crítico. Los Resultados presentarán las conclusiones derivadas de la revisión, y la Discusión abordará las implicaciones filosóficas y teóricas de los hallazgos, enriqueciendo el debate sobre la capacidad de la IA para generar conocimiento.

DESARROLLO

Enfoque metodológico de la investigación

Para llevar a cabo la revisión sistemática en el ámbito de la epistemología de IA (Linares Espinós et al., 2018), se implementó un enfoque metodológico cualitativo respaldado por las pautas establecidas por expertos en revisión sistemática (Newman y Gough, 2020; Pardal Refoyo y Pardal Peláez, 2020). Este tipo de investigación implica una evaluación de las fuentes documentales relevantes para los debates filosóficos actuales en torno a la IA.

El marco de la investigación se enmarca en un diseño documental, caracterizado por la utilización de diversas fuentes documentales para la recopilación de datos. Siguiendo algunas pautas de la declaración PRISMA (Preferred Reporting Items for Systematic Reviews and Meta-Analyses) como guía (Page et al., 2020), se busca asegurar la transparencia y reproducibilidad en la revisión sistemática de la literatura académica sobre la epistemología de la IA.

La recolección de información se realizó a través de la técnica de observación documental, permitiendo un análisis crítico de las fuentes relevantes para los debates filosóficos en curso (Mishra y Mishra, 2023). Se planteó una pregunta de investigación clave para guiar el proceso: ¿Pueden las máquinas con IA generar conocimiento relevante para la humanidad? Esta pregunta proporcionó un marco conceptual sólido para la revisión sistemática, permitiendo una exploración detallada de los debates y perspectivas en el campo de estudio.

Para realizar la revisión sistemática se implementó un enfoque metodológico cualitativo, respaldado por las pautas establecidas por expertos en revisión sistemática (Newman y Gough, 2020; Pardal Refoyo y Pardal Peláez, 2020). Dentro de un diseño documental, caracterizado por la utilización de diversas fuentes documentales para la recopilación de datos, el investigador se basó en estos documentos con el objetivo de abordar la pregunta de investigación planteada. Este enfoque es comúnmente empleado en la investigación cualitativa para la recopilación y análisis de datos. Además, se utiliza regularmente en investigaciones no experimentales, como las revisiones de literatura, para organizar y seleccionar de manera sistemática la información relevante.

La estrategia de búsqueda se desarrolló minuciosamente, utilizando términos clave y operadores booleanos para identificar estudios relevantes en la epistemología de la IA. Se implementaron las siguientes fórmulas de búsqueda.

En la primera etapa, para abordar la epistemología de la IA, se emplearon los términos "epistemología" y "IA". La fórmula booleana correspondiente fue ("epistemología" AND "IA"), enfocando así la búsqueda en trabajos que exploran la naturaleza del conocimiento generado por sistemas de IA. En inglés, se utilizaron los términos "epistemology" y "AI" con la fórmula booleana correspondiente ("epistemology" AND "AI").

En la segunda fase, para examinar la comprensión de las máquinas, se utilizó el término específico "comprensión de las máquinas", con la fórmula booleana asociada simplemente ("comprensión de las máquinas"). Esta búsqueda se centró en trabajos que profundizan en la capacidad de las máquinas para entender información de manera auténtica. En inglés, la fórmula booleana asociada fue simplemente ("machine understanding").

Por último, para explorar la filosofía de la IA, se recurrió a los términos "filosofía" e "IA" con la fórmula booleana correspondiente ("filosofía" AND "IA"), y en inglés fue "philosophy" AND "AI". Esta búsqueda se orientó a trabajos que analizan la fundamentación filosófica subyacente al desarrollo y comprensión de la IA.

Estas fórmulas de búsqueda se aplicaron en diversas bases de datos académicas, incluyendo Scopus, Web of Science, PubMed, Scielo, Redalyc y Google Scholar. Se emplearon operadores booleanos como "AND" para asegurar la inclusión de trabajos que abordan simultáneamente los conceptos clave. Además, se consideraron términos alternativos y sinónimos para maximizar la cobertura y variedad de perspectivas en la revisión. Cabe destacar que la estrategia de búsqueda se adaptó según la respuesta inicial de las bases de datos, garantizando así la sensibilidad del proceso para capturar la diversidad de enfoques en la literatura sobre la epistemología de la IA.

La estrategia se centró en la inclusión de estudios académicos, revisando tanto artículos de revistas científicas como libros especializados. Además, se prestó especial atención a la selección de trabajos recientes para garantizar la relevancia y actualidad de la información recopilada.

Para complementar estas búsquedas, se llevó a cabo un análisis de citas en los trabajos seleccionados. Este enfoque permitió identificar estudios adicionales que podrían no haber sido capturados inicialmente por las búsquedas en bases de datos. Este proceso se alinea con la naturaleza dinámica del campo de estudio y asegura la inclusión de perspectivas diversas y actualizadas.

La combinación de búsquedas en bases de datos y el análisis de citas proporciona una sólida base metodológica para abordar de manera integral los debates filosóficos actuales en la epistemología de la IA. Este enfoque no solo garantiza la exhaustividad de la revisión, sino que también contribuye a la calidad y diversidad de las fuentes consideradas en el análisis.

Análisis de resultados

En los últimos años, el campo de la IA ha avanzado significativamente, con algoritmos y modelos demostrando capacidades notables en tareas como reconocimiento de imágenes, procesamiento de lenguaje natural y toma de decisiones.

La evaluación epistemológica de la IA implica valorar la capacidad de las máquinas para adquirir, almacenar y aplicar información de manera similar a la cognición humana. Esta evaluación plantea preocupaciones sobre la calidad y confiabilidad del conocimiento que proviene de las máquinas, como resalta Durán y Jongsma (2021). En su trabajo, enfatizan la importancia de la transparencia y confiabilidad en el conocimiento generado por máquinas, especialmente en campos como la medicina. Las evaluaciones normativas basadas en la opacidad metodológica y epistemológica son cruciales para garantizar la credibilidad del conocimiento producido por los sistemas de IA.

Además, las dimensiones éticas de la IA están estrechamente vinculadas con sus aspectos epistemológicos. El marco para evaluar el conocimiento generado por las máquinas debe abordar tanto consideraciones éticas como la confiabilidad de la información proporcionada por los sistemas de IA. Durán y Jongsma (2021) argumentan a favor del desarrollo de un marco integral que considere factores éticos y epistemológicos de manera conjunta.

En el contexto de la fiabilidad, estudios han explorado la confiabilidad de los procesos de las máquinas, como los sistemas de mecanizado y manufactura. Wang et al. (2020) discuten la importancia de evaluar y mejorar la confiabilidad del sistema para garantizar la calidad del producto final. Esta perspectiva se extiende más allá del ámbito de la información y la generación de conocimiento a la aplicación práctica de la IA en diversas industrias.

El potencial de la IA para contribuir al conocimiento humano se alinea con las discusiones sobre la integración de sistemas inteligentes, según lo explorado por Tejedor et al. (2021), y la aplicación del aprendizaje profundo en diversos campos, según discutido por Suarez et al. (2022). Estas referencias proporcionan perspectivas sobre los aspectos prácticos de la IA y su impacto potencial en la generación de conocimiento.

En este contexto, el estudio de Sánchez Holgado et al. (2022) profundiza en la comprensión de los Big Data y la IA, ofreciendo perspectivas valiosas sobre la síntesis de datos y la generación de conocimiento. La naturaleza interdisciplinaria de la IA y su relevancia en diferentes campos, como la administración y la educación, se destaca en los trabajos de Sánchez Vásquez y Obando (2019), y Hernández y Prats (2022), enfatizando las amplias implicaciones de la información generado por la IA.

En el contexto de la filosofía de la ciencia, el trabajo de Romero (2017) ofrece perspectivas sobre el desarrollo histórico del pensamiento crítico sobre el mundo, esencial para comprender las implicaciones filosóficas del conocimiento generado por la IA. Además, el estudio de Ballesteros-Ballesteros y Torres (2022) sobre la comprensión pública de la ciencia y la alfabetización científica es relevante para evaluar las implicaciones sociales del conocimiento generado por la IA.

Por su parte, Torres Novoa y Ocampo Quintero (2022) presentan una visión dinámica del conocimiento, enfatizando la naturaleza humana y dinámica de la creación de conocimiento, que justifica las creencias personales como parte de una búsqueda de la verdad. Además, Machado (2020) analiza la relación entre la verdad, las creencias y el fiabilismo fundamental, proporcionando información sobre la justificación de las creencias y la naturaleza de la verdad en el contexto de la epistemología.

No obstante, otros hallazgos también reconocen el papel sustancial de las máquinas y la IA en este proceso. Pin García et al. (2020) indican que las máquinas pueden contribuir a la generación de conocimiento mediante algoritmos dinámicos. Porcelli (2020) explora dilemas éticos relacionados con la IA, evidenciando su creciente influencia en la formación de conocimiento. Benavides Reina y Pedraza Nájar (2018) sugieren, aunque indirectamente, que las dinámicas globales y la sostenibilidad están en juego, revelando un entorno propicio para la interacción entre humanos y tecnología en la creación de conocimiento.

La capacidad de la IA para contribuir a la generación de conocimiento también se evidencia en sus aplicaciones en campos como la farmacología, según lo discutido por Matsingos et al. (2022), y la observación solar, como explorado por Suarez et al. (2022). Estas aplicaciones subrayan los diversos ámbitos en los que la IA tiene el potencial de avanzar en el conocimiento humano.

Este enfoque se alinea con las preocupaciones planteadas por Russo et al. (2023), quienes proponen un marco que destaca la igual importancia de la ética y la epistemología en el contexto de la IA, subrayando las dimensiones éticas del conocimiento generado por la IA.

Grote y Berens (2019) profundizan en la ética de la toma de decisiones algorítmica en la atención médica, arrojando luz sobre el posible impacto de la IA en la autoridad epistémica de los profesionales de la salud. Sullivan (2022) explora los compromisos entre la comprensión y otros bienes epistémicos o pragmáticos en el contexto de modelos de aprendizaje automático, ofreciendo perspectivas valiosas sobre la naturaleza del conocimiento generado por la IA. Además, el concepto de IA responsable en salud digital, según lo discutido por Trocin et al. (2021), plantea preguntas críticas sobre las obligaciones epistémicas de los profesionales que confían en sistemas de IA en decisiones médicas.

La necesidad de prácticas de aprendizaje automático explicables en la IA médica, resaltada por Ratti y Graves (2022), subraya la importancia de la transparencia en el conocimiento generado por la IA. Duede (2023) demuestra la importancia de la opacidad epistémica en el descubrimiento científico, enfatizando la capacidad de la IA para llevar a avances justificables. Kim (2022) compara la construcción del conocimiento científico con el aprendizaje de los agentes de IA, proporcionando una base para integrar la IA en la enseñanza de la ciencia al facilitar el discurso epistémico en el aula.

Además, los principios que sustentan el derecho epistémico de los científicos para depender del aprendizaje profundo, según la exploración de Duede (2022), contribuyen a la comprensión de las implicaciones epistemológicas de la IA. van Baalen et al. (2021) enfatizan el proceso de razonamiento involucrado en la toma de decisiones clínicas y la responsabilidad epistémica de los profesionales de la salud. La naturaleza descoordinada de los esfuerzos de investigación en ciencia de proteínas y la IA, según lo discutido por Villalobos Alva et al. (2022), destaca la necesidad de un objetivo epistémico claro en los estudios interdisciplinarios.

La perspectiva filosófica de Zerilli (2022) sobre la explicación de las decisiones de aprendizaje automático ofrece percepciones sobre el enfoque correcto para el problema de la explicabilidad en la IA. Hey et al. (2020) demuestran los resultados espectaculares logrados mediante el aprendizaje automático y grandes conjuntos de datos científicos, subrayando el potencial de la IA para avanzar en el conocimiento científico.

Pin García et al. (2020) examina la IA como medio para simular la inteligencia humana, destacando dos perspectivas: la IA débil, enfocada en usos específicos para estudiar posibilidades cognitivas humanas, y la IA fuerte, que busca una conexión más profunda entre la IA y la inteligencia humana. Aborda la relación entre la IA y la cognición humana.

Si bien las máquinas sobresalen en el procesamiento de grandes cantidades de datos e identificación de patrones, la falta inherente de conciencia y comprensión en los sistemas de IA plantea interrogantes sobre la profundidad y matices del conocimiento que generan, estas limitaciones se atribuyen al hecho de que los sistemas de IA, a pesar de sus capacidades en tareas como el procesamiento del lenguaje natural, la representación del conocimiento y el aprendizaje automático, pueden no poseer la comprensión y la conciencia holísticas que tenemos los humanos (Díaz Ramírez, 2021)

El conocimiento humano a menudo se basa en la experiencia, la intuición y una comprensión profunda del contexto, elementos que la IA pueden tener dificultades para comprender completamente. Esto se debe a que el aprendizaje experiencial y la intuición desempeñan un papel crucial en la adquisición de conocimientos humanos y los procesos de toma de decisiones (Mulukom y Geertz, 2021). Si bien las máquinas pueden aprender de la experiencia y la observación, es posible que no posean el mismo nivel de intuición y comprensión contextual que los humanos (Davies et al., 2021)

Aonghusa y Michie (2020) subrayan la crucial necesidad de confiabilidad y transparencia en el conocimiento generado por máquinas, especialmente en campos críticos como la medicina. Destacan la importancia de evaluaciones normativas que aborden la opacidad metodológica y epistemológica de estos sistemas, haciendo hincapié en la comprensión profunda de cómo se obtiene y aplica la información. Además, resaltan la interconexión entre los aspectos éticos y epistemológicos de los sistemas de IA, abogando por un marco integral que considere ambas dimensiones al evaluar la calidad y confiabilidad del conocimiento producido por las máquinas. Su enfoque destaca la necesidad de garantizar la transparencia, confiabilidad y ética en el desarrollo y aplicación del conocimiento generado por la IA.

En el ámbito de la calidad del conocimiento, Oliveira y Oliveira (2022) destacan la aplicación de métodos de aprendizaje automático para prever propiedades en quimioinformática, buscando enriquecer modelos con conocimiento específico del dominio con el fin de mejorar la precisión de las predicciones. Asimismo, Samek y Müller (2019) señalan que el desarrollo de sistemas de apoyo a la toma de decisiones clínicas (CDSS) en la atención médica ha planteado desafíos epistemológicos, enfocándose en la confiabilidad y solidez de los sistemas de IA en la práctica clínica. La opacidad inherente y el confiabilismo computacional emergen como fundamentos cruciales para la confianza en los procesos de las máquinas, subrayando la necesidad de abordar la confiabilidad desde una perspectiva epistemológica (McKelvey, 2020).

Finalmente, la comparación entre el conocimiento generado por algoritmos y modelos de IA y el conocimiento humano tradicional es matizada. La fiabilidad y validez del conocimiento generado por máquinas dependen de la transparencia, confiabilidad y consideraciones éticas. A medida que la IA continúa avanzando, el desarrollo de marcos de evaluación sólidos se vuelve imperativo para garantizar que el conocimiento generado por las máquinas no solo sea preciso, sino también éticamente sólido. La naturaleza interdisciplinaria de este discurso requiere la colaboración entre epistemólogos, éticos y tecnólogos para navegar el paisaje en evolución del conocimiento generado por la IA.

En el análisis de los resultados, se revela un panorama diverso y complejo sobre el impacto de la IA en la generación de conocimiento. Diversos estudios han explorado la aplicación práctica de la IA en campos como la administración y la educación (Sánchez Vásquez y Obando, 2019; Vargas Hernández et al., 2016; Hernández y Prats, 2022), resaltando su naturaleza interdisciplinaria y las amplias implicaciones del conocimiento que puede generar.

La contribución de la IA al conocimiento humano se destaca aún más en áreas específicas como la farmacología y la observación solar (Matsingos et al., 2022; Suarez et al., 2022), subrayando su potencial para avanzar en la comprensión en diversos ámbitos. Sin embargo, la obra de Burrell (2016) sobre el análisis de algoritmos de aprendizaje automático plantea preguntas críticas sobre la opacidad de los sistemas de IA, cuestionando el carácter científico del conocimiento que producen.

Desde una perspectiva filosófica de la ciencia, las investigaciones de Romero (2017), y Ballesteros Ballesteros y Torres (2022) ofrecen valiosas perspectivas sobre el desarrollo histórico del pensamiento crítico y la comprensión pública de la ciencia. Estos estudios son esenciales para contextualizar las implicaciones filosóficas del conocimiento generado por la IA y evaluar sus efectos sociales.

La naturaleza dinámica del conocimiento, tal como destacan Torres Novoa y Ocampo Quintero (2022), subraya la relevancia de concebir la generación del mismo como un proceso intrínsecamente humano, en el cual las creencias personales desempeñan un papel fundamental en la búsqueda de la verdad. Machado (2020), por otro lado, ahonda en la relación entre la verdad, las creencias y el fiabilismo fundamental, arrojando luz sobre la justificación de las creencias en el contexto epistemológico.

El ámbito de la ética emerge como un factor crítico en la evaluación del conocimiento generado por la IA. Grote y Berens (2019) exploran la ética de la toma de decisiones algorítmica en la atención médica, evidenciando el impacto potencial de la IA en la autoridad epistémica de los profesionales de la salud. La propuesta de Russo et al. (2023) y Russia (2020) destacan la igual importancia de la ética y la epistemología en el contexto de la IA, subrayando las dimensiones éticas del conocimiento producido por esta tecnología.

La necesidad de prácticas de aprendizaje automático explicables en la IA médica, según Ratti y Graves (2022), y la importancia de la transparencia en el descubrimiento científico, como plantea Duede (2023), subrayan la complejidad y las consideraciones éticas inherentes a la información generada por las IA.

En el ámbito educativo, Kim (2022) compara la construcción del conocimiento científico con el aprendizaje de los agentes de IA, ofreciendo una base para integrar la IA en la enseñanza de la ciencia. La obra de Duede (2022) sobre los principios que sustentan el derecho epistémico de los científicos para depender del aprendizaje profundo contribuye a la comprensión de las implicaciones epistemológicas de la IA.

La evaluación de la calidad del conocimiento generado por algoritmos y modelos de IA se vuelve central en la comparación con el conocimiento humano tradicional. Oliveira y Oliveira (2022) destacan la aplicación de métodos de aprendizaje automático para mejorar la precisión de las predicciones en quimioinformática, mientras que Samek y Müller (2019) se centran en la confiabilidad y solidez de los sistemas de IA en la práctica clínica.

La obra de Duede (2022) y van Baalen et al. (2021) resalta la importancia del proceso de razonamiento y la responsabilidad epistémica en la toma de decisiones clínicas, respectivamente, evidenciando la necesidad de un enfoque claro en los estudios interdisciplinarios.

El análisis de Zerilli (2022) sobre la explicación de las decisiones de aprendizaje automático y los resultados espectaculares logrados por Hey et al. (2020) en grandes conjuntos de datos científicos subraya el potencial de la IA para avanzar en el conocimiento científico.

En la pregunta clave sobre si el conocimiento generado por algoritmos y modelos de IA es tan sólido como el conocimiento humano tradicional, se plantean cuestionamientos fundamentales. Durán y Jongsma (2021) insisten en la importancia de la transparencia y confiabilidad en el conocimiento generado por máquinas, especialmente en campos críticos como la medicina. Su enfoque integral que considera factores éticos y epistemológicos destaca la interconexión entre estas dimensiones.

El desafío radica en equilibrar el potencial innovador de la IA con la necesidad de una evaluación rigurosa y ética del conocimiento que produce. La opacidad epistémica, la confiabilidad y la ética se entrelazan en la evaluación del conocimiento generado por la IA, enfatizando la necesidad de marcos integrales que consideren ambas dimensiones.

A pesar de los esfuerzos en la revisión sistemática de la literatura sobre la epistemología de la IA, este estudio presenta ciertas limitaciones que deben ser reconocidas. En primer lugar, la disponibilidad y accesibilidad de la literatura académica pueden haber influido en la inclusión de estudios, lo que podría haber llevado a una cierta selección sesgada. Además, la rápida evolución del campo podría haber resultado en la omisión de debates y perspectivas más recientes. Por lo tanto, es crucial reconocer que la exhaustividad completa puede no haberse logrado, y algunos enfoques filosóficos relevantes pueden haber sido pasados por alto.

Una limitación adicional radica en la interpretación subjetiva de los conceptos filosóficos relacionados con la epistemología de la IA. Diferentes corrientes filosóficas pueden dar lugar a interpretaciones diversas, lo que podría influir en la síntesis y análisis de la información. Aunque se ha buscado una aproximación objetiva y equitativa, la interpretación personal sigue siendo inherente en cualquier revisión de literatura.

En términos de recomendaciones para futuras investigaciones, se sugiere la realización de estudios más específicos que profundicen en áreas temáticas identificadas como particularmente relevantes y controvertidas. Además, sería beneficioso ampliar la búsqueda de literatura a fuentes no tradicionales, como blogs académicos o debates en foros en línea, para capturar perspectivas emergentes que podrían no estar plenamente representadas en las publicaciones académicas convencionales.

Respecto a posibles vacíos temáticos, se destaca la necesidad de abordar más a fondo la intersección entre la ética y la epistemología de la IA. Aunque se han discutido aspectos éticos en algunos trabajos revisados, existe una oportunidad para investigar más detalladamente cómo las consideraciones éticas influyen en la evaluación filosófica del conocimiento generado por las máquinas.

A medida que la IA continúa evolucionando, la colaboración entre epistemólogos, éticos y tecnólogos se vuelve imperativa para guiar el desarrollo y la aplicación del conocimiento generado por esta tecnología. La naturaleza interdisciplinaria de este discurso refleja la complejidad de la interacción entre la IA y la epistemología, donde el desafío radica en asegurar que el conocimiento producido sea preciso, confiable y éticamente sólido. Este análisis de resultados sienta las bases para una comprensión más profunda y matizada de la relación entre el conocimiento generado por la IA y el conocimiento humano

Sintetizando, este estudio contribuye a la comprensión de los debates filosóficos actuales sobre la epistemología de la IA. Sin embargo, se reconoce la existencia de limitaciones y se ofrecen recomendaciones para investigaciones futuras. Este proceso continuo de reflexión y exploración es esencial para avanzar en la comprensión de la autenticidad de la comprensión de las máquinas en el contexto filosófico contemporáneo.

CONCLUSIONES

Se ha llevado a cabo una exhaustiva revisión sistemática de la literatura con el objetivo de analizar los debates filosóficos actuales en torno a la epistemología de la IA y examinar la autenticidad de la comprensión de las máquinas. Los principales resultados derivados de este estudio ofrecen una visión rica y matizada de las cuestiones fundamentales que rodean la relación entre la IA y el conocimiento.

En primer lugar, se destaca la diversidad de perspectivas filosóficas en la epistemología de la IA. Los debates han abordado temas cruciales, como la justificación del conocimiento generado por máquinas, la naturaleza de la comprensión en entidades no humanas y las implicaciones éticas asociadas con la autonomía de la IA.

La respuesta al objetivo de este estudio revela que el campo de la epistemología de la IA es complejo y multifacético. La revisión de la literatura ha permitido identificar las corrientes de pensamiento dominantes, las áreas de consenso y los puntos de controversia. La autenticidad de la comprensión de las máquinas se presenta como un desafío filosófico fundamental, con diversos enfoques que exploran desde la epistemología tradicional hasta las dimensiones éticas y prácticas de la IA.

En términos de conclusiones más generales, se confirma la necesidad continua de investigaciones que exploren la intersección entre la filosofía y la tecnología, especialmente en un campo tan dinámico y relevante como la IA. Este estudio contribuye a la comprensión del estado actual de los debates filosóficos y destaca la importancia de considerar la ética en conjunción con la epistemología al evaluar el conocimiento generado por la las diferentes IA.

REFERENCIAS

Alfred, R. (2022). Impact of ai on leveraging knowledge for engineers. Technoaretetransactions on Intelligent Data Mining and Knowledge Discovery, 2(1), 1-6. https://doi.org/10.36647/ttidmkd/02.01.a001

Aonghusa, P., y Michie, S. (2020). Artificial intelligence and behavioral science through the looking glass: challenges for real-world application. Annals of Behavioral Medicine, 54(12), 942-947. https://doi.org/10.1093/abm/kaaa095

Arias, F. (2023). El paradigma pragmático como fundamento epistemológico de la investigación mixta. Revisión sistematizada. Educación, Arte, Comunicación: Revista Académica e Investigativ., 12(2), 11-24. https://doi.org/10.54753/eac.v12i2.2020

Balanzó, A., Nupia, M., y Centeno, J. (2020). Conocimiento científico, conocimientos heterogéneos y construcción de paz: hacia una agenda de investigación sobre políticas y gobernanza del conocimiento en transiciones hacia la paz. Opera, (27), 13-44. https://doi.org/10.18601/16578651.n27.02

Ballesteros-Ballesteros, V., y Torres, A. (2022). De la alfabetización científica a la comprensión pública de la ciencia. Trilogía Ciencia Tecnología Sociedad, 14(26), e1855. https://doi.org/10.22430/21457778.1855

Basile, G., y Feo Istúriz, O. (2022). Hacia una epistemología de refundación de los sistemas de salud en el siglo XXI: aportes para la descolonización de teorías, políticas y prácticas. Revista Facultad Nacional de Salud Pública, 40(2), e349879. https://doi.org/10.17533/udea.rfnsp.e349879

Benavides Reina, M. R, y Pedraza Nájar, X. L., (2018). La gestión del conocimiento y su aporte a la competitividad en las organizaciones: revisión sistemática de literatura. Signos, 10(2), 175-191. https://doi.org/10.15332/s2145-1389.2018.0002.10

Bird, A. (2007). Justified judging. Philosophy and Phenomenological Research, 74(1), 81-110. https://doi.org/10.1111/j.1933-1592.2007.00004.x

Burrell, J. (2016). How the machine ‘thinks’: understanding opacity in machine learning algorithms. Big Data y Society, 3(1), 205395171562251. https://doi.org/10.1177/2053951715622512

Cao, Z. (2017). Development and application of artificial intelligence. [Proceeding]. Proceedings of the 2nd International Conference on Mechatronics Engineering and Information Technology (ICMEIT 2017). Atlantis Press. https://doi.org/10.2991/icmeit-17.2017.79

Cárdenas, T. K. (2007). Epistemología y comunicación: Notas para un debate. Andamios, 4(7), 97-124. https://n9.cl/hkwy9

Davies, A., Veličković, P., Buesing, L., Blackwell, S., Zheng, D., Tomašev, N., ... Kohli, P. (2021). Advancing mathematics by guiding human intuition with AI. Nature, 600(7887), 70-74. https://doi.org/10.1038/s41586-021-04086-x

Díaz Ramírez, J. (2021). Aprendizaje automático y aprendizaje profundo. Ingeniare Revista Chilena De Ingeniería, 29(2), 180-181. https://doi.org/10.4067/s0718-33052021000200180

Duede, E. (2022). Instruments, agents, and artificial intelligence: novel epistemic categories of reliability. Synthese, 200(6). https://doi.org/10.1007/s11229-022-03975-6

Duede, E. (2023). Deep learning opacity in scientific discovery. Philosophy of Science, 90(5), 1089-1099. https://doi.org/10.1017/psa.2023.8

Durán, J. M. y Jongsma, K. (2021). Who is afraid of black box algorithms? on the epistemological and ethical basis of trust in medical ai. Journal of Medical Ethics, 47(5), 329-335. https://doi.org/10.1136/medethics-2020-106820

Feng, Y., Qiu, L., y Sun, B. (2021). A measurement framework of crowd intelligence. International Journal of Crowd Science, 5(1), 81-91. https://doi.org/10.1108/ijcs-09-2020-0015

Ganascia, J. (2010). Epistemology of ai revisited in the light of the philosophy of information. Knowledge Technology y Policy, 23(1-2), 57-73. http://dx.doi.org/10.1007/s12130-010-9101-0

Geman, D., Geman, S., Hallonquist, N., y Younes, L. (2015). Visual turing test for computer vision systems. Proceedings of the National Academy of Sciences, 112(12), 3618-3623. https://doi.org/10.1073/pnas.1422953112

Grote, T., y Berens, P. (2019). On the ethics of algorithmic decision-making in healthcare. Journal of Medical Ethics, 46(3), 205-211. https://doi.org/10.1136/medethics-2019-105586

Hernández, F., y Prats, G. (2022). Aportes de ingeniería en IA aplicada en la educación. 3c Tic Cuadernos de Desarrollo Aplicados a las Tic, 11(1), 133-143. https://doi.org/10.17993/3ctic.2022.111.133-143

Hey, T., Butler, K., Jackson, S., y Thiyagalingam, J. (2020). Machine learning and big scientific data. Philosophical Transactions of the Royal Society a Mathematical Physical and Engineering Sciences, 378, 20190054. https://doi.org/10.1098/rsta.2019.0054

Jobin, A., y Ienca, M. (2019). The global landscape of ai ethics guidelines. Nature Machine Intelligence, 1, 389-399. https://doi.org/10.1038/s42256-019-0088-2

Kim, W. (2022). Ai-integrated science teaching through facilitating epistemic discourse in the classroom. Asia-Pacific Science Education, 8(1), 9-42. https://doi.org/10.1163/23641177-bja10041

Krinkin, K., Shichkina, Y., y Ignatyev, A. (2022). Co-evolutionary hybrid intelligence is a key concept for the world intellectualization. Kybernetes, 52(9), 2907-2923. https://doi.org/10.1108/k-03-2022-0472

Kvanvig, J. (2003). The value of knowledge and the pursuit of understanding. Cambridge University Press. https://doi.org/10.1017/cbo9780511498909

Laetz, B. (2010). Epistemology neutralized. Disputatio, 3(28), 259-274. https://doi.org/10.2478/disp-2010-0001

Lariguet, G., y Yuan, M. S. (2021). COVID-19, teorías conspirativas y epistemología política. Cuadernos Filosóficos / Segunda Época, (18). https://doi.org/10.35305/cf2.vi18.104

Linares Espinós, E., Hernández, V., Domínguez-Escrig, J. L., Fernández-Pello, S., Hevia, V., Mayor, J., y Ribal, M. J. (2018). Metodología de una revisión sistemática. Actas Urológicas Españolas, 42(8), 499-506. https://doi.org/10.1016/j.acuro.2018.01.010

Liu, N., Shapira, P., y Yue, X. (2021). Tracking developments in artificial intelligence research: constructing and applying a new search strategy. Scientometrics, 126(4), 3153-3192. https://doi.org/10.1007/s11192-021-03868-4

MacAllister, J. (2012). Virtue epistemology and the philosophy of education. Journal of Philosophy of Education, 46(2), 251-270. https://doi.org/10.1111/j.1467-9752.2012.00851.x

Machado, M. (2020). Verdad, creencias y fundacionalismo confiabilista. Revista de Filosofía, 77, 51-65. https://doi.org/10.4067/s0718-43602020000100051

Matsingos, C., Urdaneta, A., Hernández, J., y Silva, R. (2022). Aplicaciones de la IA en la farmacología básica y clínica. Medicina, 43(4), 652-667. https://doi.org/10.56050/01205498.1652

McKelvey, F. (2020). The other Cambridge analytics: early “artificial intelligence” in American Political Science. En: Roberge, J., Castelle, M. (Eds). The cultural life of machine learning. p. 117-142. https://doi.org/10.1007/978-3-030-56286-1_4

Mishra, V., y Mishra, M.P. (2023), PRISMA for Review of Management Literature – Method, Merits, and Limitations – An Academic Review. En: Rana, S., Singh, J., Kathuria, S. (Eds.) Advancing Methodologies of Conducting Literature Review in Management Domain .Review of Management Literature, Vol. 2), Emerald Publishing Limited, Leeds, pp. 125-136. https://doi.org/10.1108/S2754-586520230000002007

Mulukom, V., y Geertz, A. (2021). The importance of imagination and subjective knowledge: the evolution of art and religion as symbolic representations of feelings, experiences, and beliefs. PsyArXiv Preprints https://doi.org/10.31234/osf.io/7y6w8

Newman, M., y Gough, D. (2020). Systematic Reviews in Educational Research: Methodology, Perspectives and Application. In: Zawacki-Richter, O., Kerres, M., Bedenlier, S., Bond, M., Buntins, K. (eds) Systematic Reviews in Educational Research. (p. 3-22). Springer VS. https://doi.org/10.1007/978-3-658-27602-7_1

Oliveira, O., y Oliveira, M. (2022). Materials discovery with machine learning and knowledge discovery. Frontiers in Chemistry, 10.https://doi.org/10.3389/fchem.2022.930369

Omari, R., y Mohammadian, M. (2016). Rule based fuzzy cognitive maps and natural language processing in machine ethics. Journal of Information Communication and Ethics in Society, 14(3), 231-253. https://doi.org/10.1108/jices-10-2015-0034

Page, M. J., McKenzie, J. E., Bossuyt, P. M., Boutron, I., Hoffmann, T. C., Mulrow, C. D., Shamseer, L., Tetzlaff, J. M., Akl, E. A., Brennan, S. E., Chou, R., Glanville, J., Grimshaw, J. M., Hróbjartsson, A., Lalu, M. M., Li, T., Loder, E. W., Mayo-Wilson, E., McDonald, S., … Moher, D. (2021). Declaración PRISMA 2020: una guía actualizada para la publicación de revisiones sistemáticas. Revista Española de Cardiología, 74, 790–799. https://doi.org/10.1016/j.recesp.2021.06.016

Pardal Refoyo, J. L., y Pardal Peláez, B. (2020). Anotaciones para estructurar una revisión sistemática. Revista ORL, 11(2), 155-160. https://dx.doi.org/10.14201/orl.22882

Pepperell, R. (2022). Does machine understanding require consciousness? Frontiers in Systems Neuroscience, 16. https://doi.org/10.3389/fnsys.2022.788486

Pin García, L. J., Toala Zambrano, M. M., y Álava Cruzatty, J. E. (2020). La Inteligencia Artificial en la calidad del software: una revisión sistemática de la literatura. Revista Científica Multidisciplinaria, 4(1), 75-86. https://doi.org/10.47230/unesum-ciencias.v4.n1.2020.208

Porcelli, A. M. (2020). La Inteligencia Artificial y la Robótica: sus dilemas sociales, éticos y jurídicos. Derecho Global. Estudios Sobre Derecho y Justicia, 6(16), 49–105. https://doi.org/10.32870/dgedj.v6i16.286

Ratti, E., y Graves, M. (2022). Explainable machine learning practices: opening another black box for reliable medical ai. AI and Ethics, 2(4), 801-814. https://doi.org/10.1007/s43681-022-00141-z

Román Acosta, D. D. (2023). Más allá de las palabras: inteligencia artificial en la escritura académica. Escritura Creativa, 4(2). https://n9.cl/uwq1y

Román Acosta, D. D., Alarcón Osorio, D., y Rodríguez Torres, E. (2024). Implementación de ChatGPT: aspectos éticos, de edición y formación para estudiantes de posgrado. Revista Senderos Pedagógicos, 15(1), 15–31. https://doi.org/10.53995/rsp.v15i1.1592

Romero, G. (2017). La filosofía científica y los límites de la ciencia. Revista Científica Estudios e Investigaciones, 6(1), 97. https://doi.org/10.26885/rcei.6.1.97

Russia, E. (2020). Standardization of artificial intelligence for the development and use of intelligent systems. Advances in Wireless Communications and Networks, 6(1), 1-9. https://doi.org/10.11648/j.awcn.20200601.11

Russo, F., Schliesser, E., y Wagemans, J. (2023). Connecting ethics and epistemology of ai. AI y Society. https://doi.org/10.1007/s00146-022-01617-6

Samek, W., y Müller, KR. (2019). Towards Explainable Artificial Intelligence. In: Samek, W., Montavon, G., Vedaldi, A., Hansen, L., Müller, KR. (eds). Explainable AI: Interpreting, Explaining and Visualizing Deep Learning. Lecture Notes in Computer Science, vol 11700. Springer, Cham. https://doi.org/10.1007/978-3-030-28954-6_1

Sánchez Holgado, P., Calderón, C., y Blanco Herrero, D. (2022). Conocimiento y actitudes de la ciudadanía española sobre el big data y la IA. Revista Icono14,20(1). https://doi.org/10.7195/ri14.v21i1.1908

Sánchez Vásquez, L., y Obando, J. (2019). Investigación como práctica pedagógica en el aula contable, una disertación desde su aporte al desarrollo social. Libre Empresa, 16(2), 81-96. https://doi.org/10.18041/1657-2815/libreempresa.2019v16n2.6609

Sankey, H. (2002). The structure of scientific revolutions. Australian y New Zealand Journal of Psychiatry, 36(6), 821-824. https://doi.org/10.1046/j.1440-1614.2002.t01-5-01102a.x

Santos, J. A., y Pieczkowski, T. M. Z. (2022). Epistemologia e ciências da educação: conceitos epistemológicos clássicos na construção de dissertações. Revista Internacional De Educação Superior, 9, e023016. https://doi.org/10.20396/riesup.v9i00.8669067

Suarez, G., Ortiz, J., Domínguez, S., y Shelyag, S. (2022). Aplicación de técnicas de deep learning en modelamiento y observación de la fotósfera solar. Ciencia en Desarrollo, 1(2E), 11-17. https://doi.org/10.19053/01217488.v1.n2e.2022.15240

Sullivan, E. (2022). Understanding from machine learning models. The British Journal for the Philosophy of Science, 73(1), 109-133. https://doi.org/10.1093/bjps/axz035

Tejedor, C. (2022). El tractatus y las ciencias naturales. Análisis Revista De Investigación Filosófica, 8(2), 243-266. https://doi.org/10.26754/ojs_arif/arif.202126285

Tejedor, S., Cervi, L., Pulido, C., y Tornero, J. (2021). Análisis de la integración de sistemas inteligentes de alertas y automatización de contenidos en cuatro cibermedios. Estudios Sobre El Mensaje Periodístico, 27(3), 973-983. https://doi.org/10.5209/esmp.77003

Torres Novoa, R., y Ocampo Quintero, C. (2022). Metodología de recuperación de símbolos emberá-chamí a partir de modelos de gestión de conocimiento. Latin American Research Review, 57(3), 662-678. https://doi.org/10.1017/lar.2022.50

Trocin, C., Mikalef, P., Papamitsiou, Z., y Conboy, K. (2021). Responsible ai for digital health: a synthesis and a research agenda. Information Systems Frontiers, 25, 2139-2157. https://doi.org/10.1007/s10796-021-10146-4

Tuo, Y., Ning, L., y Zhu, A. (2021). How Artificial Intelligence Will Change the Future of Tourism Industry: The Practice in China. In: Wörndl, W., Koo, C., Stienmetz, J.L. (eds.) Information and Communication Technologies in Tourism 2021. (p. 83-94) Springer. https://doi.org/10.1007/978-3-030-65785-7_7

Tussyadiah, I. (2020). A review of research into automation in tourism: launching the annals of tourism research curated collection on artificial intelligence and robotics in tourism. Annals of Tourism Research, 81, 102883. https://doi.org/10.1016/j.annals.2020.102883

van Baalen, S., Boon, M., y Verhoef, P. (2021). From clinical decision support to clinical reasoning support systems. Journal of Evaluation in Clinical Practice, 27(3), 520-528. https://doi.org/10.1111/jep.13541

Vargas Hernández, J., Arias, A., Zepeda, A., y Borrayo, C. (2016). Epistemología dialógica de las ciencias administrativas. Cuadernos Latinoamericanos de Administración, 9(17), 48-57. https://doi.org/10.18270/cuaderlam.v9i17.1238

Vergara Estévez, J. (2010). Epistemología. Polisemia, 6(9), 37-44. https://doi.org/10.26620/uniminuto.polisemia.6.9.2010.37-44

Villalobos Alva, J., Ochoa Toledo, L., Villalobos Alva, M., Aliseda, A., Pérez Escamirosa, F., Altamirano Bustamante, N., y Altamirano Bustamante, M. (2022). Protein science meets artificial intelligence: a systematic review and a biochemical meta-analysis of an inter-field. Frontiers in Bioengineering and Biotechnology, 10.https://doi.org/10.3389/fbioe.2022.788300

Wang, L. (2017). Exploring cluster monte carlo updates with boltzmann machines. Physical Review E, 96(5). https://doi.org/10.1103/physreve.96.051301

Wang, L., Dai, W., Ai, J., Duan, W., y Zhao, Y. (2020). Reliability evaluation for manufacturing system based on dynamic adaptive fuzzy reasoning petri net. Ieee Access, 8, 167276-167287. https://doi.org/10.1109/access.2020.3022947

Weissglass, D. (2020). Is belief evaluation truth sensitive? a reply to turri. Synthese, 198(9), 8521-8532. https://doi.org/10.1007/s11229-020-02584-5

Whittington, J., Muller, T., Mark, S., Barry, C., y Behrens, T. (2018). Generalization of structural knowledge in the hippocampal-entorhinal system. Arxiv. https://doi.org/10.48550/arxiv.1805.09042

Zada González, E., y Bravo Placeres, I. (2023). Saberes ancestrales basados en la gastronomía para la conservación del patrimonio cultural inmaterial de la comunidad Cofán Dureno. Uniandes Episteme, 10(1), 69-87. https://n9.cl/uof9c

Zerilli, J. (2022). Explaining machine learning decisions. Philosophy of Science, 89(1), 1-19. https://doi.org/10.1017/psa.2021.13

HTML generado a partir de XML-JATS4R por