<?xml version="1.0" encoding="utf-8"?>
<!DOCTYPE article
  PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.0 20120330//EN" "http://jats.nlm.nih.gov/publishing/1.0/JATS-journalpublishing1.dtd">
<article article-type="research-article" dtd-version="1.0" specific-use="sps-1.8" xml:lang="es" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink">
	<front>
		<journal-meta>
			<journal-id journal-id-type="publisher-id">rfing</journal-id>
			<journal-title-group>
				<journal-title>Revista Facultad de Ingeniería</journal-title>
				<abbrev-journal-title abbrev-type="publisher">Rev. Fac. ing.</abbrev-journal-title>
			</journal-title-group>
			<issn pub-type="ppub">0121-1129</issn>
			<issn pub-type="epub">2357-5328</issn>
			<publisher>
				<publisher-name>Universidad Pedagógica y Tecnológica de Colombia</publisher-name>
			</publisher>
		</journal-meta>
		<article-meta>
			<article-id pub-id-type="doi">10.19053/01211129.v33.n70.2024.18078</article-id>
			<article-id pub-id-type="publisher-id">00001</article-id>
			<article-categories>
				<subj-group subj-group-type="heading">
					<subject>Artículo</subject>
				</subj-group>
			</article-categories>
			<title-group>
				<article-title>REVISIÓN SISTEMÁTICA DE LAS HERRAMIENTAS DE INTELIGENCIA ARTIFICIAL EXPLICABLE USADAS EN MÉTODOS DE ENSAMBLE</article-title>
				<trans-title-group xml:lang="en">
					<trans-title>Explainable Artificial Intelligence tools used in ensemble methods: A systematic literature review</trans-title>
				</trans-title-group>
			</title-group>
			<contrib-group>
				<contrib contrib-type="author">
					<contrib-id contrib-id-type="orcid">0000-0001-6828-7026</contrib-id>
					<name>
						<surname>Martínez-Silva</surname>
						<given-names>Fabian-Camilo</given-names>
					</name>
					<xref ref-type="aff" rid="aff1"><sup>1</sup></xref>
				</contrib>
				<contrib contrib-type="author">
					<contrib-id contrib-id-type="orcid">0000-0002-6263-1911</contrib-id>
					<name>
						<surname>Cobos-Lozada</surname>
						<given-names>Carlos-Alberto</given-names>
					</name>
					<xref ref-type="aff" rid="aff2"><sup>2</sup></xref>
				</contrib>
			</contrib-group>
			<aff id="aff1">
				<label>1</label>
				<institution content-type="original"> Universidad del Cauca (Popayán, Colombia). fcmartinez@unicauca.edu.co, https://orcid.org/0000-0001-6828-7026 </institution>
				<institution content-type="normalized">Universidad del Cauca</institution>
				<institution content-type="orgname">Universidad del Cauca</institution>
				<addr-line>
					<named-content content-type="city">Popayán</named-content>
				</addr-line>
				<country country="CO">Colombia</country>
				<email>fcmartinez@unicauca.edu.co</email>
			</aff>
			<aff id="aff2">
				<label>2</label>
				<institution content-type="original"> Universidad del Cauca (Popayán, Colombia). ccobos@unicauca.edu.co, https://orcid.org/0000-0002-6263-1911 </institution>
				<institution content-type="normalized">Universidad del Cauca</institution>
				<institution content-type="orgname">Universidad del Cauca</institution>
				<addr-line>
					<named-content content-type="city">Popayán</named-content>
				</addr-line>
				<country country="CO">Colombia</country>
				<email>ccobos@unicauca.edu.co</email>
			</aff>
			<!--<pub-date date-type="pub" publication-format="electronic">
				<day>19</day>
				<month>12</month>
				<year>2024</year>
			</pub-date>
			<pub-date date-type="collection" publication-format="electronic">
				<season></season>
				<year></year>
			</pub-date>-->
			<pub-date pub-type="epub-ppub">
				<season>Oct-Dec</season>
				<year>2024</year>
			</pub-date>
			<volume>33</volume>
			<issue>70</issue>
			<elocation-id>e18078</elocation-id>
			<history>
				<date date-type="received">
					<day>27</day>
					<month>08</month>
					<year>2024</year>
				</date>
				<date date-type="accepted">
					<day>02</day>
					<month>12</month>
					<year>2024</year>
				</date>
			</history>
			<permissions>
				<license license-type="open-access" xlink:href="https://creativecommons.org/licenses/by/4.0/" xml:lang="es">
					<license-p>Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons</license-p>
				</license>
			</permissions>
			<abstract>
				<title>RESUMEN</title>
				<p>Los modelos de aprendizaje automático se utilizan cada vez más por su alto rendimiento predictivo. Sin embargo, en ámbitos críticos como la salud, la seguridad y la defensa y las finanzas existe una necesidad urgente de modelos que también sean explicables. Por lo general, los modelos más complejos (como las redes neuronales profundas y los ensambles) obtienen los mejores resultados en problemas de gran envergadura. Pese a esto, su falta de transparencia limita su aplicación en áreas donde se requiere comprender el proceso de toma de decisiones. Teniendo en cuenta que los modelos de ensamble obtienen los mejores rendimientos en diversas aplicaciones -como se aprecia en las competencias de Kaggle, en particular XGBoost-, en este artículo se presenta una revisión sistemática de los artículos publicados entre el 2019 y el 2024, relacionados con el uso de herramientas de Explicabilidad de la Inteligencia Artificial (XAI) en modelos de ensamble. La metodología seguida para la revisión se basó en las directrices propuestas por Kitchenham et al. que consideran la planeación y la ejecución de la revisión junto con el reporte de los resultados obtenidos. Los resultados de la investigación permiten comprender los beneficios y desafíos del uso de XAI en los ensambles para apoyar la toma de decisiones y contribuir al derecho social de la explicación de estas. Además, al identificar las áreas en las que se está investigando y los contextos donde más se aplica, se visibilizan otras áreas de oportunidad para futuras investigaciones. Se concluye que existen herramientas y enfoques prometedores que permiten una mejor comprensión de la lógica de los modelos de ensamble y una mayor transparencia en los resultados, y se identifican áreas de mejora y la necesidad de continuar investigando para abordar los desafíos asociados con la explicabilidad de los modelos de ensamble.</p>
			</abstract>
			<trans-abstract xml:lang="en">
				<title>ABSTRACT</title>
				<p>Machine Learning models are increasingly used due to their high predictive performance. However, in critical areas such as healthcare, security and defense, and finance, there is an urgent need for models that are also explainable. Generally, more complex models -such as Deep Neural Networks and ensemble methods- achieve the best results in high-complexity problems; nevertheless, their lack of transparency limits their application in areas that require understanding the decisionmaking process. Given that ensemble models achieve the best performance in various applications (as seen in Kaggle competitions, particularly XGBoost), this paper presents a systematic literature review of articles published between 2019 and 2024 on the use of Explainable Artificial Intelligence (XAI) tools in ensemble models. The methodology is based on the guidelines proposed by Kitchenham and others, which include planning and execution of the review along with reporting the results obtained. Research results shed light on the benefits and challenges of using XAI in ensemble models to support decision-making and contribute to the social right of explaining such decisions. In addition to identifying research areas and contexts where these models are most applied, opportunities for future research are highlighted. It concludes that there are promising tools and approaches that enable a better understanding of the logic behind these models and greater transparency in results; it also identifies areas for improvement and the need to continue researching to address the challenges associated with the explainability of ensemble models</p>
			</trans-abstract>
			<kwd-group xml:lang="es">
				<title>Palabras clave:</title>
				<kwd>Aprendizaje automático interpretable</kwd>
				<kwd>Inteligencia Artificial Explicable (XAI)</kwd>
				<kwd>modelos de ensamble</kwd>
				<kwd>técnicas de explicabilidad</kwd>
				<kwd>XgBoost</kwd>
			</kwd-group>
			<kwd-group xml:lang="en">
				<title>Keywords:</title>
				<kwd>Ensemble models</kwd>
				<kwd>Explainable Artificial Intelligence (XAI)</kwd>
				<kwd>explainability techniques</kwd>
				<kwd>interpretable machine learning</kwd>
				<kwd>XgBoost</kwd>
			</kwd-group>
			<counts>
				<fig-count count="1"/>
				<table-count count="5"/>
				<equation-count count="0"/>
				<ref-count count="48"/>
				<page-count count="0"/>
			</counts>
		</article-meta>
	</front>
	<body>
		<sec sec-type="intro">
			<title>1. INTRODUCCIÓN</title>
			<p>La inteligencia artificial (IA) ha experimentado un progreso significativo y continuo en la última década, lo que ha resultado en una mayor adopción de sus algoritmos, por ejemplo, el uso de algoritmos de aprendizaje profundo (Deep Learning - DL) y de aprendizaje automático (Machine Learning - ML) para resolver muchos problemas, incluso aquellos que eran difíciles de solucionar en el pasado <xref ref-type="bibr" rid="B1">[1]</xref>. Sin embargo, estos logros sobresalientes van acompañados de modelos con una mayor complejidad que se clasifican como de caja negra, ya que carecen de transparencia. Por lo tanto, se hace necesario encontrar soluciones que puedan contribuir a abordar este desafío (lograr calidad siendo transparente) para expandir el uso de los sistemas basados en IA en dominios críticos y sensibles como atención médica, aplicación de la ley y seguridad y defensa nacional.</p>
			<p>La inteligencia artificial explicable (XAI) se ha propuesto como un área temática y de investigación que busca avanzar hacia una IA más transparente para evitar que se limite su adopción en dominios críticos. Los modelos de aprendizaje automático interpretables se definen como aquellos que se visualizan o explican claramente utilizando textos o gráficos y pueden ser fácilmente comprendidos por diversos tipos de usuarios <xref ref-type="bibr" rid="B2">[2]</xref>.</p>
			<p>Un árbol de decisión es un ejemplo de un modelo interpretable ampliamente utilizado. Por su parte, los bosques de decisión (un tipo de ensamble basado en <italic>bagging, boosting</italic> o <italic>stacking),</italic> como Random Forest o XGBoost, que combinan varios árboles de decisión para proporcionar un único resultado en tareas supervisadas de aprendizaje automático, son modelos no interpretables. Estos han demostrado recientemente ser altamente efectivos en numerosas tareas, pero todos se consideran modelos de caja negra <xref ref-type="bibr" rid="B3">[3]</xref>.</p>
			<p>El presente artículo presenta una revisión sistemática sobre las técnicas, métodos, o algoritmos XAI aplicados a modelos de ensamble. Se encuentra dividido en cuatro secciones. La primera corresponde a esta introducción. La segunda describe la metodología utilizada para desarrollar la revisión y los criterios que se tuvieron en cuenta para la selección de los artículos. La tercera muestra los resultados obtenidos tras realizar la búsqueda en las fuentes definidas y analizar los artículos seleccionados, destacando los beneficios y puntos a mejorar en la aplicación de XAI. Finalmente, se presentan las conclusiones y algunas ideas de trabajos futuro a desarrollar en el área.</p>
		</sec>
		<sec sec-type="methods">
			<title>2. METODOLOGÍA</title>
			<p>La metodología se basó en las directrices presentadas por Kitchenham <italic>et al.</italic><xref ref-type="bibr" rid="B4">[4]</xref> y constó de tres fases principales: la planeación de la revisión, su ejecución o realización y el reporte de los resultados obtenidos. La fase de planeación tuvo como objetivo definir el protocolo de la revisión que contempló la definición de: 1) objetivo y preguntas de investigación (<xref ref-type="table" rid="t1">Tabla 1</xref>); 2) cadenas de búsqueda; 3) fuentes de información (Scopus y Web of Science); 4) criterios de inclusión y exclusión de los artículos encontrados, basados en la lectura de los títulos, resúmenes, introducción, conclusiones y palabras clave de los artículos encontrados (<xref ref-type="table" rid="t2">Tabla 2</xref>); y 5) criterios evaluación de calidad de los artículos que fueron finalmente seleccionados, considerando su revisión completa .</p>
			<p>En la fase de ejecución, se ingresó a las fuentes de información definidas y se ejecutaron las cadenas de búsqueda usando la sintaxis apropiada para cada una de ellas, los resultados se exportaron y se gestionaron en <italic>Parsifal.</italic> En la fase de reporte de los resultados se describieron los resultados de las dos fases anteriores, presentando de manera detallada los hallazgos obtenidos.</p>
			<p>
				<table-wrap id="t1">
					<label>Tabla 1</label>
					<caption>
						<title>Preguntas de investigación</title>
					</caption>
					<table frame="hsides" rules="groups">
						<colgroup>
							<col/>
							<col/>
						</colgroup>
						<thead>
							<tr>
								<th align="justify">Preguntas de investigación</th>
								<th align="justify">Motivación</th>
							</tr>
						</thead>
						<tbody>
							<tr>
								<td align="justify">¿Qué innovaciones con enfoque XAI se han usado en modelos de aprendizaje automático basados en ensambles <italic>(bagging, boosting)</italic> para problemas de regresión y clasificación y cuáles han sido las ventajas y desventajas que se han observado en su uso?</td>
								<td align="center">Identificar cómo se ha aplicado XAI en diferentes modelos de ensamble <italic>(bagging, boosting)</italic> de aprendizaje automático y determinar los beneficios o innovaciones relevantes.</td>
							</tr>
							<tr>
								<td align="justify">¿Qué trabajos previos transformaron un bosque de árboles tipo <italic>bagging</italic> o <italic>boosting</italic> en un solo árbol de decisión?</td>
								<td align="center">Encontrar qué soluciones se han propuesto para convertir una caja negra de un ensamble de árboles en una caja de cristal a través de un árbol de decisión y cómo lo hicieron._</td>
							</tr>
						</tbody>
					</table>
				</table-wrap>
			</p>
			<p>
				<table-wrap id="t2">
					<label>Tabla 2</label>
					<caption>
						<title>Criterios de inclusión y exclusión</title>
					</caption>
					<table frame="hsides" rules="groups">
						<colgroup>
							<col/>
							<col/>
							<col/>
						</colgroup>
						<thead>
							<tr>
								<th align="center">Tipo de criterio</th>
								<th align="center">Criterio</th>
								<th align="center">Tipo</th>
							</tr>
						</thead>
						<tbody>
							<tr>
								<td align="justify">Lenguaje </td>
								<td align="justify">Documento escrito en inglés o español.</td>
								<td align="center" rowspan="4">Inclusión</td>
							</tr>
							<tr>
								<td align="justify">Tipo de fuente</td>
								<td align="justify">Documento del tipo libro, artículo o acta de conferencia.</td>
							</tr>
							<tr>
								<td align="justify">Accesibilidad</td>
								<td align="justify">Documento de acceso libre o al que se logre acceder a partir de los convenios que tiene la Universidad del Cauca.</td>
							</tr>
							<tr>
								<td align="justify">Relevancia con las preguntas de investigación</td>
								<td align="justify">El título, el resumen, la introducción, las conclusiones y las palabras clave del documento reflejan relevancia con, por lo menos, una pregunta de investigación de la revisión.</td>
							</tr>
							<tr>
								<td align="justify">Lenguaje</td>
								<td align="justify">Documento escrito en un lenguaje diferente al inglés o al español.</td>
								<td align="center" rowspan="4">Exclusión</td>
							</tr>
							<tr>
								<td align="justify">Tipo de fuente</td>
								<td align="justify">Documento que no corresponde al tipo libro, artículo o acta de conferencia.</td>
							</tr>
							<tr>
								<td align="justify">Accesibilidad</td>
								<td align="justify">Documento no accesible.</td>
							</tr>
							<tr>
								<td align="justify">Relevancia con las preguntas de investigación</td>
								<td align="justify">El título, el resumen, la introducción, las conclusiones y las palabras clave del documento no reflejan relevancia con, por lo menos, una pregunta de investigación de la revisión.</td>
							</tr>
						</tbody>
					</table>
				</table-wrap>
			</p>
			<p>La <xref ref-type="fig" rid="f1">Figura 1</xref> resume el proceso de búsqueda y selección de los estudios primarios relevantes para la presente revisión.</p>
			<p>
				<fig id="f1">
					<label>Figura 1</label>
					<caption>
						<title><italic>
 <italic>Diagrama de flujo de la estrategia de búsqueda y selección de artículos</italic>
</italic></title>
					</caption>
					<graphic xlink:href="0121-1129-rfing-33-70-e18078-gf1.jpg"/>
				</fig>
			</p>
			<sec>
				<title><italic>A. Cadena de búsqueda y fuentes de información</italic></title>
				<p>(XAI OR &quot;Explainable Artificial Intelligence&quot; OR &quot;Explainable machine learning&quot; OR &quot;Interpretable Artificial Intelligence&quot; OR &quot;Interpretable machine learning&quot; OR &quot;Interpretable AI&quot;) AND (ensemble OR bagging OR boosting OR stacking OR blending) AND (adaboost OR XGBoost OR &quot;random forest&quot; OR extratrees OR gradient OR lightgbm OR histgradientboosting OR &quot;Mixture of Experts&quot;) AND (Publication Year BETWEEN 2019 AND 2024).</p>
			</sec>
		</sec>
		<sec sec-type="results">
			<title>3. RESULTADOS</title>
			<p>La búsqueda fue realizada el 25 de junio de 2024 y se encontraron en total 837 documentos. En la <xref ref-type="table" rid="t4">Tabla 4</xref>, se muestra el número de documentos recuperados y seleccionados por fuente, luego de aplicar los criterios de inclusión y exclusión (<xref ref-type="table" rid="t3">Tabla 3</xref>).</p>
			<p>
				<table-wrap id="t3">
					<label>Tabla 3</label>
					<caption>
						<title>Criterios de inclusión y exclusión</title>
					</caption>
					<table frame="hsides" rules="groups">
						<colgroup>
							<col/>
							<col/>
							<col span="3"/>
						</colgroup>
						<thead>
							<tr>
								<th align="justify" rowspan="2">Criterio</th>
								<th align="justify" rowspan="2">Descripción</th>
								<th align="justify" colspan="3">Puntuación </th>
							</tr>
							<tr>
								<th align="justify"><bold>-1</bold></th>
								<th align="justify">0</th>
								<th align="justify">1</th>
							</tr>
						</thead>
						<tbody>
							<tr>
								<td align="justify">C1</td>
								<td align="justify">El estudio presenta una descripción detallada de los algoritmos y métodos utilizados.</td>
								<td align="justify">No</td>
								<td align="justify">Parcialmente</td>
								<td align="justify">Sí</td>
							</tr>
							<tr>
								<td align="justify">C2</td>
								<td align="justify">El estudio presenta claramente y en detalle los resultados obtenidos.</td>
								<td align="justify">No</td>
								<td align="justify">Parcialmente</td>
								<td align="justify">Sí</td>
							</tr>
							<tr>
								<td align="justify">C3</td>
								<td align="justify">El estudio ha sido publicado en una revista relevante.</td>
								<td align="justify">No</td>
								<td align="justify">JCR, Q3 o Q4</td>
								<td align="justify">JCR, Q1 o Q2</td>
							</tr>
							<tr>
								<td align="justify">C4</td>
								<td align="justify">El estudio ha sido citado por otros autores</td>
								<td align="justify">Una o menos citaciones promedio anuales a partir del año siguiente a su publicación.</td>
								<td align="justify">Más de una y menos de tres citaciones promedio anuales a partir del año siguiente a su publicación.</td>
								<td align="justify">Tres o más citaciones promedio anuales desde el año siguiente a su publicación o publicado en 2024.</td>
							</tr>
						</tbody>
					</table>
				</table-wrap>
			</p>
			<p>
				<table-wrap id="t4">
					<label>Tabla 4</label>
					<caption>
						<title>Número de resultados encontrados</title>
					</caption>
					<table frame="hsides" rules="groups">
						<colgroup>
							<col/>
							<col/>
							<col/>
						</colgroup>
						<thead>
							<tr>
								<th align="justify">Base de datos</th>
								<th align="justify">Número de artículos encontrados</th>
								<th align="justify">Seleccionados</th>
							</tr>
						</thead>
						<tbody>
							<tr>
								<td align="justify">Scopus</td>
								<td align="justify">465</td>
								<td align="justify">23</td>
							</tr>
							<tr>
								<td align="justify">Web of Science</td>
								<td align="justify">372</td>
								<td align="justify">22</td>
							</tr>
							<tr>
								<td align="justify">Total</td>
								<td align="justify">837</td>
								<td align="justify">45</td>
							</tr>
						</tbody>
					</table>
				</table-wrap>
			</p>
			<p>La tendencia creciente en el número de publicaciones y el hecho de que la mayor cantidad de las seleccionadas fuera del año 2023 evidencia que el tema es de gran relevancia en la actualidad.</p>
			<p>En los resultados de la evaluación de la calidad de los estudios seleccionados se pudo observar que 38 artículos recibieron la calificación máxima; cuatro recibieron una calificación de tres, que es buena (siendo castigados por tener un número promedio de dos citas al año); y tres recibieron una calificación de dos que es aceptable (siendo castigados por tener un número promedio de citas al año igual o menor a uno). Asimismo, el 100 % de los estudios realizó una descripción detallada de los algoritmos y métodos usados (C1), mostró los resultados de manera clara (C2), había sido publicados en revistas relevantes (Q1 o Q2) y, finalmente, el 85 % de los estudios obtuvieron tres o más citaciones promedio al año desde el año siguiente a su publicación o fueron publicados en 2024.</p>
			<p>A continuación, se presenta el análisis de los artículos seleccionados siguiendo el tipo de método o técnica XAI utilizada, a saber: modelos agnósticos, basados en modelos, usando modelos locales, usando modelos globales o usando modelos sustitutos <italic>(black box to glass box).</italic></p>
			<sec>
				<title><italic>A. XAI aplicado a modelos de ensamble basado en modelos agnósticos</italic></title>
				<p>Los modelos agnósticos son enfoques que se centran en la interpretación de modelos de aprendizaje automático sin considerar la arquitectura o el algoritmo de IA subyacente <xref ref-type="bibr" rid="B5">[5]</xref>; y pueden generar interpretaciones más comprensibles para los no expertos porque no requieren un conocimiento técnico del modelo <xref ref-type="bibr" rid="B6">[6]</xref>. Estas técnicas se basan en la salida del modelo y buscan proporcionar explicaciones generales aplicables a diferentes tipos de modelos.</p>
				<p>Los artículos seleccionados proporcionaron una visión general de las técnicas existentes y su aplicabilidad centrándose en los valores Shapley Additive Explanations (SHAP) <xref ref-type="bibr" rid="B7">[7]</xref>, que permiten una interpretación global y local del ensamble al medir la contribución de cada característica en las predicciones del modelo; mientras que las técnicas XAI agnósticas del modelo provocan pérdida de información y solo dan una reinterpretación de la contribución de las características.</p>
				<p>Los métodos de explicación <italic>post hoc,</italic> tanto los específicos del modelo como los agnósticos, actualmente son la corriente principal de investigación. En particular, la interpretación visual, la importancia de las características, así como la reducción del modelo son los que más comúnmente se utilizan para la explicación <italic>post hoc</italic><xref ref-type="bibr" rid="B8">[8]</xref>. A su vez, dado que los métodos agnósticos se basan en el modelado <italic>post hoc</italic> de funciones arbitrarias, pueden ser ineficientes y sesgados debido al muestreo ponderado que realizan.</p>
				<p>Para algunos autores <xref ref-type="bibr" rid="B5">[5]</xref>, los métodos XAI actualmente disponibles para explicar GBT son los agnósticos. Estos incluyen explicaciones independientes del modelo localmente interpretables (LIME), aditivas de Shapley (SHAP) y basadas en reglas locales (LORE) y anclajes.</p>
				<p>Se dice que estos métodos de propósito general pueden usarse para explicar cualquier modelo y esta flexibilidad se logra mediante el uso de un conjunto de datos sintéticos para sondear el modelo de caja negra de referencia e inferir una relación entre sus entradas y salidas <xref ref-type="bibr" rid="B5">[5]</xref>. Sin embargo, están en desventaja porque no hay introspección del modelo de referencia o distribución del objetivo que se considera esencial para explicaciones confiables. Además, las explicaciones pueden exhibir varianza debido a la generación no determinista de datos y la alta varianza da como resultado explicaciones diferentes para casos similares, lo cual genera una gran desconfianza en dichas explicaciones.</p>
			</sec>
			<sec>
				<title><italic>B. XAI aplicado a modelos de ensamble basado en modelos específicos</italic></title>
				<p>Un método de explicabilidad específico del modelo o intrínseco solo es aplicable a un tipo particular de modelo. Estos métodos utilizan las características y estructuras internas del modelo de aprendizaje automático, en lugar de depender únicamente de los datos de entrada y salida para proporcionar interpretaciones sobre cómo se realizan las predicciones <xref ref-type="bibr" rid="B9">[9]</xref>.</p>
				<p>Las técnicas más comunes de explicación basadas en modelos son la importancia de las características, las reglas de decisión y la visualización de modelos. La primera evalúa la significancia relativa de cada característica en el modelo teniendo en cuenta medidas como la importancia de Gini en árboles de decisión e identificando qué características tienen más influencia en las predicciones. Las reglas de decisión se utilizan para traducir la lógica interna del modelo en reglas comprensibles para los humanos <xref ref-type="bibr" rid="B10">[10]</xref> y describir cómo se toman las decisiones basadas en los valores de las características.</p>
				<p>En la visualización de modelos se representan gráficamente la estructura y el funcionamiento interno de estos y puede incluir visualizaciones de árboles de decisión, diagramas de flujo o representaciones gráficas de las relaciones entre las características y las predicciones. Sin embargo, las explicaciones pueden variar según el tipo de modelo utilizado y no ser aplicables a todos los algoritmos de aprendizaje automático <xref ref-type="bibr" rid="B11">[11]</xref>. Además, diferentes métodos o implementaciones de aprendizaje en conjunto pueden conducir a diferentes características para la interpretación.</p>
				<p>Un enfoque notable fue el desarrollado por algunos autores <xref ref-type="bibr" rid="B12">[12]</xref>, donde se presentó un método para transformar un bosque de decisión generado por XGBoost en un único árbol de decisión interpretable. Este método permite simplificar la complejidad del modelo al crear un árbol que mantiene gran parte del rendimiento predictivo del bosque original, pero con una estructura mucho más comprensible para los usuarios finales.</p>
				<p>Por su parte, otros autores <xref ref-type="bibr" rid="B13">[13]</xref> se propusieron un procedimiento para construir un árbol de decisión que aproximó el rendimiento de modelos de ensamble complejos como XGBoost. Su método se enfocó en la estabilidad y potencia de aproximación, proporcionando una herramienta valiosa para interpretar y simplificar patrones de predicción. Otro estudio <xref ref-type="bibr" rid="B14">[14]</xref> abordó la problemática de la interpretabilidad mediante la creación de un árbol de decisión único que se aproximó a un conjunto de árboles generado por XGBoost, utilizando las distribuciones de clases predichas por el conjunto. Finalmente, en otro caso <xref ref-type="bibr" rid="B15">[15]</xref>, se introdujo un método para interpretar modelos de caja negra mediante la construcción de un árbol de decisión basado en la contribución de las variables de entrada a las predicciones facilitando la comprensión del modelo y el descubrimiento de nuevos conocimientos.</p>
			</sec>
			<sec>
				<title><italic>C. XAI aplicado a modelos de ensamble con modelos locales</italic></title>
				<p>La interpretabilidad local se logra cuando es posible comprender la lógica de una sola predicción (o de un conjunto de estas) sin comprender necesariamente toda la estructura del modelo. LIME manifiesta este enfoque aproximando el comportamiento del modelo en torno a predicciones específicas mediante un modelo interpretable más simple, permitiendo comprender decisiones individuales de manera efectiva <xref ref-type="bibr" rid="B17">[17]</xref>.</p>
				<p>Los métodos de explicación local tienen como objetivo obtener la influencia de las características de entrada en el resultado de la decisión de un caso específico de entrada. Los enfoques actuales de explicación local incluyen: 1) informar la ruta de la decisión, 2) aplicar varios métodos independientes del modelo, lo que requiere su ejecución repetidamente para cada predicción y 3) asignar crédito a cada característica de entrada <xref ref-type="bibr" rid="B16">[16]</xref>.</p>
				<p>Las técnicas de explicación local utilizadas en modelos de ensamble, reportadas en los artículos primarios seleccionados, incluyeron el cálculo de la importancia de cada característica en la predicción de una instancia específica, mediante el análisis del cambio en el valor del gradiente del modelo al perturbar el valor de dicha característica <xref ref-type="bibr" rid="B10">[10]</xref>. Esta técnica ofrece una medida del impacto significativo de las características en predicciones individuales <xref ref-type="bibr" rid="B16">[16]</xref>.</p>
				<p>Asimismo, el método SHAP se utilizó para asignar contribuciones individuales a cada característica basándose en la teoría de juegos y empleando los valores de Shapley para determinar la contribución justa de cada una en la predicción de una instancia específica o un conjunto de instancias (explicaciones locales) o en explicaciones globales.</p>
				<p>Las explicaciones locales y la generación de ejemplos se consideran pertenecientes al enfoque de simplificación <xref ref-type="bibr" rid="B17">[17]</xref>. La técnica de generación de ejemplos extrae muestras de datos asociadas con los resultados de un modelo específico, permitiendo a los usuarios comprender mejor dicho modelo. Estudios como los presentados por algunos autores <xref ref-type="bibr" rid="B18">[18</xref>-<xref ref-type="bibr" rid="B20">20]</xref> abordaron el problema de la explicabilidad de los modelos combinando explicaciones locales para construir una comprensión global.</p>
				<p>En un caso <xref ref-type="bibr" rid="B18">[18]</xref>, usaron LIME para explicar modelos complejos como los ensambles, donde la explicación directa de la estructura completa del modelo es intrincada. En otro <xref ref-type="bibr" rid="B19">[19]</xref>, emplearon SHAP para proporcionar tanto explicaciones locales como globales del modelo. También <xref ref-type="bibr" rid="B21">[21]</xref>, se exploró el uso de LIME y SHAP discutiendo tanto sus aplicaciones como sus limitaciones y ofreciendo una visión integral del panorama actual en inteligencia artificial explicable (XA). En otro caso <xref ref-type="bibr" rid="B22">[22]</xref>, propusieron un marco de evaluación para la interpretabilidad de los modelos de IA, subrayando la importancia de combinar explicaciones locales y globales para obtener una comprensión más completa del comportamiento del modelo.</p>
				<p>Además, en otro estudio <xref ref-type="bibr" rid="B23">[23]</xref>, se introdujeron técnicas de explicación contrafactual que muestran cómo los cambios en las características de entrada pueden alterar las predicciones del modelo proporcionando una perspectiva distinta sobre cómo se pueden interpretar las decisiones del modelo en situaciones específicas.</p>
			</sec>
			<sec>
				<title><italic>D. XAI aplicado a modelos de ensamble en modelos globales</italic></title>
				<p>Un modelo globalmente interpretable debe permitir una comprensión completa de su funcionamiento interno revelando no solo las características clave que influencian las predicciones sino también las interacciones y relaciones entre ellas, permitiendo la comprensión del razonamiento que conduce a todos sus resultados posibles <xref ref-type="bibr" rid="B24">[24</xref>-<xref ref-type="bibr" rid="B25">25]</xref>. Ejemplos de modelos interpretables globalmente son los árboles de decisión, las reglas de decisión y los modelos lineales. Algunos autores <xref ref-type="bibr" rid="B26">[26</xref>-<xref ref-type="bibr" rid="B27">27]</xref> presentaron métodos para generar reglas y árboles de decisión a partir de redes neuronales profundas preentrenadas y otros modelos de caja negra.</p>
				<p>Las técnicas de explicación global utilizadas en ensambles se basan en medir la importancia relativa de cada característica con base en el cálculo de la ganancia de información obtenida por cada característica al dividir el conjunto de datos durante el entrenamiento del modelo, generando una clasificación de las características según su importancia en la toma de decisiones. Para este cálculo, se permutan aleatoriamente los valores de cada característica y se estima la disminución resultante en la precisión del modelo <xref ref-type="bibr" rid="B28">[28]</xref>. Esta técnica, aunque poderosa, puede ser computacionalmente costosa y sensible a la correlación entre características.</p>
				<p>Los valores de SHAP también se pueden utilizar para evaluar la importancia global de cada característica en los modelos de ensamble <xref ref-type="bibr" rid="B29">[29</xref>-<xref ref-type="bibr" rid="B30">30]</xref>, proporcionando una visión general de cómo cada característica contribuye al modelo y cómo se relacionan entre sí ayudando a identificar características irrelevantes o sesgadas.</p>
				<p>Los Gráficos de Dependencia Parcial (Partial Dependence Plot - PDP) son una técnica que permite visualizar el efecto marginal de una característica sobre la predicción ofreciendo una perspectiva más detallada y permitiendo la identificación de relaciones no lineales y no monótonas entre las variables <xref ref-type="bibr" rid="B31">[31]</xref>.</p>
				<p>Algunos autores <xref ref-type="bibr" rid="B32">[32]</xref> propusieron modificaciones específicas en algoritmos de ensambles para mejorar su interpretabilidad global que consisten en limitar la profundidad de los árboles a uno, creando un modelo similar a un Modelo Aditivo Generalizado (GAM) donde cada árbol representa el efecto marginal de una característica individual.</p>
				<p>Este enfoque simplifica la interpretación al evitar interacciones complejas entre características, pero, en general, sacrifica la capacidad del modelo para capturar dichas interacciones. Además, está basado en un conjunto de máquinas de aumento de gradiente (GBM) donde cada GBM se entrena en una única característica, por lo que el modelo global se construye como una suma ponderada de estos GBM individuales, facilitando tanto la interpretación global como local, minimiza el riesgo de sobreajuste y permite mantener un buen rendimiento.</p>
				<p>En otro caso <xref ref-type="bibr" rid="B33">[33]</xref>, introdujeron ExMatrix, una matriz que visualmente favorece la interpretación global y local de clasificadores basados en bosques aleatorios y permite a los usuarios identificar rápidamente patrones globales y relaciones entre características, así como examinar casos específicos para comprender las razones detrás de las predicciones individuales. Las filas representan reglas, las columnas características y las celdas contienen predicados de reglas. Esta representación permite la visualización de un gran número de reglas de manera escalable.</p>
			</sec>
			<sec>
				<title><italic>E. XAI aplicada a modelos de ensamble con modelos sustitutos</italic></title>
				<p>El concepto de <italic>black box to glass box</italic> (de caja negra a caja de cristal) se refiere al proceso de convertir un modelo de aprendizaje automático opaco (caja negra) en un modelo interpretable y comprensible (caja de cristal), lo que también se conoce como un modelo sustituto <xref ref-type="bibr" rid="B34">[34]</xref>. En el caso de XGBoost, que es un modelo de ensamble tipo <italic>boosting</italic> basado en árboles, se introdujeron técnicas para mejorar su transparencia e interpretabilidad <xref ref-type="bibr" rid="B35">[35</xref>-<xref ref-type="bibr" rid="B36">36]</xref> que incluyeron: 1) las reglas de decisión, 2) la visualización de los árboles, 3) la simplificación del modelo y 4) la representación de las características.</p>
				<p>Un enfoque destacado fue el propuesto por algunos autores <xref ref-type="bibr" rid="B12">[12</xref>, <xref ref-type="bibr" rid="B37">37]</xref> que transformó un modelo de Gradient Boosting Decision Tree (GBDT), como XGBoost, en un único árbol de decisión interpretable. Este método implicó tres etapas clave: 1) la poda del conjunto para reducir el número de hojas, 2) la extracción de reglas conjuntivas del conjunto podado y 3) la organización de estas reglas en una estructura de árbol de decisión jerárquico. La configuración de la profundidad del árbol permitió balancear la precisión y la interpretabilidad, adaptándose a las necesidades del usuario.</p>
				<p>Sin embargo, este método presenta varias desventajas. La principal es la posible pérdida de precisión predictiva en situaciones donde el modelo original es altamente complejo, ya que la simplificación de múltiples árboles en uno solo puede omitir interacciones importantes. La dependencia en la calidad de la poda y el riesgo de sobreajuste son preocupaciones adicionales, así como la complejidad computacional y la necesidad de una configuración experta para optimizar el árbol <xref ref-type="bibr" rid="B38">[38]</xref>.</p>
				<p>La visualización de los árboles de decisión utilizados en XGBoost puede ayudar a comprender la estructura del modelo y cómo se realiza la predicción <xref ref-type="bibr" rid="B39">[39]</xref>. Se pueden mostrar gráficamente los nodos, las ramas y las características utilizadas en cada división <xref ref-type="bibr" rid="B40">[40]</xref>. Aunque esta técnica es un poco compleja para el usuario, ya que graficar un número grande (por ejemplo 100) árboles de decisión que pueden ser muy diferentes, no le ayuda mucho a la comprensión del modelo.</p>
				<p>En unos casos <xref ref-type="bibr" rid="B41">[41]</xref>, se incorporó una herramienta destacada en este ámbito, Random Forest Similarity Map (RFMap), la cual ofrece una representación visual interactiva y escalable, diseñada para interpretar tanto el comportamiento global como las decisiones locales de un modelo de RF. RFMap permite a los usuarios analizar visualmente las rutas de decisión utilizadas por el modelo, aprovechando técnicas de reducción de dimensionalidad en 2D para mantener la interpretabilidad sin sacrificar el contexto global del bosque. Sin embargo, la escalabilidad visual sigue siendo un desafío significativo cuando se trata de representar modelos con miles de árboles de decisión; y su enfoque se limita a la representación de reglas y rutas de decisión, lo que podría no capturar todos los aspectos críticos del modelo.</p>
				<p>Algunos autores <xref ref-type="bibr" rid="B42">[42]</xref> emplearon algoritmos de selección de características para identificar y eliminar variables irrelevantes, lo cual no solo simplifica el modelo, sino que también puede mejorar su rendimiento al eliminar el ruido. Esta técnica es particularmente útil en <italic>data sets</italic> con alta dimensionalidad donde muchas características pueden resultar inútiles. Limitar la profundidad de los árboles en ensambles, como sugieren en otra investigación <xref ref-type="bibr" rid="B43">[43]</xref>, es una estrategia también posible para simplificar el modelo. La restricción de la profundidad evita que los árboles se vuelvan excesivamente complejos y propensos a sobre ajustarse a los datos de entrenamiento.</p>
				<p>Es crucial destacar las innovaciones recientes en XAI aplicadas a modelos de ensamble. Un enfoque emergente es el uso de Explainable Boosting Machines (EBM) <xref ref-type="bibr" rid="B44">[44]</xref>, que combinó la interpretabilidad de los modelos lineales con la capacidad predictiva de los de ensamble. EBM se utiliza para crear modelos altamente interpretables y precisos, facilitando su adopción en aplicaciones críticas como la salud y las finanzas. Este método ha demostrado ser efectivo en la identificación de patrones complejos y en la explicación de las decisiones del modelo, proporcionando una transparencia que es crucial para la confianza de los usuarios.</p>
				<p>Además, se han desarrollado técnicas avanzadas como FairXGBoost, que integra consideraciones de equidad en el proceso de modelado de XGBoost <xref ref-type="bibr" rid="B45">[45]</xref>. FairXGBoost ajusta las ponderaciones de las características para mitigar sesgos y asegurar decisiones más justas, asunto particularmente relevante en dominios sensibles como la concesión de créditos y la selección de personal. Estas innovaciones no solo mejoran la interpretabilidad de los modelos de ensamble, sino que también abordan la solución a preocupaciones éticas.</p>
				<p>La <xref ref-type="table" rid="t5">Tabla 5</xref> compara los hallazgos clave de técnicas XAI aplicadas a modelos de ensamble:</p>
				<p>
					<table-wrap id="t5">
						<label>Tabla 5</label>
						<caption>
							<title>Técnicas XAI aplicadas a modelos de ensamble</title>
						</caption>
						<table frame="hsides" rules="groups">
							<colgroup>
								<col/>
								<col/>
								<col/>
								<col/>
								<col/>
							</colgroup>
							<thead>
								<tr>
									<th align="justify">Técnica XAI</th>
									<th align="justify">Precisión</th>
									<th align="justify">Interpretabilidad</th>
									<th align="justify">Eficiencia</th>
									<th align="justify">Aplicabilidad</th>
								</tr>
							</thead>
							<tbody>
								<tr>
									<td align="justify">SHAP</td>
									<td align="justify">Alta</td>
									<td align="justify">Alta</td>
									<td align="justify">Moderada</td>
									<td align="justify">Optimizar sistemas críticos</td>
								</tr>
								<tr>
									<td align="justify">LIME</td>
									<td align="justify">Media</td>
									<td align="justify">Alta</td>
									<td align="justify">Alta</td>
									<td align="justify">Optimizar sistemas críticos</td>
								</tr>
								<tr>
									<td align="justify">Árboles de decisión</td>
									<td align="justify">Alta</td>
									<td align="justify">Media</td>
									<td align="justify">Alta</td>
									<td align="justify">Transparencia de modelos</td>
								</tr>
								<tr>
									<td align="justify">Valores de permutación</td>
									<td align="justify">Alta</td>
									<td align="justify">Baja</td>
									<td align="justify">Baja</td>
									<td align="justify">Reducción de sesgos en IA</td>
								</tr>
								<tr>
									<td align="justify">EBM</td>
									<td align="justify">Alta</td>
									<td align="justify">Alta</td>
									<td align="justify">Alta</td>
									<td align="justify">Transparencia de modelos</td>
								</tr>
								<tr>
									<td align="justify">FairXGBoost</td>
									<td align="justify">Alta</td>
									<td align="justify">Alta</td>
									<td align="justify">Moderada</td>
									<td align="justify">Equidad algorítmica</td>
								</tr>
							</tbody>
						</table>
					</table-wrap>
				</p>
			</sec>
			<sec>
				<title><italic>F. Respuesta a las preguntas de investigación</italic></title>
				<p>A continuación, se presentan las respuestas a las preguntas de investigaciones definidas en la <xref ref-type="table" rid="t1">Tabla 1</xref>, tras realizar el análisis de los artículos seleccionados.</p>
				<p><bold>1) ¿Qué innovaciones con enfoque XAI se han usado en modelos de aprendizaje automático basados en ensambles <italic>(bagging, boosting)</italic> para problemas de regresión y clasificación y cuáles han sido las ventajas y desventajas que se han observado en su uso?</bold> Las innovaciones con enfoque XAI aplicadas a modelos de aprendizaje automático basados en ensambles para problemas de regresión y clasificación, como <italic>bagging</italic> y <italic>boosting,</italic> han buscado mejorar la transparencia e interpretabilidad de estos modelos <xref ref-type="bibr" rid="B46">[46]</xref>. Las técnicas más destacadas incluyen la importancia de características basada en permutaciones, los diagramas de dependencia parcial (PDP) y los gráficos de importancia SHAP. Estas permiten identificar qué características son más relevantes para el modelo y cómo contribuyen a las decisiones de clasificación o regresión <xref ref-type="bibr" rid="B47">[47]</xref>. La importancia de características basadas en permutaciones permite evaluar el impacto de cada una al medir la variación en el rendimiento del modelo cuando se permutan los valores de una característica específica. Los PDP proporcionan una representación visual de la relación entre una o dos características y la predicción promedio del modelo, ayudando a identificar patrones y tendencias. Los gráficos de importancia SHAP ofrecen explicaciones consistentes y aditivas sobre la contribución de cada característica a las predicciones individuales, facilitando la comprensión de las interacciones complejas entre características.</p>
				<p>Una desventaja significativa es que las explicaciones globales proporcionadas por estas técnicas pueden ser insuficientemente detalladas para capturar la influencia específica de las características en casos particulares, especialmente en presencia de relaciones no lineales o interacciones complejas entre características, lo que puede limitar la utilidad de estas explicaciones en aplicaciones que requieren una interpretación detallada a nivel local <xref ref-type="bibr" rid="B48">[48]</xref>.</p>
				<p>Entre las desventajas de las explicaciones locales se destaca que estos métodos pueden ser computacionalmente costosos, sobre todo cuando se aplican a modelos de ensamble con un gran número de estimadores. Además, pueden ser difíciles de interpretar cuando se utilizan ensambles con modelos de base complejos, como árboles de decisión profundos.</p>
				<p>Sumado a esto, se han propuesto técnicas de visualización para mostrar la estructura y el comportamiento de los ensambles como la representación gráfica de árboles de decisión o la visualización de la influencia de características en la clasificación. Dentro de las ventajas de estos métodos se destaca que las visualizaciones pueden ayudar a comprender la estructura y la contribución de cada modelo de base en el ensamble facilitando la interpretación y el análisis; y en lo relativo a las desventajas, se resalta que las visualizaciones pueden ser limitadas en la cantidad de información que pueden mostrar.</p>
				<p>2) ¿Qué trabajos previos transformaron un bosque de árboles de un ensamble <italic>bagging</italic> o <italic>boosting</italic> en un solo árbol de decisión? En el contexto de la transformación de un bosque de árboles de un ensamble <italic>bagging</italic> o <italic>boosting</italic> en un solo árbol de decisión es importante tener en cuenta que esta no es una transformación comúnmente realizada, debido a las diferencias fundamentales entre los ensambles y los árboles de decisión individuales. Los ensambles -como los bosques aleatorios (Random Forest) o los métodos de <italic>boosting</italic> como XGBoost- están diseñados para combinar múltiples árboles de decisión y obtener resultados más precisos y robustos. Sin embargo, trabajos previos han explorado la posibilidad de transformar ensambles en un solo árbol de decisión con el objetivo de simplificar y aumentar la interpretabilidad del modelo resultante.</p>
				<p>En uno de estos, los autores propusieron un enfoque para aproximar el modelo XGBoost, un ensamble basado en <italic>gradient boosting,</italic> a un árbol de decisión interpretable. El objetivo era conseguir un modelo simplificado y comprensible que mantuviera un rendimiento cercano al del ensamble original. Este método implicó tres etapas clave: 1) la poda del conjunto para reducir el número de hojas, 2) la extracción de reglas conjuntivas del conjunto podado y 3) la organización de estas reglas en una estructura de árbol de decisión jerárquico <xref ref-type="bibr" rid="B12">[12]</xref>.</p>
				<p>El objetivo del algoritmo presentado consistió en utilizar el modelo entrenado para generar un nuevo árbol que aproximara el rendimiento predictivo del modelo original. Este método se basó en la premisa de que tanto los árboles de decisión como los bosques de decisiones podían representarse como un conjunto finito de reglas conjuntivas, extendiendo así un trabajo anterior, adaptándolo a Gradient Boosting Decision Trees (GBDT) y permitiendo ahora a los usuarios controlar mejor el equilibrio entre el rendimiento predictivo y la complejidad del modelo.</p>
				<p>En el otro, se presentó un método para transformar un bosque de decisiones, que es un ensamble basado en <italic>bagging,</italic> en un único árbol de decisión interpretable. El enfoque buscó preservar la estructura de decisión del bosque original mientras proporcionaba una representación más comprensible con el fin de facilitar la interpretación y comprensión del modelo, preservando al mismo tiempo su capacidad predictiva <xref ref-type="bibr" rid="B37">[37]</xref>.</p>
				<p>Esta propuesta partió de un conjunto de datos con n ejemplos, m características y c clases diferentes, un bosque de decisiones agrega K funciones aditivas y mapea un vector de características m-dimensional a un vector de probabilidades c-dimensional. La propuesta del método consistió en construir un nuevo árbol que aproximara el comportamiento del bosque original, organizando las reglas en una estructura que permitiera predicciones rápidas y comprensibles para instancias no vistas.</p>
				<p>La premisa central de este método era que tanto los bosques de decisiones como los árboles de decisión podían ser representados como conjuntos disjuntos de reglas conjuntivas. Es importante señalar que no consideró dependencias entre diferentes árboles por lo que es más adecuado para bosques de decisiones independientes como Random Forests o Rotation Forests.</p>
				<p>Estos dos trabajos fueron relevantes en el estado del arte de XAI, ya que abordaron el desafío de convertir modelos de ensamble en árboles de decisión interpretables desde el enfoque más claro de sustitución. Sin embargo, hay pocos estudios disponibles en este campo, lo que confirma la importancia de investigaciones adicionales para mejorar la interpretabilidad de los ensambles <italic>bagging</italic> y <italic>boosting.</italic></p>
			</sec>
		</sec>
		<sec sec-type="conclusions">
			<title>4. CONCLUSIONES Y TRABAJO FUTURO</title>
			<p>Los estudios seleccionados permiten destacar que la explicabilidad en la inteligencia artificial (XAI) es un campo de investigación en rápido crecimiento que busca mejorar la comprensión de los modelos de aprendizaje automático y sus decisiones. En particular, en el contexto de modelos de ensamble como <italic>bagging</italic> y <italic>boosting</italic> se han realizado esfuerzos para aplicar técnicas de XAI, mejorar su interpretabilidad y aumentar la confianza en estos al facilitar la validación, la explicación de los resultados y la detección de sesgos y errores. Sin embargo, también existen limitaciones y desafíos en el uso de XAI en modelos de ensamble como complejidad computacional, interpretación inconsistente e irrelevancia de las explicaciones.</p>
			<p>Así pues, algunas direcciones para trabajos futuros se relacionan con la necesidad de optimizar los métodos de transformación, la creación de métricas para evaluar la explicabilidad, la integración de técnicas de visualización interactivas y la exploración de técnicas híbridas que combinen enfoques de interpretación global y local.</p>
		</sec>
	</body>
	<back>
		<ack>
			<title>AGRADECIMIENTOS</title>
			<p>Agradecemos al Grupo de Investigación y Desarrollo en Tecnologías de la Información (GTI) de la Universidad del Cauca. A la Universidad del Cauca por financiar parcialmente el desarrollo de esta investigación</p>
		</ack>
		<ref-list>
			<title>REFERENCIAS</title>
			<ref id="B1">
				<label>[I]</label>
				<mixed-citation>D. Minh, H. X. Wang, Y. F. Li, T. N. Nguyen, &quot;Explainable artificial intelligence: a comprehensive review,&quot; <italic>Artificial Intelligence Review</italic>, vol. 55, no. 5, pp. 3503-3568, 2022. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/s10462-021-10088-y">https://doi.org/10.1007/s10462-021-10088-y</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Minh</surname>
							<given-names>D.</given-names>
						</name>
						<name>
							<surname>Wang</surname>
							<given-names>H. X.</given-names>
						</name>
						<name>
							<surname>Li</surname>
							<given-names>Y. F.</given-names>
						</name>
						<name>
							<surname>Nguyen</surname>
							<given-names>T. N.</given-names>
						</name>
					</person-group>
					<article-title>Explainable artificial intelligence: a comprehensive review</article-title>
					<source>Artificial Intelligence Review</source>
					<volume>55</volume>
					<issue>5</issue>
					<fpage>3503</fpage>
					<lpage>3568</lpage>
					<year>2022</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/s10462-021-10088-y">https://doi.org/10.1007/s10462-021-10088-y</ext-link>
				</element-citation>
			</ref>
			<ref id="B2">
				<label>[2]</label>
				<mixed-citation>C. Moreira, Y. L. Chou, M. Velmurugan, C. Ouyang, R. Sindhgatta, P. Bruza, &quot;LINDA-BN: An interpretable probabilistic approach for demystifying black-box predictive models,&quot; <italic>Decision Support Systems</italic>, vol. 150, e113561, 2021. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.10167j.dss.2021.113561">https://doi.org/10.10167j.dss.2021.113561</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Moreira</surname>
							<given-names>C.</given-names>
						</name>
						<name>
							<surname>Chou</surname>
							<given-names>Y. L.</given-names>
						</name>
						<name>
							<surname>Velmurugan</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Ouyang</surname>
							<given-names>C.</given-names>
						</name>
						<name>
							<surname>Sindhgatta</surname>
							<given-names>R.</given-names>
						</name>
						<name>
							<surname>Bruza</surname>
							<given-names>P.</given-names>
						</name>
					</person-group>
					<article-title>LINDA-BN: An interpretable probabilistic approach for demystifying black-box predictive models</article-title>
					<source>Decision Support Systems</source>
					<volume>150</volume>
					<elocation-id>e113561</elocation-id>
					<year>2021</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.10167j.dss.2021.113561">https://doi.org/10.10167j.dss.2021.113561</ext-link>
				</element-citation>
			</ref>
			<ref id="B3">
				<label>[3]</label>
				<mixed-citation>C. Rudin, &quot;Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead,&quot; <italic>Nature Machine Intelligence</italic>, vol. 1, no. 5, pp. 206-215, May 2019. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1038/s42256-019-0048-x">https://doi.org/10.1038/s42256-019-0048-x</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Rudin</surname>
							<given-names>C.</given-names>
						</name>
					</person-group>
					<article-title>Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead</article-title>
					<source>Nature Machine Intelligence</source>
					<volume>1</volume>
					<issue>5</issue>
					<fpage>206</fpage>
					<lpage>215</lpage>
					<month>05</month>
					<year>2019</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1038/s42256-019-0048-x">https://doi.org/10.1038/s42256-019-0048-x</ext-link>
				</element-citation>
			</ref>
			<ref id="B4">
				<label>[4]</label>
				<mixed-citation>B. A. Kitchenham, D. Budgen, O. P. Brereton, &quot;Using mapping studies as the basis for further research-a participant-observer case study,&quot; <italic>Information and Software Technology</italic>, vol. 53, no. 6, pp. 638-651, Jun. 2011. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.10167j.infsof.2010.12.011">https://doi.org/10.10167j.infsof.2010.12.011</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Kitchenham</surname>
							<given-names>B. A.</given-names>
						</name>
						<name>
							<surname>Budgen</surname>
							<given-names>D.</given-names>
						</name>
						<name>
							<surname>Brereton</surname>
							<given-names>. P.</given-names>
						</name>
					</person-group>
					<article-title>Using mapping studies as the basis for further research-a participant-observer case study</article-title>
					<source>Information and Software Technology</source>
					<volume>53</volume>
					<issue>6</issue>
					<fpage>638</fpage>
					<lpage>651</lpage>
					<month>06</month>
					<year>2011</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.10167j.infsof.2010.12.011">https://doi.org/10.10167j.infsof.2010.12.011</ext-link>
				</element-citation>
			</ref>
			<ref id="B5">
				<label>[5]</label>
				<mixed-citation>J. Hatwell, M. M. Gaber, R. Muhammad Atif Azad, &quot;Gbt-hips: Explaining the classifications of gradient boosted tree ensembles,&quot; <italic>Applied Sciences (Switzerland)</italic>, vol. 11, no. 6, e2511, Mar. 2021. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.3390/app11062511">https://doi.org/10.3390/app11062511</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Hatwell</surname>
							<given-names>J.</given-names>
						</name>
						<name>
							<surname>Gaber</surname>
							<given-names>M. M.</given-names>
						</name>
						<name>
							<surname>Azad</surname>
							<given-names>R. Muhammad Atif</given-names>
						</name>
					</person-group>
					<article-title>Gbt-hips: Explaining the classifications of gradient boosted tree ensembles</article-title>
					<source>Applied Sciences (Switzerland)</source>
					<volume>11</volume>
					<issue>6</issue>
					<elocation-id>e2511</elocation-id>
					<month>03</month>
					<year>2021</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.3390/app11062511">https://doi.org/10.3390/app11062511</ext-link>
				</element-citation>
			</ref>
			<ref id="B6">
				<label>[6]</label>
				<mixed-citation>S. Ali <italic>et al</italic>
 <italic>.,</italic> &quot;Explainable Artificial Intelligence (XAI): What we know and what is left to attain Trustworthy Artificial Intelligence,&quot; <italic>Information Fusion</italic>, vol. January, e101805, Nov. 2023. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.inffus.2023.101805">https://doi.org/10.1016/j.inffus.2023.101805</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Ali</surname>
							<given-names>S.</given-names>
						</name>
						<etal/>
					</person-group>
					<article-title>Explainable Artificial Intelligence (XAI): What we know and what is left to attain Trustworthy Artificial Intelligence</article-title>
					<source>Information Fusion</source>
					<volume>January</volume>
					<elocation-id>e101805</elocation-id>
					<month>11</month>
					<year>2023</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.inffus.2023.101805">https://doi.org/10.1016/j.inffus.2023.101805</ext-link>
				</element-citation>
			</ref>
			<ref id="B7">
				<label>[7]</label>
				<mixed-citation>A. V. Konstantinov, L. V. Utkin, &quot;Interpretable machine learning with an ensemble of gradient boosting machines,&quot; <italic>Knowledge-based Systems</italic>, vol. 222, e106993, Jun. 2021. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.knosys.2021.106993">https://doi.org/10.1016/j.knosys.2021.106993</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Konstantinov</surname>
							<given-names>A. V.</given-names>
						</name>
						<name>
							<surname>Utkin</surname>
							<given-names>L. V.</given-names>
						</name>
					</person-group>
					<article-title>Interpretable machine learning with an ensemble of gradient boosting machines</article-title>
					<source>Knowledge-based Systems</source>
					<volume>222</volume>
					<elocation-id>e106993</elocation-id>
					<month>06</month>
					<year>2021</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.knosys.2021.106993">https://doi.org/10.1016/j.knosys.2021.106993</ext-link>
				</element-citation>
			</ref>
			<ref id="B8">
				<label>[8]</label>
				<mixed-citation>A. Ghose, B. Ravindran, &quot;Interpretability with accurate small models,&quot; <italic>Frontiers in Artificial Intelligence</italic>, vol. 3, e3, Feb. 2020. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.3389/frai.2020.00003">https://doi.org/10.3389/frai.2020.00003</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Ghose</surname>
							<given-names>.</given-names>
						</name>
						<name>
							<surname>Ravindran</surname>
							<given-names>B.</given-names>
						</name>
					</person-group>
					<article-title>Interpretability with accurate small models</article-title>
					<source>Frontiers in Artificial Intelligence</source>
					<volume>3</volume>
					<elocation-id>e3</elocation-id>
					<month>02</month>
					<year>2020</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.3389/frai.2020.00003">https://doi.org/10.3389/frai.2020.00003</ext-link>
				</element-citation>
			</ref>
			<ref id="B9">
				<label>[9]</label>
				<mixed-citation>E. S. Ortigossa, T. Gonçalves, L. G. Nonato, &quot;EXplainable Artificial Intelligence (XAI)-From Theory to Methods and Applications,&quot; <italic>IEEE Access</italic>, vol. 12, e15, Jun. 2024.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Ortigossa</surname>
							<given-names>E. S.</given-names>
						</name>
						<name>
							<surname>Gonçalves</surname>
							<given-names>T.</given-names>
						</name>
						<name>
							<surname>Nonato</surname>
							<given-names>L. G.</given-names>
						</name>
					</person-group>
					<article-title>EXplainable Artificial Intelligence (XAI)-From Theory to Methods and Applications</article-title>
					<source>IEEE Access</source>
					<volume>12</volume>
					<elocation-id>e15</elocation-id>
					<month>06</month>
					<year>2024</year>
				</element-citation>
			</ref>
			<ref id="B10">
				<label>[10]</label>
				<mixed-citation>P. P. Angelov, E. A. Soares, R. Jiang, N. I. Arnold, P. M. Atkinson, &quot;Explainable artificial intelligence: an analytical review,&quot; <italic>WIREs Data Mining and Knowledge Discovery</italic>, vol. 11, no. 5, pp. 1-13, Jul. 2021. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1002/widm.1424">https://doi.org/10.1002/widm.1424</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Angelov</surname>
							<given-names>P. P.</given-names>
						</name>
						<name>
							<surname>Soares</surname>
							<given-names>E. A.</given-names>
						</name>
						<name>
							<surname>Jiang</surname>
							<given-names>R.</given-names>
						</name>
						<name>
							<surname>Arnold</surname>
							<given-names>N. I.</given-names>
						</name>
						<name>
							<surname>Atkinson</surname>
							<given-names>P. M.</given-names>
						</name>
					</person-group>
					<article-title>Explainable artificial intelligence: an analytical review</article-title>
					<source>WIREs Data Mining and Knowledge Discovery</source>
					<volume>11</volume>
					<issue>5</issue>
					<fpage>1</fpage>
					<lpage>13</lpage>
					<month>06</month>
					<year>2021</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1002/widm.1424">https://doi.org/10.1002/widm.1424</ext-link>
				</element-citation>
			</ref>
			<ref id="B11">
				<label>[II]</label>
				<mixed-citation>F. A. Khalifa, H. M. Abdelkader, A. H. Elsaid, &quot;An analysis of ensemble pruning methods under the explanation of Random Forest,&quot; <italic>Information System</italic>, vol. 120, e102310, Feb. 2024. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.is.2023.102310">https://doi.org/10.1016/j.is.2023.102310</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Khalifa</surname>
							<given-names>F. A.</given-names>
						</name>
						<name>
							<surname>Abdelkader</surname>
							<given-names>H. M.</given-names>
						</name>
						<name>
							<surname>Elsaid</surname>
							<given-names>A. H.</given-names>
						</name>
					</person-group>
					<article-title>An analysis of ensemble pruning methods under the explanation of Random Forest</article-title>
					<source>Information System</source>
					<volume>120</volume>
					<elocation-id>e102310</elocation-id>
					<month>02</month>
					<year>2024</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.is.2023.102310">https://doi.org/10.1016/j.is.2023.102310</ext-link>
				</element-citation>
			</ref>
			<ref id="B12">
				<label>[12]</label>
				<mixed-citation>O. Sagi, L. Rokach, &quot;Approximating XGBoost with an interpretable decision tree,&quot; <italic>Information Sciences (NY)</italic>, vol. 572, pp. 522-542, Sep. 2021. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.ins.2021.05.055">https://doi.org/10.1016/j.ins.2021.05.055</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Sagi</surname>
							<given-names>O.</given-names>
						</name>
						<name>
							<surname>Rokach</surname>
							<given-names>L.</given-names>
						</name>
					</person-group>
					<article-title>Approximating XGBoost with an interpretable decision tree</article-title>
					<source>Information Sciences (NY)</source>
					<volume>572</volume>
					<fpage>522</fpage>
					<lpage>542</lpage>
					<month>09</month>
					<year>2021</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.ins.2021.05.055">https://doi.org/10.1016/j.ins.2021.05.055</ext-link>
				</element-citation>
			</ref>
			<ref id="B13">
				<label>[13]</label>
				<mixed-citation>Y. Zhou, G. Hooker, &quot;Interpreting models via single tree approximation,&quot; <italic>arXivpreprint</italic>, Oct. 2016. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.48550/arXiv.1610.09036">https://doi.org/10.48550/arXiv.1610.09036</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Zhou</surname>
							<given-names>Y.</given-names>
						</name>
						<name>
							<surname>Hooker</surname>
							<given-names>G.</given-names>
						</name>
					</person-group>
					<article-title>Interpreting models via single tree approximation</article-title>
					<source>arXivpreprint</source>
					<month>10</month>
					<year>2016</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.48550/arXiv.1610.09036">https://doi.org/10.48550/arXiv.1610.09036</ext-link>
				</element-citation>
			</ref>
			<ref id="B14">
				<label>[14]</label>
				<mixed-citation>A. Van Assche, H. Blockeel, &quot;Seeing the forest through the trees: Learning a comprehensible model from an ensemble,&quot; in <italic>18</italic>
 <italic>th</italic> 
 <italic>European Conference on Machine Learning</italic>, Warsaw, Poland, 2007, pp. 418429.</mixed-citation>
				<element-citation publication-type="confproc">
					<person-group person-group-type="author">
						<name>
							<surname>Van Assche</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Blockeel</surname>
							<given-names>H.</given-names>
						</name>
					</person-group>
					<source>Seeing the forest through the trees: Learning a comprehensible model from an ensemble</source><italic>th</italic><conf-name>18European Conference on Machine Learning</conf-name>
					<conf-loc>Warsaw, Poland</conf-loc>
					<year>2007</year>
					<fpage>418429</fpage>
					<lpage>418429</lpage>
				</element-citation>
			</ref>
			<ref id="B15">
				<label>[15]</label>
				<mixed-citation>C. Yang, A. Rangarajan, S. Ranka, &quot;Global model interpretation via recursive partitioning,&quot; in <italic>IEEE</italic> 
 <italic>20th</italic> 
 <italic>International Conference on High Performance Computing and Communications</italic>, IEEE, Exeter, Reino Unido, 2018, pp. 1563-1570.</mixed-citation>
				<element-citation publication-type="confproc">
					<person-group person-group-type="author">
						<name>
							<surname>Yang</surname>
							<given-names>C.</given-names>
						</name>
						<name>
							<surname>Rangarajan</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Ranka</surname>
							<given-names>.</given-names>
						</name>
					</person-group>
					<source>Global model interpretation via recursive partitioning</source><italic>IEEE</italic><conf-name>20thInternational Conference on High Performance Computing and Communications</conf-name>
					<conf-sponsor>IEEE</conf-sponsor>
					<conf-loc>Exeter, Reino Unido</conf-loc>
					<year>2018</year>
					<fpage>1563</fpage>
					<lpage>1570</lpage>
				</element-citation>
			</ref>
			<ref id="B16">
				<label>[16]</label>
				<mixed-citation>M. Nagahisarchoghaei <italic>et al</italic>
 <italic>.,</italic> &quot;An Empirical Survey on Explainable AI Technologies: Recent Trends, Use-Cases, and Categories from Technical and Application Perspectives,&quot; <italic>Electronics (Switzerland)</italic>, vol. 12, no. 5, e1092, Feb. 2023. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.3390/electronics12051092">https://doi.org/10.3390/electronics12051092</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Nagahisarchoghaei</surname>
							<given-names>M.</given-names>
						</name>
						<etal/>
					</person-group>
					<article-title>An Empirical Survey on Explainable AI Technologies: Recent Trends, Use-Cases, and Categories from Technical and Application Perspectives</article-title>
					<source>Electronics (Switzerland)</source>
					<volume>12</volume>
					<issue>5</issue>
					<elocation-id>e1092</elocation-id>
					<month>02</month>
					<year>2023</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.3390/electronics12051092">https://doi.org/10.3390/electronics12051092</ext-link>
				</element-citation>
			</ref>
			<ref id="B17">
				<label>[17]</label>
				<mixed-citation>A. Holzinger, A. Saranti, C. Molnar, P. Biecek, W. Samek, &quot;Explainable AI Methods-A Brief Overview,&quot; in <italic>XX AI - Beyond Explainable AI</italic>. Cham: Springer International Publishing, 2022, pp. 13-38. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/978-3-031-04083-2_2">https://doi.org/10.1007/978-3-031-04083-2_2</ext-link>
				</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Holzinger</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Saranti</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Molnar</surname>
							<given-names>C.</given-names>
						</name>
						<name>
							<surname>Biecek</surname>
							<given-names>P.</given-names>
						</name>
						<name>
							<surname>Samek</surname>
							<given-names>W.</given-names>
						</name>
					</person-group>
					<chapter-title>Explainable AI Methods-A Brief Overview</chapter-title>
					<source>XX AI - Beyond Explainable AI</source>
					<publisher-loc>Cham</publisher-loc>
					<publisher-name>Springer International Publishing</publisher-name>
					<year>2022</year>
					<fpage>13</fpage>
					<lpage>38</lpage>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/978-3-031-04083-2_2">https://doi.org/10.1007/978-3-031-04083-2_2</ext-link>
				</element-citation>
			</ref>
			<ref id="B18">
				<label>[18]</label>
				<mixed-citation>M. T. Ribeiro, S. Singh, C. Guestrin &quot;Why should i trust you? Explaining the predictions of any classifier,&quot; in <italic>Proceedings of the</italic> 
 <italic>22</italic>
 <italic>nd</italic> 
 <italic>ACM SIGKDD international conference on knowledge discovery and data mining</italic>, San Diego, EE.UU., 2016, pp. 1135-1144.</mixed-citation>
				<element-citation publication-type="confproc">
					<person-group person-group-type="author">
						<name>
							<surname>Ribeiro</surname>
							<given-names>M. T.</given-names>
						</name>
						<name>
							<surname>Singh</surname>
							<given-names>S.</given-names>
						</name>
						<name>
							<surname>Guestrin</surname>
							<given-names>C.</given-names>
						</name>
					</person-group>
					<source>Why should i trust you? Explaining the predictions of any classifier</source><italic>Proceedings of the</italic> 
 <italic>nd</italic><conf-name>22ACM SIGKDD international conference on knowledge discovery and data mining</conf-name>
					<conf-loc>San Diego, EE.UU</conf-loc>
					<year>2016</year>
					<fpage>1135</fpage>
					<lpage>1144</lpage>
				</element-citation>
			</ref>
			<ref id="B19">
				<label>[19]</label>
				<mixed-citation>S. M. Lundberg, S.-I. Lee, &quot;A unified approach to interpreting model predictions,&quot; <italic>Advances in Neural Information Processing Systems</italic>, vol. 30, e35, 2017.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Lundberg</surname>
							<given-names>S. M.</given-names>
						</name>
						<name>
							<surname>Lee</surname>
							<given-names>S.-I.</given-names>
						</name>
					</person-group>
					<article-title>A unified approach to interpreting model predictions</article-title>
					<source>Advances in Neural Information Processing Systems</source>
					<volume>30</volume>
					<elocation-id>e35</elocation-id>
					<year>2017</year>
				</element-citation>
			</ref>
			<ref id="B20">
				<label>[20]</label>
				<mixed-citation>Á. Delgado-Panadero, B. Hernández-Lorca, M. T. García-Ordás, J. A. Benítez-Andrades, &quot;Implementing local-explainability in Gradient Boosting Trees: Feature Contribution,&quot; <italic>Information Sciences (NY)</italic>, vol. 589, pp. 199-212, Apr. 2022. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.ins.2021.12.111">https://doi.org/10.1016/j.ins.2021.12.111</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Delgado-Panadero</surname>
							<given-names>Á.</given-names>
						</name>
						<name>
							<surname>Hernández-Lorca</surname>
							<given-names>B.</given-names>
						</name>
						<name>
							<surname>García-Ordás</surname>
							<given-names>M. T.</given-names>
						</name>
						<name>
							<surname>Benítez-Andrades</surname>
							<given-names>J. A.</given-names>
						</name>
					</person-group>
					<article-title>Implementing local-explainability in Gradient Boosting Trees: Feature Contribution</article-title>
					<source>Information Sciences (NY)</source>
					<volume>589</volume>
					<fpage>199</fpage>
					<lpage>212</lpage>
					<month>04</month>
					<year>2022</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.ins.2021.12.111">https://doi.org/10.1016/j.ins.2021.12.111</ext-link>
				</element-citation>
			</ref>
			<ref id="B21">
				<label>[21]</label>
				<mixed-citation>C. Molnar , <italic>Interpretable Machine Learning. A Guide for Making Black Box Models Explainable</italic>, 2020.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Molnar</surname>
							<given-names>C.</given-names>
						</name>
					</person-group>
					<source>Interpretable Machine Learning. A Guide for Making Black Box Models Explainable</source>
					<year>2020</year>
				</element-citation>
			</ref>
			<ref id="B22">
				<label>[22]</label>
				<mixed-citation>F. Doshi-Velez, B. Kim, &quot;Towards a rigorous science of interpretable machine learning,&quot; <italic>arXiv preprint</italic>, 2017.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Doshi-Velez</surname>
							<given-names>F.</given-names>
						</name>
						<name>
							<surname>Kim</surname>
							<given-names>B.</given-names>
						</name>
					</person-group>
					<article-title>Towards a rigorous science of interpretable machine learning</article-title>
					<source>arXiv preprint</source>
					<year>2017</year>
				</element-citation>
			</ref>
			<ref id="B23">
				<label>[23]</label>
				<mixed-citation>D. Alvarez-Melis, T. S. Jaakkola, &quot;On the robustness of interpretability methods,&quot; <italic>arXiv preprint</italic>, 2018.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Alvarez-Melis</surname>
							<given-names>D.</given-names>
						</name>
						<name>
							<surname>Jaakkola</surname>
							<given-names>T. S.</given-names>
						</name>
					</person-group>
					<article-title>On the robustness of interpretability methods</article-title>
					<source>arXiv preprint</source>
					<year>2018</year>
				</element-citation>
			</ref>
			<ref id="B24">
				<label>[24]</label>
				<mixed-citation>M. P. Neto, F. V. Paulovich, &quot;Explainable matrix - Visualization for global and local interpretability of random forest classification ensembles,&quot; <italic>IEEE Transactions on Visualization and Computer Graphics</italic>, vol. 27, no. 2, pp. 1427-1437, Feb. 2021. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1109/TVCG.2020.3030354">https://doi.org/10.1109/TVCG.2020.3030354</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Neto</surname>
							<given-names>M. P.</given-names>
						</name>
						<name>
							<surname>Paulovich</surname>
							<given-names>F. V.</given-names>
						</name>
					</person-group>
					<article-title>Explainable matrix - Visualization for global and local interpretability of random forest classification ensembles</article-title>
					<source>IEEE Transactions on Visualization and Computer Graphics</source>
					<volume>27</volume>
					<issue>2</issue>
					<fpage>1427</fpage>
					<lpage>1437</lpage>
					<month>02</month>
					<year>2021</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1109/TVCG.2020.3030354">https://doi.org/10.1109/TVCG.2020.3030354</ext-link>
				</element-citation>
			</ref>
			<ref id="B25">
				<label>[25]</label>
				<mixed-citation>D. Mazumdar, M. P. Neto , F. V. Paulovich, &quot;Random Forest similarity maps: A scalable visual representation for global and local interpretation,&quot; <italic>Electronics (Switzerland)</italic>, vol. 10, no. 22, e2862, Nov. 2021. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.3390/electronics10222862">https://doi.org/10.3390/electronics10222862</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Mazumdar</surname>
							<given-names>.</given-names>
						</name>
						<name>
							<surname>Neto</surname>
							<given-names>M. P.</given-names>
						</name>
						<name>
							<surname>Paulovich</surname>
							<given-names>F. V.</given-names>
						</name>
					</person-group>
					<article-title>Random Forest similarity maps: A scalable visual representation for global and local interpretation</article-title>
					<source>Electronics (Switzerland)</source>
					<volume>10</volume>
					<issue>22</issue>
					<elocation-id>e2862</elocation-id>
					<month>11</month>
					<year>2021</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.3390/electronics10222862">https://doi.org/10.3390/electronics10222862</ext-link>
				</element-citation>
			</ref>
			<ref id="B26">
				<label>[26]</label>
				<mixed-citation>H. Löfström, T. Löfström, U. Johansson, C. Sönströd, &quot;Investigating the impact of calibration on the quality of explanations,&quot; <italic>Annals of Mathematics and Artificial Intelligence</italic>, vol. 23, e10472, Mar. 2023. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/s10472-023-09837-2">https://doi.org/10.1007/s10472-023-09837-2</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Löfström</surname>
							<given-names>H.</given-names>
						</name>
						<name>
							<surname>Löfström</surname>
							<given-names>.</given-names>
						</name>
						<name>
							<surname>Johansson</surname>
							<given-names>U.</given-names>
						</name>
						<name>
							<surname>Sönströd</surname>
							<given-names>C.</given-names>
						</name>
					</person-group>
					<article-title>Investigating the impact of calibration on the quality of explanations</article-title>
					<source>Annals of Mathematics and Artificial Intelligence</source>
					<volume>23</volume>
					<elocation-id>e10472</elocation-id>
					<month>03</month>
					<year>2023</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/s10472-023-09837-2">https://doi.org/10.1007/s10472-023-09837-2</ext-link>
				</element-citation>
			</ref>
			<ref id="B27">
				<label>[27]</label>
				<mixed-citation>A. Sudjianto, J. Qiu, M. Li, J. Chen, &quot;Linear iterative feature embedding: an ensemble framework for an interpretable model,&quot; <italic>Neural Computing and Applications</italic>, vol. 35, no. 13, pp. 9657-9685, Mar. 2023. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/s00521-023-08204-w">https://doi.org/10.1007/s00521-023-08204-w</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Sudjianto</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Qiu</surname>
							<given-names>J.</given-names>
						</name>
						<name>
							<surname>Li</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Chen</surname>
							<given-names>.</given-names>
						</name>
					</person-group>
					<article-title>Linear iterative feature embedding: an ensemble framework for an interpretable model</article-title>
					<source>Neural Computing and Applications</source>
					<volume>35</volume>
					<issue>13</issue>
					<fpage>9657</fpage>
					<lpage>9685</lpage>
					<month>03</month>
					<year>2023</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/s00521-023-08204-w">https://doi.org/10.1007/s00521-023-08204-w</ext-link>
				</element-citation>
			</ref>
			<ref id="B28">
				<label>[28]</label>
				<mixed-citation>A. Altmann, L. Tolosj, O. Sander, T. Lengauer, &quot;Permutation importance: a corrected feature importance measure,&quot; <italic>Bioinformatics</italic>, vol. 26, no. 10, pp. 1340-1347, May 2010. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1093/bioinformatics/btq134">https://doi.org/10.1093/bioinformatics/btq134</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Altmann</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Tolosj</surname>
							<given-names>L.</given-names>
						</name>
						<name>
							<surname>Sander</surname>
							<given-names>O.</given-names>
						</name>
						<name>
							<surname>Lengauer</surname>
							<given-names>T.</given-names>
						</name>
					</person-group>
					<article-title>Permutation importance: a corrected feature importance measure</article-title>
					<source>Bioinformatics</source>
					<volume>26</volume>
					<issue>10</issue>
					<fpage>1340</fpage>
					<lpage>1347</lpage>
					<month>05</month>
					<year>2010</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1093/bioinformatics/btq134">https://doi.org/10.1093/bioinformatics/btq134</ext-link>
				</element-citation>
			</ref>
			<ref id="B29">
				<label>[29]</label>
				<mixed-citation>L. Antwarg, C. Galed, N. Shimoni, L. Rokach, B. Shapira, &quot;Shapley-based feature augmentation,&quot; <italic>Information Fusion</italic>, vol. 96, pp. 92-102, Aug. 2023. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.inffus.2023.03.010">https://doi.org/10.1016/j.inffus.2023.03.010</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Antwarg</surname>
							<given-names>L.</given-names>
						</name>
						<name>
							<surname>Galed</surname>
							<given-names>C.</given-names>
						</name>
						<name>
							<surname>Shimoni</surname>
							<given-names>N.</given-names>
						</name>
						<name>
							<surname>Rokach</surname>
							<given-names>.</given-names>
						</name>
						<name>
							<surname>Shapira</surname>
							<given-names>B.</given-names>
						</name>
					</person-group>
					<article-title>Shapley-based feature augmentation</article-title>
					<source>Information Fusion</source>
					<volume>96</volume>
					<fpage>92</fpage>
					<lpage>102</lpage>
					<month>08</month>
					<year>2023</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.inffus.2023.03.010">https://doi.org/10.1016/j.inffus.2023.03.010</ext-link>
				</element-citation>
			</ref>
			<ref id="B30">
				<label>[30]</label>
				<mixed-citation>M. Louhichi, R. Nesmaoui, M. Marwan, M. Lazaar, &quot;Shapley Values for Explaining the Black Box Nature of Machine Learning Model Clustering,&quot; <italic>Procedia Computer Science</italic>, vol. 220, pp. 806-811, 2023. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.procs.2023.03.107">https://doi.org/10.1016/j.procs.2023.03.107</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Louhichi</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Nesmaoui</surname>
							<given-names>R.</given-names>
						</name>
						<name>
							<surname>Marwan</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Lazaar</surname>
							<given-names>M.</given-names>
						</name>
					</person-group>
					<article-title>Shapley Values for Explaining the Black Box Nature of Machine Learning Model Clustering</article-title>
					<source>Procedia Computer Science</source>
					<volume>220</volume>
					<fpage>806</fpage>
					<lpage>811</lpage>
					<year>2023</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.procs.2023.03.107">https://doi.org/10.1016/j.procs.2023.03.107</ext-link>
				</element-citation>
			</ref>
			<ref id="B31">
				<label>[31]</label>
				<mixed-citation>J. H. Friedman, &quot;Greedy function approximation: A gradient boosting machine,&quot; <italic>Annals of Statistics</italic>, vol. 29, no. 5, pp. 1189-1232, Oct. 2001. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1214/aos/1013203451">https://doi.org/10.1214/aos/1013203451</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Friedman</surname>
							<given-names>J. H.</given-names>
						</name>
					</person-group>
					<article-title>Greedy function approximation: A gradient boosting machine</article-title>
					<source>Annals of Statistics</source>
					<volume>29</volume>
					<issue>5</issue>
					<fpage>1189</fpage>
					<lpage>1232</lpage>
					<month>10</month>
					<year>2001</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1214/aos/1013203451">https://doi.org/10.1214/aos/1013203451</ext-link>
				</element-citation>
			</ref>
			<ref id="B32">
				<label>[32]</label>
				<mixed-citation>A. V Konstantinov, and L. V Utkin, &quot;Interpretable machine learning with an ensemble of gradient boosting machines,&quot; <italic>Knowledge-based Systems</italic>, vol. 222, e106993, Jun. 2021. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.knosys.2021.106993">https://doi.org/10.1016/j.knosys.2021.106993</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Konstantinov</surname>
							<given-names>A. V</given-names>
						</name>
						<name>
							<surname>Utkin</surname>
							<given-names>L. V</given-names>
						</name>
					</person-group>
					<article-title>Interpretable machine learning with an ensemble of gradient boosting machines</article-title>
					<source>Knowledge-based Systems</source>
					<volume>222</volume>
					<elocation-id>e106993</elocation-id>
					<month>06</month>
					<year>2021</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.knosys.2021.106993">https://doi.org/10.1016/j.knosys.2021.106993</ext-link>
				</element-citation>
			</ref>
			<ref id="B33">
				<label>[33]</label>
				<mixed-citation>M. P. Neto , F. V Paulovich, &quot;Explainable matrix-visualization for global and local interpretability of random forest classification ensembles,&quot; in <italic>IEEE Transactions on Visualization and Computer Graphics</italic>, vol. 27, no. 2, pp. 1427-1437, Feb. 2020. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1109/TVCG.2020.3030354">https://doi.org/10.1109/TVCG.2020.3030354</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Neto</surname>
							<given-names>M. P.</given-names>
						</name>
						<name>
							<surname>Paulovich</surname>
							<given-names>F. V</given-names>
						</name>
					</person-group>
					<article-title>Explainable matrix-visualization for global and local interpretability of random forest classification ensembles</article-title>
					<source>IEEE Transactions on Visualization and Computer Graphics</source>
					<volume>27</volume>
					<issue>2</issue>
					<fpage>1427</fpage>
					<lpage>1437</lpage>
					<month>02</month>
					<year>2020</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1109/TVCG.2020.3030354">https://doi.org/10.1109/TVCG.2020.3030354</ext-link>
				</element-citation>
			</ref>
			<ref id="B34">
				<label>[34]</label>
				<mixed-citation>A. Adadi, M. Berrada, &quot;Peeking Inside the Black-Box: A Survey on Explainable Artificial Intelligence (XAI),&quot; <italic>IEEE Access</italic>, vol. 6, pp. 52138-52160, 2018. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1109/ACCESS.2018.2870052">https://doi.org/10.1109/ACCESS.2018.2870052</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Adadi</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Berrada</surname>
							<given-names>M.</given-names>
						</name>
					</person-group>
					<article-title>Peeking Inside the Black-Box: A Survey on Explainable Artificial Intelligence (XAI)</article-title>
					<source>IEEE Access</source>
					<volume>6</volume>
					<fpage>52138</fpage>
					<lpage>52160</lpage>
					<year>2018</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1109/ACCESS.2018.2870052">https://doi.org/10.1109/ACCESS.2018.2870052</ext-link>
				</element-citation>
			</ref>
			<ref id="B35">
				<label>[35]</label>
				<mixed-citation>G. Yang, Q. Ye, J. Xia, &quot;Unbox the black-box for the medical explainable AI via multi-modal and multicentre data fusion: A mini-review, two showcases and beyond,&quot; <italic>Information Fusion</italic>, vol. 77, pp. 29-52, Jan. 2022. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.inffus.2021.07.016">https://doi.org/10.1016/j.inffus.2021.07.016</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Yang</surname>
							<given-names>G.</given-names>
						</name>
						<name>
							<surname>Ye</surname>
							<given-names>Q.</given-names>
						</name>
						<name>
							<surname>Xia</surname>
							<given-names>J.</given-names>
						</name>
					</person-group>
					<article-title>Unbox the black-box for the medical explainable AI via multi-modal and multicentre data fusion: A mini-review, two showcases and beyond</article-title>
					<source>Information Fusion</source>
					<volume>77</volume>
					<fpage>29</fpage>
					<lpage>52</lpage>
					<month>01</month>
					<year>2022</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.inffus.2021.07.016">https://doi.org/10.1016/j.inffus.2021.07.016</ext-link>
				</element-citation>
			</ref>
			<ref id="B36">
				<label>[36]</label>
				<mixed-citation>A. Rai, &quot;Explainable AI: from black box to glass box,&quot; <italic>Journal of the Academy of Marketing Science</italic>, vol. 48, no. 1, pp. 137-141, 2020. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/s11747-019-00710-5">https://doi.org/10.1007/s11747-019-00710-5</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Rai</surname>
							<given-names>A.</given-names>
						</name>
					</person-group>
					<article-title>Explainable AI: from black box to glass box</article-title>
					<source>Journal of the Academy of Marketing Science</source>
					<volume>48</volume>
					<issue>1</issue>
					<fpage>137</fpage>
					<lpage>141</lpage>
					<year>2020</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/s11747-019-00710-5">https://doi.org/10.1007/s11747-019-00710-5</ext-link>
				</element-citation>
			</ref>
			<ref id="B37">
				<label>[37]</label>
				<mixed-citation>O. Sagi , L. Rokach , &quot;Explainable decision forest: Transforming a decision forest into an interpretable tree,&quot; <italic>Information Fusion</italic>, vol. 61, pp. 124-138, Sep. 2020. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.inffus.2020.03.013">https://doi.org/10.1016/j.inffus.2020.03.013</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Sagi</surname>
							<given-names>O.</given-names>
						</name>
						<name>
							<surname>Rokach</surname>
							<given-names>L.</given-names>
						</name>
					</person-group>
					<article-title>Explainable decision forest: Transforming a decision forest into an interpretable tree</article-title>
					<source>Information Fusion</source>
					<volume>61</volume>
					<fpage>124</fpage>
					<lpage>138</lpage>
					<month>09</month>
					<year>2020</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.inffus.2020.03.013">https://doi.org/10.1016/j.inffus.2020.03.013</ext-link>
				</element-citation>
			</ref>
			<ref id="B38">
				<label>[38]</label>
				<mixed-citation>V. Hassija <italic>et al</italic>
 <italic>.,</italic> &quot;Interpreting black-box models: a review on explainable artificial intelligence,&quot; <italic>Cognitive Computation</italic>, vol. 16, no. 1, pp. 45-74, 2024. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/s12559-023-10179-8">https://doi.org/10.1007/s12559-023-10179-8</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Hassija</surname>
							<given-names>V.</given-names>
						</name>
						<etal/>
					</person-group>
					<article-title>Interpreting black-box models: a review on explainable artificial intelligence</article-title>
					<source>Cognitive Computation</source>
					<volume>16</volume>
					<issue>1</issue>
					<fpage>45</fpage>
					<lpage>74</lpage>
					<year>2024</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/s12559-023-10179-8">https://doi.org/10.1007/s12559-023-10179-8</ext-link>
				</element-citation>
			</ref>
			<ref id="B39">
				<label>[39]</label>
				<mixed-citation>T. Speith, &quot;A Review of Taxonomies of Explainable Artificial Intelligence (XAI) Methods,&quot; in <italic>ACM International Conference Proceeding Series</italic>, pp. 2239-2250, Nueva York, EE.UU., 2022. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1145/3531146.3534639">https://doi.org/10.1145/3531146.3534639</ext-link>
				</mixed-citation>
				<element-citation publication-type="confproc">
					<person-group person-group-type="author">
						<name>
							<surname>Speith</surname>
							<given-names>T.</given-names>
						</name>
					</person-group>
					<source>A Review of Taxonomies of Explainable Artificial Intelligence (XAI) Methods</source>
					<conf-name>ACM International Conference Proceeding Series</conf-name>
					<fpage>2239</fpage>
					<lpage>2250</lpage>
					<publisher-loc>Nueva York, EE.UU</publisher-loc>
					<year>2022</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1145/3531146.3534639">https://doi.org/10.1145/3531146.3534639</ext-link>
				</element-citation>
			</ref>
			<ref id="B40">
				<label>[40]</label>
				<mixed-citation>K. Dedja, F. K. Nakano, K. Pliakos, C. Vens, &quot;BELLATREX: Building Explanations through a LocaLly AccuraTe Rule EXtractor,&quot; <italic>IEEE Access</italic>, vol. 11, pp. 41348-41367, 2023. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1109/ACCESS.2023.3268866">https://doi.org/10.1109/ACCESS.2023.3268866</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Dedja</surname>
							<given-names>K.</given-names>
						</name>
						<name>
							<surname>Nakano</surname>
							<given-names>F. K.</given-names>
						</name>
						<name>
							<surname>Pliakos</surname>
							<given-names>K.</given-names>
						</name>
						<name>
							<surname>Vens</surname>
							<given-names>.</given-names>
						</name>
					</person-group>
					<article-title>BELLATREX: Building Explanations through a LocaLly AccuraTe Rule EXtractor</article-title>
					<source>IEEE Access</source>
					<volume>11</volume>
					<fpage>41348</fpage>
					<lpage>41367</lpage>
					<year>2023</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1109/ACCESS.2023.3268866">https://doi.org/10.1109/ACCESS.2023.3268866</ext-link>
				</element-citation>
			</ref>
			<ref id="B41">
				<label>[41]</label>
				<mixed-citation>D. Mazumdar , M. P. Neto , F. V Paulovich, &quot;Random Forest similarity maps: a scalable visual representation for global and local interpretation,&quot; <italic>Electronics (Basel)</italic>, vol. 10, no. 22, e2862, Nov. 2021. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.3390/electronics10222862">https://doi.org/10.3390/electronics10222862</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Mazumdar</surname>
							<given-names>D.</given-names>
						</name>
						<name>
							<surname>Neto</surname>
							<given-names>M. P.</given-names>
						</name>
						<name>
							<surname>Paulovich</surname>
							<given-names>F. V</given-names>
						</name>
					</person-group>
					<article-title>Random Forest similarity maps: a scalable visual representation for global and local interpretation</article-title>
					<source>Electronics (Basel)</source>
					<volume>10</volume>
					<issue>22</issue>
					<elocation-id>e2862</elocation-id>
					<month>11</month>
					<year>2021</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.3390/electronics10222862">https://doi.org/10.3390/electronics10222862</ext-link>
				</element-citation>
			</ref>
			<ref id="B42">
				<label>[42]</label>
				<mixed-citation>I. Guyon, A. Elisseeff, &quot;An introduction to variable and feature selection,&quot; <italic>Journal of Machine Learning Research</italic>, vol. 3, pp. 1157-1182, Mar. 2003.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Guyon</surname>
							<given-names>I.</given-names>
						</name>
						<name>
							<surname>Elisseeff</surname>
							<given-names>A.</given-names>
						</name>
					</person-group>
					<article-title>An introduction to variable and feature selection</article-title>
					<source>Journal of Machine Learning Research</source>
					<volume>3</volume>
					<fpage>1157</fpage>
					<lpage>1182</lpage>
					<month>03</month>
					<year>2003</year>
				</element-citation>
			</ref>
			<ref id="B43">
				<label>[43]</label>
				<mixed-citation>T. Hastie, R. Tibshirani, J. H. Friedman, J. H. Friedman , <italic>The elements of statistical learning: data mining, inference, and prediction</italic>, vol. 2. Nueva York, EE.UU.: Springer, 2009.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Hastie</surname>
							<given-names>T.</given-names>
						</name>
						<name>
							<surname>Tibshirani</surname>
							<given-names>R.</given-names>
						</name>
						<name>
							<surname>Friedman</surname>
							<given-names>J. H.</given-names>
						</name>
						<name>
							<surname>Friedman</surname>
							<given-names>J. H.</given-names>
						</name>
					</person-group>
					<source>The elements of statistical learning: data mining, inference, and prediction</source>
					<volume>2</volume>
					<publisher-loc>Nueva York, EE.UU.</publisher-loc>
					<publisher-name>Springer</publisher-name>
					<year>2009</year>
				</element-citation>
			</ref>
			<ref id="B44">
				<label>[44]</label>
				<mixed-citation>H. Nori, S. Jenkins, P. Koch, R. Caruana, &quot;Interpretml: A unified framework for machine learning interpretability,&quot; <italic>arXiv preprint</italic>, 2019.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Nori</surname>
							<given-names>H.</given-names>
						</name>
						<name>
							<surname>Jenkins</surname>
							<given-names>S.</given-names>
						</name>
						<name>
							<surname>Koch</surname>
							<given-names>P.</given-names>
						</name>
						<name>
							<surname>Caruana</surname>
							<given-names>R.</given-names>
						</name>
					</person-group>
					<article-title>&quot;Interpretml: A unified framework for machine learning interpretability</article-title>
					<source>arXiv preprint</source>
					<year>2019</year>
				</element-citation>
			</ref>
			<ref id="B45">
				<label>[45]</label>
				<mixed-citation>S. Ravichandran, D. Khurana, B. Venkatesh, N. U. Edakunni, &quot;Fairxgboost: Fairness-aware classification in xgboost,&quot; <italic>arXiv preprint</italic>, 2020.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Ravichandran</surname>
							<given-names>.</given-names>
						</name>
						<name>
							<surname>Khurana</surname>
							<given-names>D.</given-names>
						</name>
						<name>
							<surname>Venkatesh</surname>
							<given-names>.</given-names>
						</name>
						<name>
							<surname>Edakunni</surname>
							<given-names>N. U.</given-names>
						</name>
					</person-group>
					<article-title>Fairxgboost: Fairness-aware classification in xgboost</article-title>
					<source>arXiv preprint</source>
					<year>2020</year>
				</element-citation>
			</ref>
			<ref id="B46">
				<label>[46]</label>
				<mixed-citation>B. Zhang, J. Zhu, H. Su, &quot;Toward the third-generation artificial intelligence,&quot; <italic>Science China Information Sciences</italic>, vol. 66, no. 2, pp. 1-19, Jan. 2023. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/s11432-021-3449-x">https://doi.org/10.1007/s11432-021-3449-x</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Zhang</surname>
							<given-names>B.</given-names>
						</name>
						<name>
							<surname>Zhu</surname>
							<given-names>J.</given-names>
						</name>
						<name>
							<surname>Su</surname>
							<given-names>H.</given-names>
						</name>
					</person-group>
					<article-title>Toward the third-generation artificial intelligence</article-title>
					<source>Science China Information Sciences</source>
					<volume>66</volume>
					<issue>2</issue>
					<fpage>1</fpage>
					<lpage>19</lpage>
					<month>01</month>
					<year>2023</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/s11432-021-3449-x">https://doi.org/10.1007/s11432-021-3449-x</ext-link>
				</element-citation>
			</ref>
			<ref id="B47">
				<label>[47]</label>
				<mixed-citation>R. Marcinkevics, J. E. Vogt, &quot;Interpretable and explainable machine learning: A methods-centric overview with concrete examples,&quot; <italic>WIREs Data Mining and Knowledge Discovery</italic>, vol. 13, no. 3, pp. 1-32, Feb. 2023. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1002/widm.1493">https://doi.org/10.1002/widm.1493</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Marcinkevics</surname>
							<given-names>.</given-names>
						</name>
						<name>
							<surname>Vogt</surname>
							<given-names>J. E.</given-names>
						</name>
					</person-group>
					<article-title>Interpretable and explainable machine learning: A methods-centric overview with concrete examples</article-title>
					<source>WIREs Data Mining and Knowledge Discovery</source>
					<volume>13</volume>
					<issue>3</issue>
					<fpage>1</fpage>
					<lpage>32</lpage>
					<month>02</month>
					<year>2023</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1002/widm.1493">https://doi.org/10.1002/widm.1493</ext-link>
				</element-citation>
			</ref>
			<ref id="B48">
				<label>[48]</label>
				<mixed-citation>L. A. Cox, &quot;Information structures for causally explainable decisions,&quot; <italic>Entropy</italic>, vol. 23, no. 5, e601, May 2021. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.3390/e23050601">https://doi.org/10.3390/e23050601</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Cox</surname>
							<given-names>L. A.</given-names>
						</name>
					</person-group>
					<article-title>Information structures for causally explainable decisions</article-title>
					<source>Entropy</source>
					<volume>23</volume>
					<issue>5</issue>
					<elocation-id>e601</elocation-id>
					<month>05</month>
					<year>2021</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.3390/e23050601">https://doi.org/10.3390/e23050601</ext-link>
				</element-citation>
			</ref>
		</ref-list>
		<fn-group>
			<fn fn-type="other" id="fn3">
				<label>Cómo citar este artículo:</label>
				<p> F. C. Martínez-Silva, C. A. Cobos-Lozada, &quot;Revisión sistemática de las herramientas de inteligencia artificial explicable usadas en métodos de ensamble&quot;. <italic>Revista Facultad de Ingeniería,</italic> vol. 33, no. 70, e18078, 2024. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.19053/01211129.v33.n70.2024.18078">https://doi.org/10.19053/01211129.v33.n70.2024.18078</ext-link>
				</p>
			</fn>
			<fn fn-type="other" id="fn1">
				<label>Fabian-Camilo Martinez-Silva:</label>
				<p> Metodología; Investigación; Análisis formal; Redacción-borrador original; Redacción-revisión y edición</p>
			</fn>
			<fn fn-type="other" id="fn2">
				<label>Carlos-Alberto Cobos-Lozada:</label>
				<p> Conceptualización; Análisis formal; Supervisión; Obtención de financiación; Redacción-revisión y edición.</p>
			</fn>
		</fn-group>
	</back>
</article>