RESUMEN: En los últimos tiempos, los modelos de inteligencia artificial aplicados a la detección del melanoma han demostrado resultados prometedores. Sin embargo, la adopción de estas tecnologías se ha visto obstaculizada por la falta de transparencia en las decisiones automáticas. Para abordar este problema, surgió la Inteligencia Artificial Explicable (XAI), que busca reducir las brechas al proporcionar mecanismos que permiten comprender por qué un sistema toma una decisión específica. En este contexto, el presente mapeo sistemático examinó cómo se ha desarrollado la XAI en la detección del cáncer de piel tipo melanoma. Como resultado, se identifican 16 artículos científicos que aplicaron estrictamente métodos de explicabilidad a modelos de clasificación de melanoma; y se logra reconocer la incidencia del cáncer de piel tipo melanoma en Colombia.
Palabras clave: Clasificación, imágenes dermatoscópicas, Inteligencia Artificial Explicable (XAI), melanoma.
ABSTRACT: Recently, artificial intelligence models applied to the detection of melanoma have shown promising results. However, the adoption of these technologies is hampered by a lack of transparency in automatic decision-making. To address this problem, Explainable Artificial Intelligence (XAI) is emerging, which seeks to reduce gaps by providing mechanisms to understand why a system makes a specific decision. Therefore, this systematic mapping examines how XAI has evolved in the detection of melanoma skin cancer. As a result, sixteen scientific articles that strictly applied explainability methods to melanoma classification models were identified. Finally, the incidence of melanoma in Colombia was determined.
Keywords: Classification, dermatoscopic images, Explainable Artificial Intelligence (XAI), melanoma.
Artículos
CLASIFICACIÓN EXPLICABLE DE IMÁGENES DERMATOSCÓPICAS PARA LA DETECCIÓN DE CÁNCER DE PIEL TIPO MELANOMA: UN MAPEO SISTEMÁTICO
Explainable Classification of Dermoscopy Images for the Detection of Melanoma: A Systematic Mapping of the Literature
Received: 10 August 2024
Accepted: 30 September 2024
En la actualidad, el cáncer de piel es una de las patologías de mayor diagnóstico a nivel mundial, y específicamente el de tipo melanoma [1]. De hecho, esta patología se ha incrementado de manera significativa durante los últimos años, pasando de 20 casos por cada 100 000 personas en 1990 a 30 casos por cada 100 000 personas en 2017 [2]. En este contexto, países con una alta incidencia de este tipo de patología han registrado y documentado con gran rigurosidad su comportamiento epidemológico. Particularmente, el seguimiento realizado por Estados Unidos ha permitido identificar un aumento dramático de su incidencia, alcanzando proporciones epidémicas [3]. De igual forma, en Australia, India y algunos países de Europa se ha observado un crecimiento considerable de este tipo de cáncer [3-4].
Con el objetivo de identificar el comportamiento de las lesiones de piel en Colombia, el Ministerio de Salud y Protección Social en 2020 alertó a la población sobre el incremento en el número de personas que padecían cáncer de piel, el cual aumentó de 53 622 casos en 2015 a 128 542 en 2019 [5], lo que significa un 139,7 % más de casos. Esta afirmación se corrobora con los últimos anuarios publicados por el Instituto Nacional de Cancerología (INC), que enfatizaron que el cáncer de piel ha sido la segunda patología más diagnosticada por la institución [6-8].
En la Figura 1, se observa el número de casos nuevos de cáncer de piel atendidos anualmente por el INC entre 2015 y 2022. Es importante mencionar que estas cifras incluyen todas las patologías cancerígenas que pueden desarrollarse en la piel. Por tal razón, la Figura 2 muestra específicamente el número de casos nuevos de melanoma atendidos por dicha institución.


Aunque los cánceres de piel son una patología frecuentemente diagnosticada en la población colombiana, el melanoma es considerado una enfermedad poco común [2]; y, como se mencionó, se ha documentado un progreso en su incidencia, presentando seis casos nuevos por cada 100 000 personas en 2007 a 14 casos nuevos por cada 100 000 personas en el 2020 [2]. Adicionalmente, el aumento de la incidencia del melanoma a nivel nacional se encrudeció frente a la baja tasa de supervivencia de los pacientes. Particularmente, Vries et al. [9] en su estudio sobre la incidencia de melanoma en Bucaramanga (Colombia) determinaron que gran parte de los pacientes diagnosticados falleció a causa de complicaciones consecuencia de este.
Sin embargo, este no es el único problema por afrontar. En el 2012, Ramírez et al. [10] indicaron que en el país ejercía un total de 1,25 dermatólogos por cada 100 000 habitantes, lo que representaba una baja tasa de especialistas en el territorio nacional y una mínima oferta para la población rural. En años posteriores, el Ministerio de Salud y Protección de Colombia informó que, en el 2017, ejercía un total 618 dermatólogos y se estimaba que este número aumentaría a 1332 especialistas para el 2030 [11], lo que significaría 115,5 % más.
En ese sentido, la búsqueda de herramientas que permitan la atención oportuna y confiable del cáncer de piel tipo melanoma es un objetivo claro. Actualmente, los dermatólogos cuentan con la dermatoscopia para detectar, estudiar y diagnosticar lesiones de piel. Esta es una técnica auxiliar de diagnóstico no invasivo que consiste en inspeccionar la lesión de piel mediante un sistema óptico para determinar si existen patrones específicos de lesiones [12]. Paralelamente, la dermatoscopia ha permitido la incursión de dispositivos de registro fotográfico para la detección de lesiones de piel, las cuales juegan un papel importante en la identificación de los cánceres de este tipo, y en especial del melanoma [12-13].
The International Skin Imaging Collaboration (ISIC) ha impulsado la recopilación de un registro fotográfico de lesiones cutáneas malignas. Esta colaboración, que une a la industria y la academia, tiene como objetivo reducir la mortalidad por melanoma, el cual puede ser tratado eficazmente si se diagnostica en una etapa temprana [14]. Para ello, es necesario contar con herramientas tecnológicas avanzadas, específicamente basadas en Inteligencia Artificial (AI), que faciliten la toma de decisiones.
Tradicionalmente, los métodos de AI como el aprendizaje automático (ML) y el aprendizaje profundo (DP) han sido fundamentales para el desarrollo de sistemas que clasifican imágenes diagnósticas y ayudan a la detección de melanoma [15]. Los sistemas basados en ML generalmente se implementan a través de la extracción de características y el análisis de patrones utilizando clasificadores matemáticos; y suelen alcanzar un rendimiento de clasificación en términos de exactitud, sensibilidad y especificidad considerablemente bueno [15]. Sin embargo, aquellos basados en DL han demostrado ser más prometedores, mostrando una mayor precisión en la detección de melanoma que los modelos tradicionales de aprendizaje automático [15-16]. De hecho, han alcanzado rendimientos de detección al nivel de los dermatólogos [17-19].
No obstante, la adopción por parte de la comunidad médica aun es cuestionable y sigue siendo objeto de estudio. En parte, se debe a que estos sistemas presentan limitaciones en relación con la complejidad de su estructura interna, es decir, son computacionalmente complejos y difíciles de implementar en situaciones prácticas [16]. Por tal razón, son considerados modelos de caja negra [20-23] debido que los usuarios no logran interpretar y validar los resultados obtenidos por dichos sistemas de detección de melanoma [21].
En ese sentido, la inteligencia artificial explicable (XAI) consiste en desarrollar mecanismos que permitan la interacción entre los sistemas de decisión y los humanos, haciendo comprensibles las decisiones que estos toman [22,24]. Además, es importante que las explicaciones de los modelos de detección se adapten al problema para que sean útiles en un caso particular, específicamente para la detección del cáncer de piel tipo melanoma.
Dado que la XAI es una línea de investigación en desarrollo, el presente mapeo sistemático se enfocó en identificar las tendencias y vacíos en los trabajos relacionados con la clasificación de imágenes diagnósticas de melanoma. Para esto, se organizó y analizó la literatura existente en esta temática, identificando el volumen de publicaciones a lo largo del tiempo, así como las técnicas y metodologías empleadas en la explicabilidad de los sistemas de inteligencia artificial para la detección de melanoma, mediante una revisión de documentos científicos en diversas bases de datos, incluyendo ScienceDirect, Scopus, IEEE y SpringerLink.
Finalmente, el presente trabajo se estructuró en tres secciones. La primera presenta la metodología enfocada en la planificación del mapeo sistemático y los protocolos de búsqueda considerados para la revisión; en la segunda se muestran los resultados obtenidos del proceso sistemático; y, por último, se sintetizan los hallazgos más importantes.
En esta sección se detalla el proceso desarrollado para la elaboración del mapeo sistemático. Para ello, se consideró la herramienta Parsifal, la cual permitió realizar una revisión detallada de la literatura. Además, se integró con la metodología planteada por Petersen et al. [25] con el fin de establecer una planificación y un protocolo de búsqueda. Estos incluyeron preguntas de investigación, cadena de búsqueda, fuentes de datos y criterios de inclusión.
En la Figura 3 se representa gráficamente el proceso llevado a cabo para el desarrollo del mapeo sistemático. Inicialmente, se establecieron los objetivos de investigación para determinar el estado del arte actual de los métodos de XAI para la detección de melanoma. Además, mediante el marco Population, Interventation, Comparison, Outcomes, Context (PICOC), se formularon las preguntas de investigación necesarias para alcanzar los objetivos propuestos.

Posteriormente, se construyó la cadena de búsqueda y se aplicó en las bases de datos de ScienceDirect, Scopus, IEEE y SpringerLink. A continuación, se realizó la lectura de los estudios encontrados mediante el esquema de clasificación, seleccionando los más representativos del área de interés; y, en última instancia, se extrajeron las características más relevantes, que se consolidaron en el presente mapeo sistemático.
Teniendo en cuenta que la XAI es un campo de investigación en desarrollo, resulta necesario identificar, organizar y analizar la literatura existente para consolidar el estado del arte de la clasificación de imágenes diagnósticas para la detección de melanoma. Por lo tanto, los objetivos de esta investigación se centraron en identificar el progreso de la XAI en la detección de melanoma, evaluar su desempeño y determinar los conjuntos de imágenes utilizados para validar los sistemas XAI. En ese sentido, los objetivos fueron:
Identificar las principales técnicas y algoritmos utilizados en el desarrollo de modelos de clasificación explicables del cáncer de piel tipo melanoma.
Registrar el desempeño obtenido por los modelos de clasificación explicables de melanoma, destacando métricas como exactitud, sensibilidad, especificidad e interpretabilidad de los resultados.
Reconocer los conjuntos de imágenes dermatoscópicas disponibles para entrenar y testear los modelos de clasificación de melanoma.
Teniendo en cuenta dichos objetivos, se estableció un marco PICOC, el cual se presenta en la Tabla 1. Es importante resaltar que, mediante este marco, el mapeo sistemático centró su interés en los modelos XAI en el contexto de la detección de melanoma como herramienta de apoyo; y se estableció una pregunta general de investigación y tres preguntas específicas para el mapeo sistemático que se presentan en la Tabla 2.


Teniendo en cuenta las preguntas de investigación para el mapeo sistemático y el marco PICOC de la Tabla 1, se identificó una serie de palabras clave que permitió el diseño de una cadena de búsqueda, la cual se presenta en la Tabla 3, y se formateó según las especificaciones de las fuentes de datos bibliográficos ScienceDirect, Scopus, IEEE y SpringerLink.

Con el objetivo de seleccionar los artículos científicos relacionados con la XAI para la detección de melanoma se estableció una serie de criterios de inclusión y exclusión que facilitó la realización de una selección específica de la temática de interés (Tabla 4).

Adicionalmente, dado que la XAI es una disciplina en desarrollo, este mapeo sistemático estableció una ventana de búsqueda entre 2019 y 2024 con el propósito de identificar la dinámica de esta área en la clasificación transparente del cáncer de piel tipo melanoma. A su vez, esta temporalidad buscó dar continuidad a la revisión presentada por Hauser K. et al. en el 2022 [26], que destacó la necesidad de más estudios para obtener información sólida sobre la influencia de la XAI en la detección del cáncer de piel.
Por último, en la Figura 4 se observa el esquema de clasificación empleado para la selección de los artículos de mayor impacto. Este considera estratégicamente la lectura del resumen, palabras clave y conclusiones de cada artículo científico. Teniendo en cuenta las secciones establecidas y los criterios de inclusión, se decidía si su inclusión o no en el mapeo sistemático.

Esta sección presenta los resultados de la revisión realizada, incluyendo el número de estudios de XAI en la detección de melanoma, la frecuencia de uso de los conjuntos de imágenes de acceso libre y la síntesis de los aspectos más importantes de las investigaciones analizadas. Adicionalmente, se registran las respuestas a las preguntas de investigación establecidas en la segunda sección de este artículo.
Inicialmente, la cadena de búsqueda proporcionó un total de 692 artículos científicos. Sin embargo, aplicando los criterios de inclusión y exclusión propuestos, se seleccionó un total de 114 publicados entre 2019 y 2024. En la Figura 5, se muestra su distribución anual:

Aunque se obtuvo un gran número de artículos científicos para estudiar mediante los criterios de inclusión y exclusión, se estableció que solo 16 de estos abordaban la detección de melanoma mediante modelos XAI (una revisión sistemática y 15 estudios científicos). En contraste, los 98 artículos restantes solo proponían la clasificación de melanoma basada en modelos de AI. En la Figura 6, se muestra la distribución de los artículos que utilizaron modelos de XAI y AI por año.

Para mayor claridad del proceso de selección de los artículos revisados, la Figura 6 lo resume mediante un esquema que muestra el número de artículos incluidos en el mapeo sistemático. Dado que nuestro interés principal se concentró en los modelos XAI, se consideraron los modelos AI del 2024 para realizar una comparación entre ambos enfoques (en línea con la pregunta de investigación E3).
De acuerdo con la Figura 6, se identificó una cantidad reducida de artículos relacionados con modelos de XAI para la detección de melanoma. Por esto, no se evaluó su calidad para evitar reducir aún más la muestra. Además, la etapa de la lectura a partir del esquema de clasificación permitió establecer la pertinencia de aquellos seleccionados hasta la fase del mapeo sistemático.

En la Tabla 5 se recopilaron los resultados de la búsqueda de los modelos de AI para la detección de melanoma identificados en las bases de datos bibliográficos.

Se resalta que los modelos basados en ML y DL siguen siendo de interés por los investigadores y, dentro de estos, el principal reto radica en identificar la pertinencia de distintos enfoques para la tarea de detección de melanoma. Sin embargo, dichos enfoques se concentran en mejorar el rendimiento de las predicciones y no en la toma de decisiones responsables.
En efecto, la mayoría de los estudios ha obtenido desempeños superiores al 90 % en exactitud, sensibilidad y especificidad. A su vez, se identificó que los modelos de redes neuronales convolucionales (CNN) son los más utilizados por los investigadores y los que presentan mejor desempeño. Adicionalmente, los investigadores optaron por utilizar como datos de entrada los conjuntos de imágenes dermatoscópicas proporcionados por ISIC (2017, 2018, 2019, 2020), el conjunto PH2 y HAM10000.
A pesar del éxito de los métodos de AI para la detección de melanoma, estos fueron considerados computacionalmente complejos y difíciles de implementar en situaciones prácticas [16]. En consecuencia, su aceptación por parte de la comunidad médica es cuestionable debido a la falta de transparencia, considerándolos como modelos de caja negra [20-21]. De hecho, el escepticismo de los profesionales de la salud radica en que son incapaces de interpretar y validar los resultados de este tipo de tecnologías [18]. Por tal razón, existe la necesidad urgente de avanzar rápidamente en el campo de la XAI, lo cual permitiría a los especialistas comprender y validar estas herramientas en los procesos de toma de decisiones [39].
Respecto a los estudios que abordaron la XAI para la detección de melanoma, se identificaron varios conjuntos de imágenes de lesiones de piel (ver Figura 8). Los conjuntos de imágenes de la ISIC 2016 y Derm7pt fueron los menos utilizados por los sistemas de XAI; el conjunto de datos PH2 fue empleado por dos autores; los conjuntos de imágenes ISIC 2017 y 2018 fueron utilizados por tres autores distintos; y los conjuntos de imágenes ISIC 2019 y HAM10000 fueron las fuentes de datos más empleadas, siendo retomadas por al menos cuatro autores para el desarrollo de su XAI para la detección de cáncer de piel. Es importante mencionar que ninguno consideró el uso del conjunto de imágenes dermatoscópicas ISIC 2020.

De acuerdo con lo anterior, la revisión permitió reconocer que existe una baja afinidad entre los modelos basados en aprendizaje automático y los métodos de explicabilidad. Esto se debe a que los modelos que son diseñados mediante extracción de características tienden a ser más entendibles y repetibles [26], pero su rendimiento es inferior en comparación con los modelos de aprendizaje profundo [21]. Sin embargo, dos casos del total de artículos seleccionados no dejaron de lado la explicabilidad.
Por el contrario, los sistemas de inteligencia artificial basados en aprendizaje profundo mostraron una gran afinidad con la explicabilidad. De hecho, gran parte de los estudios seleccionados se basaron en este tipo de técnicas de clasificación, lo que se debe, en gran medida, a que se consideran modelos de caja negra y es necesario que coexista un alto rendimiento con la interpretabilidad de los resultados [17, 22]. Entre los modelos más usados encontramos las CNN con arquitecturas como ResNet50, ResNet101 y VGG16 [40-42].
Sumado a lo anterior, la explicabilidad de los sistemas de inteligencia artificial para la detección de melanoma es un campo que apenas comienza a explorarse, y el presente mapeo sistemático permitió identificar una serie de enfoques interesantes. En primer lugar, tenemos los métodos globales que proporcionan una explicación de la caja negra en su totalidad; y, en segundo lugar, los métodos locales que ofrecen una explicación específica para una instancia particular [22].
Adicionalmente, los métodos de XAI pueden clasificarse en modelos de interpretabilidad post-hoc o de interpretabilidad de caja negra. Estos se encargan de explicar la salida de los modelos ya entrenados a partir de la información que proporcionan los pesos asignados a cada variable de entrada y los resultados de los modelos. Generalmente, en la detección de melanoma, los de este tipo son de carácter cualitativo, presentando sus resultados en representaciones gráficas como mapas de calor. Por su parte, los modelos inherentemente interpretables están pensados desde su diseño para ser explicables mediante condiciones dependientes del tipo de modelo, como las redes neuronales y los árboles de decisión.
En la Tabla 6 se resumen la información recopilada en los estudios seleccionados en el desarrollo del mapeo sistemático, especificando autor principal, año de publicación, datos de entrada considerados, método de clasificación y explicabilidad de la inteligencia artificial para la detección de melanoma.

Ahora bien, se resaltan varias implementaciones de la explicabilidad de los modelos de clasificación de melanoma. Una de ellas, se basó en el marco del aprendizaje multitarea (MTL), que tiene como fin encontrar asociaciones entre las tareas relacionadas con el análisis de una lesión cutánea para que ayuden a comprender el comportamiento del modelo [43].
En la misma línea, se realizaron descripciones de sistemas de IA mediante el marco de explicaciones locales interpretables y agnósticas del modelo (LIME), donde estas se ajustaron con base en la regla del ABCD, utilizada por los dermatólogos, con el fin de brindar justificaciones adaptadas al problema que se enfrentaba [17].
Metta et al. [22] abordaron la explicabilidad del modelo de clasificación mediante el marco del explicador de caja negra adversarial que genera ejemplares latentes (ABELE). Este método busca explicar una instancia a través del despliegue de imágenes de lesiones adicionales, las cuales son catalogadas como ejemplos y contraejemplos de la clase objetivo.
Por su parte, Nunnari et al. [41] propusieron la explicabilidad mediante el método Gradient-weighted Class Activation Mapping (Grad-CAM), el cual es un enfoque gráfico que permite identificar áreas de píxeles que contribuyen con la red profunda a la toma de una determinada decisión de clasificación. Aunque este método es bastante intuitivo, las imágenes que favorecen explicar la toma de decisiones son de baja resolución. Sin embargo, métodos como RISE mejoran la calidad de las imágenes explicativas por un mayor costo computacional.
Así mismo, Kather et al. [24] emplearon tres métodos distintos para proporcionar explicaciones en la toma de decisiones de su clasificador. En primer lugar, consideraron un método basado en la importancia de las perturbaciones que consiste en agregar o retirar características del modelo para evaluar si el error de predicción disminuye o aumenta. De hecho, mediante este método identificaron características esenciales o poco importantes. El segundo se basó en gráficos de dependencia parcial (PDP), que se utilizan para detectar interacciones entre las variables predictoras, como correlaciones entre las variables predictoras y la variable objetivo. El tercero utilizó Explicaciones Aditivas de Shapley (SHAPE), y se centró en producir explicaciones locales mediante un modelo más pequeño, construido a partir de perturbaciones generadas por los datos de entrada del modelo que se deseaba explicar.
No obstante, los modelos de XAI presentan una limitación considerable, en especial los interpretables post-hoc. De hecho, Rudin C. [48] y Chanda T. et al. [46] denominaron a esto como la brecha de interpretabilidad del XAI, la cual disminuye la confianza de los usuarios en dicho sistema. Esta brecha se debe a que las explicaciones proporcionadas por la XAI pueden llevar a una falsa correlación entre las características del modelo y el diagnóstico final. Por ejemplo, si la XAI establece que en una determinada región se encuentran las características más representativas, pero en realidad no lo son, el especialista pierde fiabilidad en la herramienta de apoyo dado que se genera un pronóstico falso y sin un sustento válido por parte de esta.
Tras analizar los artículos seleccionados, se presentan las respuestas a las preguntas de investigación, establecidas en la segunda sección de este artículo.
El mapeo sistemático permitió identificar distintas técnicas de explicabilidad que son aplicadas a modelos AI para la detección de melanoma. Entre ellas, encontramos específicamente métodos basados en MTL, LIME [18, 43], ABELE [22, 45], CAM [21], Grad CAM [41], CBIR [42], EGAE [44], SHAPE [24, 47] y SpRAy [19]. Es importante mencionar que algunos de estos métodos fueron usados para explicar modelos de ML y DL; y otros únicamente para explicar aquellos de redes neuronales profundas.
A su vez, los métodos de explicabilidad suelen presentar sus explicaciones de manera gráfica, apoyándose en imágenes de referencia que localizan la región de interés para identificar los píxeles que brindan más información a los modelos [17, 41, 46], lo que implica que gran parte de las explicaciones suministradas sea de carácter cualitativo. Además, los autores mencionaron que el rendimiento de dichas explicaciones podría cuantificarse a medida que se puedan llevar a un entorno práctico, logrando identificar su usabilidad por parte de los médicos especialistas [46].
Paralelamente, es necesario tener en cuenta la brecha de interpretabilidad de los modelos de XAI, dado que esto permitirá construir modelos explicables más fiables para los usuarios en los que la interpretación gráfica suministrada esté acompañada una justificación sobre por qué estas regiones están asociadas con la toma de decisiones del modelo [46].
Los algoritmos de clasificación de imágenes diagnósticas para la detección de melanoma se han concentrado en un conjunto restringido de técnicas. De hecho, los modelos que se enfocaron en técnicas de ML regularmente utilizaron Decision Tree [28], Random Forest [21], Support Vector Machine [21, 32], XGBoost [24] y Deep Forest [4]. En el caso de los modelos basados en técnicas de DL emplearon redes convolucionales con distintas arquitecturas entre las que resaltan ResNet-18, -50, -101, Baseline, VGG-16, MobileNet, DenseNet-121 y DenseNet-161.
En los estudios seleccionados sobre modelos de XAI para la detección de melanoma no se presentaron métricas de desempeño de las explicaciones realizadas a sus predicciones. Esto se debe a que los métodos de explicabilidad se visualizan de manera cualitativa y se basan en imágenes diagnósticas segmentadas previamente [17, 22, 24, 41, 45, 46]. Por lo tanto, no se ha establecido una cuantificación concreta de los resultados de los modelos de XAI. Sin embargo, Chanda T. et al. [46] buscaron determinar el desempeño de la XAI mediante una prueba de campo controlada logrando identificar la brecha de interpretabilidad de la XAI.
Con el fin de enunciar las cualidades que poseen los modelos XAI sobre los modelos AI en la detección del melanoma, en la Tabla 7 se registran las ventajas y desventajas identificadas.

Lo anterior permite afirmar que, en la detección de melanoma, la XAI es un campo de investigación relativamente nuevo, lo que implica una baja producción de estudios científicos y, por tanto, falta de documentación clara para la reproducibilidad de sus modelos. Sin embargo, esto motiva a abordar sus limitaciones. En contraste, los modelos de IA han sido ampliamente estudiados, lo que hace que el campo de investigación sea más limitado, pero es posible encontrar mayor documentación para replicar los estudios científicos.
Adicionalmente, tanto los modelos de XAI y AI para la detección de melanoma han considerado los mismos conjuntos de datos. Esto implica que la XAI ha permitido explotar conjuntos de imágenes dermatoscópicas tales como Archive ISIC, PH2 y HAM10000.
La XAI destaca sobre los modelos de IA para la detección del melanoma porque los métodos explicables brindan información cualitativa sobre por qué una instancia fue clasificada en esta patología, generando un grado de confianza en la toma de decisiones transparentes. Sin embargo, la interpretabilidad de los resultados de XAI puede crear sesgos en la interpretación de los resultados por parte de los usuarios [46, 48], lo cual ha puesto en discusión la pertinencia de estos modelos para la detección de melanoma.
En suma, ni los métodos de XAI ni los de IA han sido plenamente acogidos por la comunidad médica debido a sus limitaciones. Pese a esto, los primeros representan una alternativa para fomentar la toma de decisiones transparentes [39], buscando desarrollar una herramienta de apoyo para los médicos en el diagnóstico oportuno del cáncer de piel tipo melanoma, haciendo que la interacción entre estos sistemas y los humanos sea más comprensible [43].
Los estudios seleccionados muestran el desarrollo de la XAI en el campo de la detección de melanoma, sin embargo, se identificó que esta es un área científica que se encuentra en desarrollo. Esto se evidencia en el limitado número de estudios relacionados con la XAI para la detección de melanoma entre 2019 y 2024. En ese sentido, es un campo de investigación que, por no estar consolidado y debido sus limitaciones, admite nuevas contribuciones, en especial, aportes relacionados con la brecha de interpretabilidad de la XAI en la detección de melanoma.
Sumado a lo anterior, en la temática de interés el número de publicaciones sobre modelos de AI supera considerablemente aquellos relacionados con la XAI. Por esta razón, los modelos de AI para la detección de melanoma ya han sido extensamente explorados y poseen rendimientos muy buenos, lo cual dificulta una contribución considerable por parte de la comunidad científica.
Adicionalmente, los modelos de AI fueron concebidos como una herramienta de apoyo para la detección de melanoma, pero al intentar mejorar el rendimiento en dicha tarea se crearon herramientas tan complejas que no son prácticas en un entorno real. Por esto, los modelos XAI se consideran una vía para fomentar la adopción de estas herramientas en el área de la salud, debido que contribuyen a la toma de decisiones de manera transparente. No obstante, como se mencionó anteriormente, estos aún no son completamente interpretables por los usuarios, lo que abre una ventana para contribuir en esta área de investigación.
A su vez, aunque el mapeo sistemático abarca una ventana temporal significativa para los estudios de modelos de XAI para la detección de melanoma, se limitó a comparar los modelos XAI con los estudios de AI del 2024. Esta restricción podría reducir el número de ventajas y desventajas identificado entre ambas metodologías para la clasificación de lesiones de piel tipo melanoma, dado que los modelos AI superan en número a los XAI. En ese sentido, en un futuro se sugiere ampliar el número de los estudios de AI para seguir evaluando el impacto de la XAI en la detección transparente del cáncer de piel tipo melanoma.
Adicionalmente, en los modelos de XAI para la detección de melanoma no se identificó una estrategia clara para evaluar los distintos métodos de explicabilidad. En este contexto, es fundamental ajustar el protocolo de búsqueda para incluir exclusivamente modelos de XAI relacionados con el área de la salud, con el fin de obtener una comprensión más precisa sobre su validación práctica.
Finalmente, debido a las limitaciones encontradas en los modelos de XAI para la detección de melanoma mediante imágenes diagnósticas, se espera abordar estas desventajas en el futuro para mejorar la toma de decisiones transparentes. Esto se logrará mediante la integración de métodos cualitativos de explicabilidad con descripciones que brinden mayor solidez a los resultados de dichos modelos.
Los autores expresan su agradecimiento a la Universidad del Cauca por su colaboración y asistencia durante la creación del artículo "Clasificación explicable para la detección de melanoma mediante imágenes dermatoscópicas: un mapeo sistemático".














