<?xml version="1.0" encoding="UTF-8"?><?xml-model type="application/xml-dtd" href="https://jats.nlm.nih.gov/publishing/1.3/JATS-journalpublishing1-3.dtd"?>
<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.3 20210610//EN" "https://jats.nlm.nih.gov/publishing/1.3/JATS-journalpublishing1-3.dtd">
<article xmlns:ali="http://www.niso.org/schemas/ali/1.0/" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" specific-use="Marcalyc 1.3" dtd-version="1.3" article-type="research-article" xml:lang="es">
<front>
<journal-meta>
<journal-id journal-id-type="index">5055</journal-id>
<journal-title-group>
<journal-title specific-use="original" xml:lang="en">Ingenius. Revista de Ciencia y Tecnología</journal-title>
<abbrev-journal-title abbrev-type="publisher" xml:lang="en">Ingenius</abbrev-journal-title>
</journal-title-group>
<issn pub-type="ppub">1390-650X</issn>
<issn pub-type="epub">1390-860X</issn>
<publisher>
<publisher-name>Universidad Politécnica Salesiana</publisher-name>
<publisher-loc>
<country>Ecuador</country>
<email>revistaingenius@ups.edu.ec</email>
</publisher-loc>
</publisher>
</journal-meta>
<article-meta>
<article-id pub-id-type="art-access-id" specific-use="redalyc">505583422012</article-id>
<article-id pub-id-type="doi">10.17163/ings.n35.2026.02</article-id>
<article-categories>
<subj-group subj-group-type="heading">
<subject>Artículo Científico</subject>
</subj-group>
</article-categories>
<title-group>
<article-title xml:lang="es">
<bold>CLASIFICACIÓN DE FRACTURAS EN EXTREMIDADES SUPERIORES CON APRENDIZAJE PROFUNDO</bold>
</article-title>
<trans-title-group>
<trans-title xml:lang="en">
<italic>CLASSIFICATION OF UPPER LIMB FRACTURES USING DEEP LEARNING</italic>
</trans-title>
</trans-title-group>
</title-group>
<contrib-group>
<contrib contrib-type="author" corresp="no">
<name name-style="western">
<surname>Jaén-Armijos</surname>
<given-names>Gabriela</given-names>
</name>
<email>gjaen1@utmachala.edu.ec</email>
</contrib>
<contrib contrib-type="author" corresp="no">
<name name-style="western">
<surname>Morán-Castillo</surname>
<given-names>Evelyn</given-names>
</name>
<email>emoran4@utmachala.edu.ec</email>
</contrib>
<contrib contrib-type="author" corresp="no">
<name name-style="western">
<surname>Rivas-Asanza</surname>
<given-names>Wilmer</given-names>
</name>
<email>wrivas@utmachala.edu.ec</email>
</contrib>
<contrib contrib-type="author" corresp="no">
<name name-style="western">
<surname>Tusa</surname>
<given-names>Eduardo</given-names>
</name>
<email>etusa@utmachala.edu.ec</email>
</contrib>
</contrib-group>
<pub-date pub-type="epub-ppub">
<season>January-June 2027</season>
<year>2026</year>
</pub-date>
<issue>35</issue>
<fpage>21</fpage>
<lpage>35</lpage>
<history>
<date date-type="received" publication-format="dd mes yyyy">
<day>30</day>
<month>04</month>
<year>2025</year>
</date>
<date date-type="rev-request" publication-format="dd mes yyyy">
<day>19</day>
<month>06</month>
<year>2025</year>
</date>
<date date-type="accepted" publication-format="dd mes yyyy">
<day>09</day>
<month>09</month>
<year>2025</year>
</date>
<date date-type="pub" publication-format="dd mes yyyy">
<day>01</day>
<month>01</month>
<year>2026</year>
</date>
</history>
<permissions>
<copyright-statement>2026. Universidad Politécnica Salesiana</copyright-statement>
<copyright-year>2026</copyright-year>
<copyright-holder>Universidad Politécnica Salesiana</copyright-holder>
<ali:free_to_read/>
<license xlink:href="https://creativecommons.org/licenses/by-nc-sa/4.0/">
<ali:license_ref>https://creativecommons.org/licenses/by-nc-sa/4.0/</ali:license_ref>
<license-p>Esta obra está bajo una Licencia Creative Commons Atribución-NoComercial-CompartirIgual 4.0 Internacional.</license-p>
</license>
</permissions>
<self-uri content-type="html" xlink:href="https://ingenius.ups.edu.ec/ingenius/article/view/10552">https://ingenius.ups.edu.ec/ingenius/article/view/10552</self-uri>
<abstract xml:lang="es">
<title>Resumen</title>
<p>La identificación precisa de fracturas en las extremidades superiores es fundamental para un diagnóstico oportuno en los entornos de urgencias médicas. Este estudio analiza y compara el desempeño de tres modelos de aprendizaje profundo preentrenados: EfficientNet-B4, ResNet-50 y ConvNeXt-Large, aplicados a la clasificación automática de fracturas óseas en radiografías del repositorio MURA, distribuidas en siete regiones anatómicas. Se aplicaron técnicas avanzadas de preprocesamiento digital, como Unsharp Masking y CLAHE, junto con estrategias de normalización y balanceo de datos. El entrenamiento se llevó a cabo en dos experimentos: uno binario, que clasifica entre “fractura” y “no fractura”, y otro multiclase, con catorce tipos de fracturas identificadas. La evaluación, mediante métricas como F1-Score, sensibilidad, exactitud y curvas ROC-AUC, reveló que ConvNeXt-Large alcanzó el mejor rendimiento, logrando una precisión del 99,0% en clasificación binaria y del 99,4% en la clasificación multiclase. Estos resultados posicionan a ConvNeXt-Large como una herramienta altamente prometedora para apoyar el diagnóstico temprano de fracturas óseas.</p>
</abstract>
<trans-abstract xml:lang="en">
<title>Abstract</title>
<p>Accurate identification of upper extremity fractures is essential for timely and reliable diagnosis in emergency medical settings. This study evaluates and compares the performance of three pre-trained deep learning architectures: EfficientNet- B4, ResNet-50, and ConvNeXt-Large, applied to the automatic classification of bone fractures in radiographic images from the MURA repository, encompassing seven anatomical regions. Advanced image preprocessing techniques, including Unsharp Masking and Contrast-Limited Adaptive Histogram Equalization (CLAHE), were employed in conjunction with data normalization and balancing strategies. The models were trained in two experimental setups: a binary classification distinguishing between “fracture” and “non-fracture” images, and a multiclass configuration identifying 14 distinct fracture types. Performance evaluation using F1-Score, sensitivity, accuracy, and ROC–AUC metrics demonstrated that ConvNeXt-Large achieved the highest overall results, reaching accuracies of 99.0% in binary classification and 99.4% in multiclass classification. These findings position ConvNeXt-Large as a highly promising tool for supporting early and precise fracture diagnosis.</p>
</trans-abstract>
<kwd-group xml:lang="es">
<title>Palabras clave</title>
<kwd>extremidades humanas</kwd>
<kwd>fracturas óseas</kwd>
<kwd>inteligencia artificial</kwd>
<kwd>radiografía</kwd>
<kwd>redes neuronales artificiales</kwd>
</kwd-group>
<kwd-group xml:lang="en">
<title>Keywords</title>
<kwd>Human extremities</kwd>
<kwd>Bone Fractures</kwd>
<kwd>Artificial Intelligence</kwd>
<kwd>X-ray</kwd>
<kwd>Artificial neural networks</kwd>
</kwd-group>
<counts>
<fig-count count="35"/>
<table-count count="0"/>
<equation-count count="0"/>
<ref-count count="44"/>
</counts>
<custom-meta-group>
<custom-meta>
<meta-name>redalyc-journal-id</meta-name>
<meta-value>5055</meta-value>
</custom-meta>
</custom-meta-group>
</article-meta>
</front>
<body>
<sec>
<title>
<bold>Forma sugerida de citar: APA</bold>
</title>
<p>G. Jaén-Armijos, E. Morán-Castillo, W. Rivas-Asanza y E. Tusa. “Clasificación de fracturas en extremidades superiores con aprendizaje profundo,” Ingenius, Revista de Ciencia y Tecnología, N.◦ 35, pp. 21-35, 2026. doi: <underline>https://doi.org/10.17163/ings.n35.2026.02</underline>
</p>
</sec>
<sec sec-type="materials">
<title>
<bold>1.     </bold>
<bold>Introducción</bold>
</title>
<p>Las fracturas óseas representan una de las lesiones más frecuentes en las salas de urgencias de los centros de salud [1]. Las extremidades superiores desempeñan funciones fundamentales en el cuerpo humano, por lo que una fractura en áreas como el codo, los dedos, el antebrazo, la mano, el húmero, el hombro o la muñeca puede afectar gravemente las habilidades motoras básicas y limitar la capacidad para llevar a cabo actividades diarias, reduciendo así la calidad de vida de los pacientes.</p>
<p>A nivel global, se estima que entre el 10.0% y el 40.0% de las emergencias médicas se originan por lesiones en los miembros superiores, lo que representa aproximadamente seis millones de pacientes anuales en Estados Unidos y 700 000 en Francia [<xref ref-type="bibr" rid="redalyc_505583422012_ref2">2</xref>].</p>
<p>En Medellín (Colombia) se reportaron 25 646 casos de traumas en miembros superiores, de los cuales el 17.0% correspondió a fracturas [2]. Esto evidencia la necesidad de contar con diagnósticos más rápidos y precisos. Sin embargo, la tasa de error en su identificación alcanza el 17.9% [3].</p>
<p>Aunque las radiografías son ampliamente utilizadas, su precisión es limitada, especialmente en regiones anatómicamente complejas, como las extremidades superiores. Factores como el ajuste inadecuado de parámetros de voltaje y corriente del tubo de rayos X, el análisis manual de las imágenes radiográficas y la sobrecarga laboral del personal médico pueden contribuir significativamente a estos errores [4].</p>
<p>Frente a estos desafíos, la implementación de técnicas avanzadas de inteligencia artificial (IA), como el aprendizaje profundo, surge como una solución innovadora capaz de incrementar la precisión diagnóstica. Estas técnicas han demostrado resultados prometedores, mejorando notablemente la precisión y la eficiencia en los diagnósticos [<xref ref-type="bibr" rid="redalyc_505583422012_ref5">5</xref>].</p>
<p>La inteligencia artificial, en términos generales, se refiere a la capacidad de los sistemas informáticos para realizar tareas que normalmente requieren intervención humana [6]. Por su parte, el aprendizaje profundo utiliza redes neuronales artificiales complejas para modelar y resolver problemas con una alta capacidad de generalización [7].</p>
<p>Un ejemplo de cómo estas tecnologías están transformando la práctica médica es el estudio de Medaramatla et al. [8] sobre la detección de fracturas en huesos de la mano mediante un sistema híbrido YOLO-NAS aplicado a imágenes de rayos X. En este estudio, se diseñó una base de datos con 4736 imágenes de rayos X de huesos de la mano, clasificadas en seis categorías, recopiladas de fuentes como Kaggle y Mendeley. Para evaluar el rendimiento del modelo propuesto, se compararon diversos algoritmos, entre ellos YOLO-NAS, EfficientDet, ResNet-50, InceptionV3, Vision Transformer, VGG19 y YOLOv8. Los resultados mostraron que el modelo híbrido diseñado alcanzó una precisión del 97.9%, superando a los demás algoritmos evaluados.</p>
<p>En esa misma línea, Wang [9] desarrolló una solución basada en aprendizaje profundo, utilizando la biblioteca Keras y el modelo NASNetMobile para la detección de fracturas óseas en las extremidades superiores. Para entrenar el modelo, se utilizó el conjunto de datos MURA, obteniendo una precisión cercana al 70.0%, lo que evidencia el potencial del aprendizaje profundo para aplicaciones médicas.</p>
<p>En otro estudio, Guan et al. [10] utilizaron cerca de 4000 imágenes del conjunto MURA y propusieron dos etapas basadas en R-CNN para detectar fracturas en radiografías de brazos. Como resultado, el modelo alcanzó una precisión del 62.0%, lo que demuestra el potencial de las técnicas de R-CNN para asistir en el diagnóstico de estas lesiones.</p>
<p>Aunque los estudios analizados presentan resultados prometedores en la detección automática de fracturas óseas, sus hallazgos evidencian limitaciones significativas que dificultan su aplicación en entornos clínicos reales. Esto plantea la necesidad de explorar nuevas estrategias que permitan superar dichas barreras.</p>
<p>Por ejemplo, el modelo propuesto por [<xref ref-type="bibr" rid="redalyc_505583422012_ref10">10</xref>] obtuvo un rendimiento inferior al 80.0%, debido a la escasez de imágenes empleadas durante su entrenamiento. Por lo tanto, la utilización de un conjunto de datos más amplio y diverso sería una opción adecuada para mejorar la robustez y la fiabilidad del modelo en la práctica clínica.</p>
<p>La calidad de las imágenes constituye otra limitación presente en los trabajos mencionados. En dichas investigaciones, la precisión de los modelos se ve afectada por la presencia de ruido o la ausencia de preprocesamiento adecuado. En el caso de [8], las imágenes fueron redimensionadas a un formato cuadrado de 608 × 608 píxeles (PNG) y se implementó un proceso manual de eliminación de ruido en aquellas de baja calidad. Si bien esta estrategia de limpieza contribuyó a mejorar la calidad y la precisión del modelo, no posee la escalabilidad ni la robustez necesarias para garantizar la consistencia en entornos clínicos de gran escala.</p>
<p>A partir de estas limitaciones, surge la siguiente pregunta de investigación: ¿Cómo incrementar la precisión y la robustez frente al desbalance de clases en la clasificación automática de fracturas óseas en extremidades superiores, a partir de imágenes radiográficas, mediante la implementación de modelos de aprendizaje profundo preentrenados?.</p>
<p>Para dar respuesta a la interrogante, se propone comparar modelos de aprendizaje profundo preentrenados, como EfficientNet-B4 [11], ResNet-50 [12] y ConvNeXt-Large [13], evaluados mediante métricas como F1-Score, precisión, exactitud, sensibilidad, curva de característica operativa del receptor (ROC) y matriz de confusión.</p>
<p>El objetivo es identificar cuál de los tres modelos propuestos ofrece el mejor rendimiento en la clasificación automática de fracturas óseas en las extremidades superiores.</p>
</sec>
<sec sec-type="materials|methods">
<title>
<bold>2.     </bold>
<bold>Materiales y métodos</bold>
</title>
<p>La investigación se basa en un enfoque cuantitativo y experimental, orientado a la comparación y validación de modelos preentrenados de aprendizaje profundo para la clasificación automática de fracturas óseas en extremidades superiores a partir de imágenes radiográficas.</p>
<p>Para la implementación y evaluación de los modelos, se adopta el enfoque CRISP-DM, el cual proporciona un marco sistemático y estructurado para el análisis de los datos [<xref ref-type="bibr" rid="redalyc_505583422012_ref14">14</xref>].</p>
<p>La Figura 1 ilustra sus fases y objetivos principales del proceso.</p>
<p>
<fig id="gf1">
<caption>
<title>
<bold>Figura 1.</bold>
</title>
<p>Metodología de estudio compuesta por seis fases</p>
</caption>
<graphic xlink:href="505583422012_gf2.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>Estas fases se describen a continuación:</p>
<p>
<list list-type="bullet">
<list-item>
<p>
<bold>Comprensión del negocio:</bold> análisis del contexto, definición de los objetivos y recursos del proyecto [15].</p>
</list-item>
<list-item>
<p>
<bold>Comprensión de los datos:</bold> análisis de la calidad, estructura y características de los datos para obtener una visión clara de su contenido [16].</p>
</list-item>
<list-item>
<p>
<bold>Preparación de los datos:</bold> depuración de valores faltantes, normalización, selección de variables clave y conversión de los datos a formatos adecuados</p>
</list-item>
<list-item>
<p>
<bold>Modelado:</bold> construcción, entrenamiento y evaluación del modelo, con el fin de garantizar su efectividad y fiabilidad [<xref ref-type="bibr" rid="redalyc_505583422012_ref17">17</xref>].</p>
</list-item>
<list-item>
<p>
<bold>Evaluación:</bold> verificación del cumplimiento de objetivos y análisis del rendimiento del modelo según criterios predefinidos [18].</p>
</list-item>
<list-item>
<p>
<bold>Despliegue:</bold> integración, monitoreo y mantenimiento continuos del modelo, para asegurar su funcionamiento óptimo y actualización periódica [19].</p>
</list-item>
</list>
</p>
<sec>
<title>
<bold>2.1.  </bold>
<bold>Comprensión del negocio</bold>
</title>
<p>La clasificación automática de fracturas óseas en radiografías requiere precisión, rapidez y experiencia especializada. Sin embargo, la alta demanda de estudios radiológicos y la escasez de profesionales radiólogos pueden retrasar los diagnósticos y aumentar la probabilidad de errores.</p>
<p>Aunque existen diversas herramientas computacionales, pocas están diseñadas específicamente para detección y clasificación de fracturas óseas. En este contexto, el presente estudio implementa y evalúa modelos preentrenados de aprendizaje profundo para la clasificación de fracturas óseas en las extremidades superiores.</p>
</sec>
<sec>
<title>
<bold>2.2.  </bold>
<bold>Comprensión de los datos</bold>
</title>
<p>El conjunto de datos empleado para la clasificación automática de fracturas en las extremidades superiores corresponde a una amplia colección de radiografías musculoesqueléticas, denominada MURA [20]. Este recurso contiene 40561 imágenes radiográficas, correspondientes a 14 863 estudios de 12 173 pacientes.</p>
<p>Las imágenes abarcan diferentes regiones anatómicas, como el codo, los dedos, el antebrazo, la mano, el húmero, el hombro y la muñeca. Cada estudio fue etiquetado previamente como normal o anormal por radiólogos certificados, avalados por la junta del Hospital de Stanford, a partir de diagnósticos realizados entre 2001 y 2012 [<xref ref-type="bibr" rid="redalyc_505583422012_ref21">21</xref>].</p>
<p>En cuanto a su distribución original, MURA [20] se divide en tres subconjuntos: entrenamiento, con 36 808 imágenes (90.7%); validación, con 3197 imágenes (7.9%); y prueba, con 556 imágenes (1.4%).</p>
<p>La Tabla 1 resume la distribución original del conjunto de datos.</p>
<p>
<fig id="gf2">
<caption>
<title>
<bold>Tabla 1.</bold>
</title>
<p>Distribución original de MURA</p>
</caption>
<graphic xlink:href="505583422012_gf3.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<sec>
<title>
<bold>2.3.  </bold>
<bold>Preparación de los datos</bold>
</title>
<p>El preprocesamiento de datos es una etapa fundamental en la minería de datos, ya que permite corregir el ruido, las inconsistencias y los valores faltantes que afectan la fiabilidad del modelo [22]. Durante la revisión del conjunto original de MURA [20], se obtuvieron 40 009 imágenes. Tras un análisis exhaustivo, se identificaron cuatro imágenes en formato distinto, las cuales fueron descartadas en etapas posteriores del preprocesamiento. Esto confirma la cantidad total de 40 005 imágenes reportada por los autores [23].</p>
<p>Las 40 005 imágenes resultantes fueron normalizadas y redimensionadas a 384 × 384 píxeles, con el fin de mantener el equilibrio entre la preservación de los detalles relevantes, la eficiencia computacional y la consistencia con los modelos preentrenados.</p>
<p>Para mejorar la calidad visual de las radiografías, se aplicaron las técnicas Unsharp Masking, utilizada para resaltar los bordes y los detalles finos [24], y CLAHE, que mejora el contraste en imágenes poco nítidas sin generar artefactos indeseados [<xref ref-type="bibr" rid="redalyc_505583422012_ref25">25</xref>].</p>
<p>Estudios previos han demostrado que la combinación de estas técnicas incrementa significativamente la visibilidad en imágenes con baja iluminiación [26], como se aprecia en la Figura 2.</p>
<p>
<fig id="gf3">
<caption>
<title>
<bold>Figura 2.</bold>
</title>
<p>Aplicación de técnicas de mejora de imágenes radiográficas. A la izquierda, se muestra el resultado obtenido con Unsharp Mask, y a la derecha, el efecto de la combinación de Unsharp Mask con CLAHE.</p>
</caption>
<graphic xlink:href="505583422012_gf4.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>Tras finalizar las etapas de limpieza y mejora de la calidad de las imágenes, el conjunto de datos fue redistribuido como parte del preprocesamiento: 80.0% para entrenamiento y 20.0% para validación, tal como se indica en la Tabla 2.</p>
<p>
<fig id="gf4">
<caption>
<title>
<bold>Tabla 2.</bold>
</title>
<p>Redistribución de MURA</p>
</caption>
<graphic xlink:href="505583422012_gf5.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<sec>
<title>
<bold>2.4.  </bold>
<bold>Modelado</bold>
</title>
<p>En esta etapa se implementaron tres modelos preentrenados de aprendizaje profundo: EfficientNet-B4, ResNet-50 y ConvNeXt-Large. El entrenamiento se realizó en un entorno Python, utilizando bibliotecas como PyTorch, Albumentations y Scikit-learn, y tres configuraciones de hardware: GPU NVIDIA RTX 3050 (8 GB), GPU NVIDIA RTX 4060 (12 GB) y A100 en Google Colab Pro (40 GB).</p>
<p>Estas configuraciones permitieron evaluar el rendimiento y el consumo de recursos, destacando la GPU A100 en Colab Pro para pruebas intensivas en modelos de mayor complejidad, como ConvNeXt-Large.</p>
<p>Bajo estas condiciones, el entrenamiento se estructuró en tres fases:</p>
<p>
<list list-type="order">
<list-item>
<p>
<bold>Primera fase:</bold> se realizó una clasificación binaria entre imágenes con fractura y sin fractura.</p>
</list-item>
<list-item>
<p>
<bold>Segunda fase:</bold> se ejecutó una clasificación multiclase utilizando el conjunto MURA en su estructura original.</p>
</list-item>
<list-item>
<p>
<bold>Tercera fase:</bold> se efectuó un entrenamiento multiclase con el conjunto de datos preprocesado y redimensionado.</p>
<p>La Tabla 3 resume el esquema de etiquetado empleado para la clasificación multiclase.</p>
</list-item>
</list>
</p>
<p>
<fig id="gf5">
<caption>
<title>
<bold>Tabla 3.</bold>
</title>
<p>Etiquetado de clases para clasificación multiclase</p>
</caption>
<graphic xlink:href="505583422012_gf6.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<sec>
<title>
<bold>2.4.1.     </bold>
<bold>EfficientNet-B4</bold>
</title>
<p>EfficientNet es una arquitectura convolucional que equilibra la profundidad, el ancho y la resolución de la red [<xref ref-type="bibr" rid="redalyc_505583422012_ref27">27</xref>].</p>
<p>El modelo EfficientNet-B4 cuenta con 24 capas y aproximadamente 19.3 millones de parámetros, la mayoría ajustables (pesos y sesgos) y una pequeña proporción fija (media y varianza), lo que mejora la capacidad de extracción de características complejas, aunque aumenta la demanda computacional y el riesgo de sobreajuste, ver figura 3.</p>
<p>
<fig id="gf6">
<caption>
<title>
<bold>Figura 3.</bold>
</title>
<p>Arquitectura EfficientNet-B4.</p>
</caption>
<graphic xlink:href="505583422012_gf7.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>
<bold>Fase 1</bold>
</p>
<p>El proceso de entrenamiento se desarrolló en dos etapas, utilizando un lote de ocho imágenes por iteración. En la primera etapa, se entrenó el modelo durante 30 épocas, congelando las últimas 100 capas, y se aplicó una tasa de aprendizaje de 1 × 10<sup>−3</sup>.</p>
<p>Posteriormente, se realizó un ajuste fino durante 25 épocas, con todas las capas activas del modelo, reduciendo la tasa de aprendizaje a 1 × 10<sup>−5</sup>.</p>
<p>Se aplicaron técnicas de aumento de datos, como rotaciones, desplazamientos y cambios de escala, para incrementar la variabilidad del conjunto de entrenamiento. Además, se incorporó una estrategia de control de la pérdida de validación, que detiene el entrenamiento en ausencia de mejora y ajusta dinámicamente la tasa de aprendizaje.</p>
<p>
<bold>Fase 2</bold>
</p>
<p>En el entrenamiento multiclase se empleó un tamaño de lote de ocho imágenes.</p>
<p>En una primera fase, se entrenó únicamente la capa de salida durante 30 épocas, con una tasa de aprendizaje de 1 × 10<sup>−3</sup>.</p>
<p>Posteriormente, se realizó un ajuste fino, descongelando todas las capas durante 30 épocas adicionales, con una tasa de aprendizaje reducida (1 × 10<sup>−5</sup>) para un ajuste más preciso de los pesos del modelo.</p>
<p>Como parte del flujo de entrenamiento, se calcularon pesos de clase personalizados con el fin de compensar el desbalance existente en el conjunto de entrenamiento.</p>
<p>
<bold>Fase 3</bold>
</p>
<p>Durante el entrenamiento, se aplicó aumento de datos directamente en GPU, utilizando la biblioteca Kornia [28], que incluye rotaciones aleatorias de hasta 30°, inversión horizontal, variaciones de brillo y normalización.</p>
<p>Para la validación, los datos solo fueron normalizados, con el fin de mantener la coherencia estadística respecto al entrenamiento.</p>
<p>Para mitigar el desbalance de clases, se calcularon automáticamente los pesos de clase mediante una función descrita en la ecuación (1).</p>
<p>
<fig id="gf7">
<graphic xlink:href="505583422012_gf8.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>Donde w<sub>i </sub>es el peso de la clase i, n<sub>muestras</sub> representa</p>
<p>el total de muestras, n<sub>(clases)</sub> corresponde al número de clases, y n<sub>muestras</sub> indica el número de muestras pertenecientes a la clase i.</p>
<p>Además, se integró la función de pérdida de entropía cruzada, la cual convierte las salidas del modelo en probabilidades normalizadas, comparables con las etiquetas verdaderas.</p>
<p>Se mantuvo la estructura de entrenamiento empleada en la fase 2 y se incorporaron operaciones de precisión mixta de forma automática [29].</p>
<p>Por último, se aplicó un escalamiento dinámico de la pérdida para preservar la estabilidad numérica durante el entrenamiento [<xref ref-type="bibr" rid="redalyc_505583422012_ref30">30</xref>].</p>
</sec>
<sec>
<title>
<bold>2.4.2.     </bold>
<bold>ResNet-50</bold>
</title>
<p>ResNet es una arquitectura convolucional basada en bloques residuales y conexiones de salto, diseñada para mitigar problemas como el desvanecimiento del gradiente y facilitar el entrenamiento de redes neuronales más profundas [31].</p>
<p>El modelo ResNet-50 cuenta con 50 capas de profundidad, lo que le permite extraer características visuales detalladas de las imágenes, como se observa en la Figura 4 [12].</p>
<p>
<fig id="gf8">
<caption>
<title>
<bold>Figura 4.</bold>
</title>
<p>Arquitectura ResNet-50.</p>
</caption>
<graphic xlink:href="505583422012_gf9.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>
<bold>Fase 1</bold>
</p>
<p>Para el entrenamiento binario, se utilizó un tamaño de lote de 32 imágenes y una estrategia en dos etapas: entrenamiento con capas congeladas y ajuste fino.</p>
<p>En la primera etapa, se congelaron las capas del modelo base y se añadió un clasificador personalizado, compuesto por dos capas densas de 1024 y 512 unidades, con normalización, función de activación Swish y Dropout del 50%, finalizando con una capa salida sigmoide para la clasificación binaria.</p>
<p>Se aplicaron diversas transformaciones al conjunto de entrenamiento, entre ellas: normalización de píxeles, rotaciones, desplazamientos de hasta 30%, zoom de hasta 40%, recortes aleatorios, ajustes de brillo e inversión horizontal.</p>
<p>En la primera etapa, se entrenó la cabeza del modelo durante 40 épocas, con una tasa de aprendizaje de 1 × 10<sup>−4</sup>; en la segunda, se descongelaron las últimas 150 capas y se continuó con el ajuste fino por 40 épocas adicionales, utilizando una tasa de aprendizaje reducida de 1×10<sup>−6</sup>, preservando la estabilidad de los pesos preentrenados.</p>
<p>
<bold>Fase 2</bold>
</p>
<p>En esta fase no se aplicó aumento de datos. El entrenamiento se realizó en dos etapas: en la primera, se mantuvieron congeladas las capas base del modelo y se entrenaron únicamente las capas superiores, con una tasa de aprendizaje de 1×10<sup>−4</sup>; en la segunda, a partir de la época 40, se aplicó un ajuste fino, reduciendo la tasa de aprendizaje a 1 × 10<sup>−6</sup>.</p>
<p>
<bold>Fase 3</bold>
</p>
<p>Por último, en la tercera fase se utilizó un tamaño de lote de 64 imágenes. Al conjunto de entrenamiento se le aplicó inversión horizontal aleatoria, rotaciones dentro del rango de ± 30° y normalización, ajustando los valores de media y desviación estándar a 0.5. Además, se calcularon automáticamente los pesos de las clases mediante la función compute_class_weight, como se mencionó en la fase 3 del punto 2.4.1.</p>
<p>Para el entrenamiento, se reemplazó la capa final del modelo por una salida de 14 neuronas, precedida por una capa densa de 512 unidades, normalización por lotes, función de activación no lineal y un Dropout del 50.0%. El proceso se mantuvo en dos etapas, incorporando técnicas de entrenamiento mixto para optimizar recursos de la GPU.</p>
</sec>
<sec>
<title>
<bold>2.4.3.     </bold>
<bold>ConvNeXt-Large</bold>
</title>
<p>ConvNeXt-Large es una arquitectura de red neuronal convolucional que divide la red en varios módulos idénticos, lo cual facilita la expansión y el mantenimiento del modelo [32]. En la Figura 5 se observa su estructura de 24 capas, la cual le permite identificar diferencias mínimas y detalles complejos en las imágenes, útiles para tareas de clasificación médica [13].</p>
<p>
<fig id="gf9">
<caption>
<title>
<bold>Figura 5. </bold>
</title>
<p>Arquitectura ConvNeXt-Large.</p>
</caption>
<graphic xlink:href="505583422012_gf13.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>
<bold>Fase 1</bold>
</p>
<p>En la primera fase del entrenamiento binario de ConvNeXt-Large, se aplicaron aumentos de datos mediante ajustes de brillo y contraste, desenfoque por movimiento, rotaciones de ±20°, recortes aleatorios, inversión horizontal y normalización al rango [-1, 1]. Se utilizó una función de pérdida compuesta, que combina un 30% de BCE [33] que mide la discrepancia entre las predicciones del modelo y las etiquetas reales y un 70% de Focal Loss [34], la cual reduce la influencia de ejemplos fáciles y prioriza los difíciles.</p>
<p>El modelo se entrenó durante 30 épocas, incorporando CutMix [35] y un ajuste fino progresivo. Primero se entrenó la cabeza del modelo y, desde las épocas 3 y 8, se descongelaron gradualmente las capas más profundas. A partir de la época 5, se ajustó dinámicamente el umbral de clasificación y se reincorporaron los errores de validación cada 5 épocas.</p>
<p>
<bold>Fase 2</bold>
</p>
<p>A continuación, en la segunda fase, el modelo fue ajustado para clasificación multiclase con 14 categorías, sin aplicar aumentos de datos, y se enfocó en un conjunto personalizado construido a partir de archivos CSV, con el fin de facilitar la lectura y la normalización de las imágenes.</p>
<p>Se entrenó con lotes de 16 imágenes, utilizando la función de pérdida CrossEntropyLoss, como se mencionó en la fase 3 de la sección 2.4.1, y el optimizador AdamW, que ajusta los parámetros con tasas adaptativa y aplica regularización adecuada para mejorar la estabilidad del proceso de aprendizaje.</p>
<p>El entrenamiento comenzó con el modelo base congelado, descongelando las últimas 10 capas desde la época 3 y toda la arquitectura a partir de la época 8.</p>
<p>
<bold>Fase 3</bold>
</p>
<p>Por último, esta tercera fase reforzó la capacidad de generalización mediante transformaciones avanzadas, como volteo horizontal, rotaciones discretas de 90°, 180° y 270°, distorsiones elásticas, desenfoque gaussiano y ajustes aleatorios de brillo y contraste. Se aplicó sobremuestreo, replicando ejemplos de la clase minoritaria para balancear datos; además, se incorporó una función de pérdida personalizada, con detección de errores cada 5 épocas y el uso de CutMix [<xref ref-type="bibr" rid="redalyc_505583422012_ref35">35</xref>].</p>
<p>El entrenamiento comenzó con la cabeza del modelo durante 2 épocas; desde la época 3 se activaron las últimas 10 capas, y a partir de la época 8 se habilitó el ajuste fino completo.</p>
<p>La Tabla 4 resume las configuraciones empleadas para EfficientNet-B4, ResNet-50 y ConvNeXt-Large, incluyendo épocas, tamaños de lote [36] y tasas de aprendizaje, con ajustes específicos para la clasificación multiclase.</p>
<p>
<fig id="gf10">
<caption>
<title>
<bold>Tabla 4.</bold>
</title>
<p>Resumen de configuraciones de entrenamiento por modelo</p>
</caption>
<graphic xlink:href="505583422012_gf14.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
</sec>
<sec>
<title>
<bold>2.4.4.     </bold>
<bold>Esfuerzo computacional</bold>
</title>
<p>El esfuerzo computacional se refiere a los recursos necesarios para entrenar y ejecutar un modelo, tales como memoria, tiempo de entrenamiento y capacidad de procesamiento [37]. En este estudio, los modelos empleados presentaron diferencias significativas en las tres configuraciones de hardware utilizadas, las cuales se describen a continuación.</p>
<p>
<list list-type="bullet">
<list-item>
<p>
<bold>Configuración 1 (GPU NVIDIA RTX 3050, 8 GB VRAM):</bold> GPU de gama media, orientada a usuarios domésticos o estaciones de trabajo básicas, con arquitectura Ampere, diseñada para tareas generales de procesamiento gráfico y computación acelerada.</p>
</list-item>
<list-item>
<p>
<bold>Configuración 2 (GPU NVIDIA RTX 4060, 12 GB VRAM):</bold> GPU de gama alta para consumo general, basada en arquitectura Ada Lovelace, con mayor rendimiento en tareas de aprendizaje profundo.</p>
</list-item>
<list-item>
<p>
<bold>Configuración 3 (Google Colab Pro con GPU A100, 40 GB VRAM):</bold> GPU de alto rendimiento, basado en arquitectura Ampere, destinada a procesamiento intensivo y entrenamiento de redes neuronales profundas.</p>
</list-item>
</list>
</p>
<p>El entrenamiento exigió alta carga computacional: EfficientNet-B4 presentó una demanda moderada, ResNet-50 requirió menos tiempo y memoria, y ConvNeXt-Large fue el más exigente; por ello, se empleó la función torch.cuda.empty_cache() de Py-Torch, que libera memoria y reduce el riesgo de saturación [38].</p>
<p>La Tabla 5 resume el comportamiento observado en cuanto a la velocidad de entrenamiento bajo las distintas configuraciones de hardware empleadas. Los niveles de rendimiento se interpretan de la siguiente manera:</p>
<p>
<list list-type="bullet">
<list-item>
<p>
<bold>Lento:</bold> tiempo total de entrenamiento superior a 12 horas.</p>
</list-item>
<list-item>
<p>
<bold>Moderado:</bold> tiempo total de entrenamiento entre 4 y 12 horas.</p>
</list-item>
<list-item>
<p>
<bold>Rápido:</bold> tiempo total de entrenamiento inferior a 4 horas.</p>
</list-item>
</list>
</p>
<p>
<fig id="gf11">
<caption>
<title>
<bold>Tabla 5.</bold>
</title>
<p>Comparativa de velocidad de entrenamiento de los modelos</p>
</caption>
<graphic xlink:href="505583422012_gf15.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>De igual forma, en la Tabla 6 se presenta el comportamiento observado en cuanto al uso de memoria durante el entrenamiento en los diferentes entornos evaluados. Los niveles de utilización de memoria indicados de la Tabla 6 se interpretan de la siguiente manera:</p>
<p>
<list list-type="bullet">
<list-item>
<p>
<bold>Lento:</bold> consumo máximo de memoria VRAM inferior al 50% de la capacidad total disponible en la GPU.</p>
</list-item>
<list-item>
<p>
<bold>Moderado:</bold> consumo de memoria entre 50% y 80%.</p>
</list-item>
<list-item>
<p>
<bold>Rápido:</bold> consumo de memoria VRAM superior al 80%, con riesgo de saturación.</p>
</list-item>
</list>
</p>
<p>
<fig id="gf12">
<caption>
<title>
<bold>Tabla 6.</bold>
</title>
<p>Comparativa del uso de memoria de los modelos</p>
</caption>
<graphic xlink:href="505583422012_gf16.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
</sec>
</sec>
</sec>
</sec>
<sec>
<title>
<bold>2.5.  </bold>
<bold>Evaluación</bold>
</title>
<p>En esta sección se analiza el rendimiento de los modelos EfficienNet-B4, ResNet-50 y ConvNeXt-Large en la clasificación de fracturas óseas, utilizando métricas de evaluación como F1-Score, la precisión, la exactitud, la sensibilidad, la curva característica de operación del receptor y la matriz de confusión. Las abreviaturas empleadas en las ecuaciones se detallan en la Tabla 7.</p>
<p>
<fig id="gf13">
<caption>
<title>
<bold>Tabla 7.</bold> Términos de evaluación</title>
</caption>
<graphic xlink:href="505583422012_gf17.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>A continuación, se describen las métricas utilizadas en la evaluación del rendimiento.</p>
<p>
<bold>Puntaje F1 (F1-Score)</bold>
</p>
<p>La métrica es una medida armónica entre la precisión y la sensibilidad, útil en conjuntos de datos desbalanceados, porque equilibra los errores de clasificación [39].</p>
<p>
<fig id="gf14">
<graphic xlink:href="505583422012_gf18.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>
<bold>Precisión</bold>
</p>
<p>Mide la proporción de predicciones positivas que son correctas, reflejando un bajo número de falsos positivos [40].</p>
<p>
<fig id="gf15">
<graphic xlink:href="505583422012_gf19.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>
<bold>Exactitud</bold>
</p>
<p>Evalúa la proporción total de predicciones correctas y se utiliza especialmente cuando las clases están balanceadas [<xref ref-type="bibr" rid="redalyc_505583422012_ref41">41</xref>].</p>
<p>
<fig id="gf16">
<graphic xlink:href="505583422012_gf20.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>
<bold>Sensibilidad</bold>
</p>
<p>Refleja la capacidad del modelo para detectar los positivos reales; una alta sensibilidad implica un bajo número de falsos negativos [39].</p>
<p>
<fig id="gf17">
<graphic xlink:href="505583422012_gf21.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
</sec>
</sec>
<sec sec-type="results|discussion">
<title>
<bold>3.     </bold>
<bold>Resultados y discusión</bold>
</title>
<p>
<bold>Fase 1</bold>
</p>
<p>Como se observa en la Tabla 8, ConvNeXt-Large supera a EfficientNet-B4 y ResNet-50 en todas las métricas evaluadas, alcanzando una precisión del 99.2%, una sensibilidad del 97.7% y un F1-Score de 98.4%, lo que evidencia su alta capacidad para clasificar fracturas óseas con una baja tasa de falsos positivos.</p>
<p>Por otro lado, EfficientNet-B4 y ResNet-50 presentan un rendimiento similar, con menor capacidad para identificar correctamente los casos positivos. Estos resultados demuestran que ConvNext-Large logra el mejor equilibrio entre precisión, sensibilidad y capacidad de generalización.</p>
<p>
<fig id="gf18">
<caption>
<title>
<bold>Tabla 8.</bold>
</title>
<p>Métricas de evaluación en porcentaje – Fase 1</p>
</caption>
<graphic xlink:href="505583422012_gf22.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>Para complementar los resultados, se presentan las curvas características de operación del receptor y el área bajo la curva de cada modelo en la Figura 6. EfficientNet-B4 alcanzó un AUC de 87.1%, ResNet-50 obtuvo 82.8% y ConvNeXt-Large un 99.9%, lo que evidencia una capacidad casi perfecta de discriminación entre clases.</p>
<p>
<fig id="gf19">
<caption>
<title>
<bold>Figura 6.</bold>
</title>
<p>Comparación del desempeño de modelos mediante curvas de ROC.</p>
</caption>
<graphic xlink:href="505583422012_gf23.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>El análisis de las matrices de confusión refuerza estos hallazgos: EfficientNet-B4 (Figura 7) presenta 1013 FP y 470 FN; ResNet-50 (Figura 8) reduce los FN a 697, pero aumenta los FP a 1465; mientras que ConvNeXt-Large (Figura 9) alcanza el mejor desempeño, con solo 76 FP y 25 FN, lo que evidencia una mayor precisión en la clasificación.</p>
<p>
<fig id="gf20">
<caption>
<title>
<bold>Figura 7.</bold>
</title>
<p>Matriz de confusión de EfficientNet-B4.</p>
</caption>
<graphic xlink:href="505583422012_gf24.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>
<fig id="gf21">
<caption>
<title>
<bold>Figura 8.</bold>
</title>
<p>Matriz de confusión de ResNet-50.</p>
</caption>
<graphic xlink:href="505583422012_gf25.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>
<fig id="gf22">
<caption>
<title>
<bold>Figura 9.</bold>
</title>
<p>Matriz de confusión de ConvNeXt-Large.</p>
</caption>
<graphic xlink:href="505583422012_gf26.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>
<bold>Fase 2</bold>
</p>
<p>Los resultados de entrenamiento multiclase de esta fase demuestran que el modelo ConvNeXt-Large alcanzó una precisión general de 82.3%, una sensibilidad de 81.6%, un F1-Score de 81.4% y una exactitud de 81.3%. Estos resultados se presentan en la Tabla 9.</p>
<p>
<fig id="gf23">
<caption>
<title>
<bold>Tabla 9.</bold>
</title>
<p>Métricas de evaluación en porcentaje – Fase 2</p>
</caption>
<graphic xlink:href="505583422012_gf27.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>En la Figura 10 se observa que los valores AUC obtenidos por EfficientNet-B4 para cada clase se encuentran en un rango entre 93.0% y 98.0%.</p>
<p>Por su parte, en la Figura 11, correspondiente a ResNet-50, los valores AUC varían entre 95.0% y 99.0%. Finalmente, en la Figura 12, las curvas AUC de ConvNeXt-Large presentan valores que oscilan entre el 98.0% y 100.0%, evidenciando un rendimiento sobresaliente y una excelente capacidad de discriminación entre clases.</p>
<p>
<fig id="gf24">
<caption>
<title>
<bold>Figura 10.</bold>
</title>
<p>Curvas características de operación del receptor para EfficientNet-B4 multiclase.</p>
</caption>
<graphic xlink:href="505583422012_gf28.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>
<fig id="gf25">
<caption>
<title>
<bold>Figura 11.</bold>
</title>
<p>Curvas características de operación del receptor para ResNet-50 multiclase.</p>
</caption>
<graphic xlink:href="505583422012_gf29.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>
<fig id="gf26">
<caption>
<title>
<bold>Figura 12.</bold>
</title>
<p>Curvas características de operación del receptor para ConvNeXt-Large multiclase.</p>
</caption>
<graphic xlink:href="505583422012_gf30.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>En la Figura 13, EfficientNet-B4 muestra un desempeño limitado: las clases Codo Normal y Mano Normal presentan numerosas confusiones, mientras que Dedo Anormal, Mano Anormal y Muñeca Normal destacan por su alta precisión.</p>
<p>Por otro lado, la Figura 14 evidencia que ResNet-50 mejora la clasificación; en este caso, la mayoría de las clases se concentran correctamente en la diagonal de la matriz de confusión, aunque aún se observan errores entre Hombro Normal y Muñeca Anormal.</p>
<p>Finalmente, en la Figura 15, ConvNeXt-Large alcanzó el mejor desempeño, con clasificación precisa y un mínimo de errores.</p>
<p>
<fig id="gf27">
<caption>
<title>
<bold>Figura 13.</bold>
</title>
<p>Matriz de confusión de EfficienNet-B4.</p>
</caption>
<graphic xlink:href="505583422012_gf31.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>
<fig id="gf28">
<caption>
<title>
<bold>Figura 14.</bold>
</title>
<p>Matriz de confusión de ResNet-50.</p>
</caption>
<graphic xlink:href="505583422012_gf32.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>
<fig id="gf29">
<caption>
<title>
<bold>Figura 15.</bold>
</title>
<p>Matriz de confusión de ConvNeXt-Large.</p>
</caption>
<graphic xlink:href="505583422012_gf33.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>
<bold>Fase 3</bold>
</p>
<p>A partir de los resultados presentados en la Tabla 10, ConvNeXt-Large mantiene su superioridad en la clasificación multiclase, superando ampliamente a los demás modelos en todas las métricas evaluadas. Sus valores de precisión, sensibilidad, F1-Score y exactitud alcanzaron el 99.4%, lo que consolida a este modelo como la mejor alternativa para la tarea de clasificación.</p>
<p>
<fig id="gf30">
<caption>
<title>
<bold>Tabla 10.</bold>
</title>
<p>Métricas de evaluación en porcentaje – Fase 3</p>
</caption>
<graphic xlink:href="505583422012_gf34.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>Al observar las matrices de confusión correspondientes a la fase 3, se aprecia que en la Figura 16 los valores AUC de EfficientNet-B4 varían entre 98.0% y 99.0%.</p>
<p>En el caso de ResNet-50, representado en la Figura 17, los valores de AUC se sitúan entre 97.0% y 99.0%.</p>
<p>Finalmente, en la Figura 18, los valores de AUC para todas las clases alcanzaron el 100.0%, lo que demuestra el excelente rendimiento del modelo ConvNeXt-Large.</p>
<p>Las Figuras 19, 20 y 21 confirman que ConvNeXt- Large es el modelo más eficaz, ya que muestra menor dispersión fuera de la diagonal principal y mayor capacidad para diferenciar clases.</p>
<p>El excelente rendimiento de ConvNeXt-Large frente al desbalance de clases se atribuye a las estrategias avanzadas de aumento de datos, que redujeron el sobreajuste y mejoraron la capacidad de generalización, superando a EfficientNet-B4 y ResNet-50 en todas las fases evaluadas.</p>
<p>
<fig id="gf31">
<caption>
<title>
<bold>Figura 17.</bold>
</title>
<p>Curvas características de operación del receptor para ResNet-50 multiclase.</p>
</caption>
<graphic xlink:href="505583422012_gf36.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>
<fig id="gf32">
<caption>
<title>
<bold>Figura 18.</bold>
</title>
<p>Curvas características de operación del receptor para ConvNeXt-Large multiclase.</p>
</caption>
<graphic xlink:href="505583422012_gf37.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>
<fig id="gf33">
<caption>
<title>
<bold>Figura 19.</bold>
</title>
<p>Matriz de confusión de EfficientNet-B4.</p>
</caption>
<graphic xlink:href="505583422012_gf38.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>
<fig id="gf34">
<caption>
<title>
<bold>Figura 20.</bold>
</title>
<p>Matriz de confusión de ResNet-50.</p>
</caption>
<graphic xlink:href="505583422012_gf39.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>
<fig id="gf35">
<caption>
<title>
<bold>Figura 21.</bold>
</title>
<p>Matriz de confusión de ConvNeXt-Large.</p>
</caption>
<graphic xlink:href="505583422012_gf40.png" position="anchor" orientation="portrait">
<alt-text/>
</graphic>
</fig>
</p>
<p>
<bold>Comparación con trabajos relacionados</bold>
</p>
<p>El modelo ConvNeXt-Large propuesto superó los resultados de los estudios previos, alcanzando una precisión de hasta 99.4% frente al 62.0% de R-CNN [10] y 86.8% de DenseNet121 [23], lo que demuestra su mayor robustez incluso ante conjuntos de datos desbalanceados.</p>
<p>
<bold>Limitaciones, desafíos para la aplicación clínica y consideraciones éticas</bold>
</p>
<p>Aunque los resultados obtenidos muestran un alto rendimiento, su aplicación clínica requiere un análisis más profundo. La implementación en entornos reales enfrenta desafíos como la variabilidad de los equipos radiológicos, la calidad de imágenes y las particularidades anatómicas de cada paciente, lo que exige validar el modelo en diversos escenarios clínicos.</p>
<p>Por otro lado, existe el riesgo de sobreajuste, ya que el modelo fue entrenado en un entorno controlado que puede no reflejar situaciones clínicas reales; por ello, es esencial validar el modelo con datos externos y diversos. En cuanto a la reproducibilidad, resulta fundamental que los resultados obtenidos puedan ser replicados por otros investigadores, utilizando diferentes conjuntos de datos y condiciones experimentales, para fortalecer la confianza y facilitar su adopción clínica.</p>
<p>Finalmente, desde una perspectiva ética y regulatoria, es fundamental garantizar la transparencia del modelo, la protección y anonimización de los datos de los pacientes, así como la definición clara de responsabilidades frente a posibles errores de diagnóstico, asegurando un uso seguro, ético y confiable que priorice el bienestar del paciente.</p>
</sec>
<sec sec-type="conclusions">
<title>
<bold>4.     </bold>
<bold>Conclusiones</bold>
</title>
<p>Este estudio evaluó los modelos EfficientNet-B4, ResNet-50 y ConvNeXt-Large para la clasificación de fracturas óseas en extremidades superiores mediante radiografías digitales. Los hallazgos demostraron que ConvNeXt-Large superó a los demás modelos, alcanzando precisiones del 99.2% en clasificación binaria, 82.3% en clasificación multiclase con datos originales y 99.4% en la clasificación multiclase con datos preprocesados.</p>
<p>La combinación de estrategias de aprendizaje profundo, como el preprocesamiento de imágenes, las técnicas de aumento de datos, el ajuste dinámico de umbrales y el ajuste fino progresivo, fue determinante para su alto rendimiento.</p>
<p>Si bien EfficientNet-B4 y ResNet-50 obtuvieron resultados aceptables, sus limitaciones en sensibilidad y equilibrio entre clases podrían representar un riesgo en contextos clínicos, donde la omisión de una fractura puede tener consecuencias críticas. En conjunto, los resultados respaldan a ConvNeXt-Large como una herramienta prometedora para apoyar el diagnóstico médico e integrarse en sistemas automatizados de análisis radiográfico de fracturas en extremidades superiores.</p>
<p>Un desafío importante identificado fue la complejidad de las fracturas, lo que sugiere explorar técnicas avanzadas de remuestreo y aumentos específicos, como transformaciones clínicas o síntesis de datos mediante redes generativas, con el fin de mejorar la precisión y la robustez diagnóstica en futuros desarrollos.</p>
<p>
<bold>Disponibilidad del código</bold>
</p>
<p>El código empleado para el procesamiento de datos, el entrenamiento de los modelos y la generación de las figuras del estudio sobre la clasificación de fracturas en extremidades superiores mediante aprendizaje profundo se encuentra disponible públicamente en el repositorio de GitHub [<xref ref-type="bibr" rid="redalyc_505583422012_ref44">44</xref>], consultado el 24 de junio de 2025.</p>
<p>
<bold>Rol de autores</bold>
</p>
<p>
<bold>Gabriela Jaén-Armijos:</bold> curación de datos, análisis formal, investigación, software, escrituraborrar original.</p>
<p>
<bold>Evelyn Morán-Castillo:</bold> investigación, metodología, análisis formal, software, escrituraborrador original.</p>
<p>
<bold>Wilmer Rivas-Asanza:</bold> supervisión, validación, escritura-revisión y edición.</p>
<p>
<bold>Eduardo Tusa:</bold> supervisión, validación, escritura-revisión y edición.</p>
</sec>
</body>
<back>
<ref-list>
<title>
<bold>Referencias</bold>
</title>
<ref id="redalyc_505583422012_ref1">
<label>[1]</label>
<mixed-citation publication-type="journal">[1] J. S. Alvarez Silva, J. E. Chávez Guerrero, D. S. Gutiérrez Carvajal, and L. B. Santos Rivas, “Manejo de emergencias en traumatología,” Polo del conocimiento, vol. 8, no. 4, pp. 2392–2414, 2023. [Online]. Available: <underline>https://upsalesiana.ec/ing35ar2r1</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>Manejo de emergencias en traumatología</article-title>
<source>Polo del conocimiento</source>
<volume>8</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://upsalesiana.ec/ing35ar2r1">https://upsalesiana.ec/ing35ar2r1</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref2">
<label>[2]</label>
<mixed-citation publication-type="journal">[2] E. M. Bitar Benítez, S. Gaviria Posada, N. d. León Fernández, and S. Gallego Gónima, “Epidemiología del trauma de miembro superior atendido en seis instituciones de salud de la ciudad de medellín, colombia, en 2016,” Cirugía Plástica Ibero-Latinoamericana, vol. 47, no. 3, pp. 323–332, Sep. 2021. [Online]. Available: <underline>https://dx.doi.org/10.4321/s0376-78922021000300014</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>Epidemiología del trauma de miembro superior atendido en seis instituciones de salud de la ciudad de medellín, colombia, en 2016</article-title>
<source>Cirugía Plástica Ibero-Latinoamericana</source>
<volume>47</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://dx.doi.org/10.4321/s0376-78922021000300014">https://dx.doi.org/10.4321/s0376-78922021000300014</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref3">
<label>[3]</label>
<mixed-citation publication-type="journal">[3] Y. Xie, X. Li, F. Chen, R. Wen, Y. Jing, C. Liu, and J. Wang, “Artificial intelligence diagnostic model for multi-site fracture x-ray images of extremities based on deep convolutional neural networks,” Quantitative Imaging in Medicine and Surgery, vol. 14, no. 2, pp. 1930–1943, Feb. 2024. [Online]. Available: <underline>https://dx.doi.org/10.21037/qims-23-878</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>Artificial intelligence diagnostic model for multi-site fracture x-ray images of extremities based on deep convolutional neural networks</article-title>
<source>Quantitative Imaging in Medicine and Surgery</source>
<volume>14</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://dx.doi.org/10.21037/qims-23-878">https://dx.doi.org/10.21037/qims-23-878</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref4">
<label>[4]</label>
<mixed-citation publication-type="report">[4] A. Said, T. D. M. Abbas Al-Adilee, and P. Rajeswari, “Enhancing bone fracture diagnosis with deep learning,” in Conference: 5th International Conference on Data Engineering and Communication Technology (ICDECT)At: Kuala Lumpur, Malaysia, 09 2024. [Online]. Available: <underline>https://upsalesiana.ec/ing35ar2r4</underline>
</mixed-citation>
<element-citation publication-type="report">
<article-title>Enhancing bone fracture diagnosis with deep learning</article-title>
<source>Conference: 5th International Conference on Data Engineering and Communication Technology (ICDECT)</source>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://upsalesiana.ec/ing35ar2r4">https://upsalesiana.ec/ing35ar2r4</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref5">
<label>[5]</label>
<mixed-citation publication-type="report">[5] Z. Alammar, L. Alzubaidi, J. Zhang, J. Santamaría, Y. Li, and Y. Gu, “A concise review on deep learning for musculoskeletal x-ray images,” in 2022 International Conference on Digital Image Computing: Techniques and Applications (DICTA). IEEE, Nov. 2022, pp. 1–8. [Online]. Available: <underline>https://doi.org/10.1109/DICTA56598.2022.10034618</underline>
</mixed-citation>
<element-citation publication-type="report">
<article-title>A concise review on deep learning for musculoskeletal x-ray images</article-title>
<source>International Conference on Digital Image Computing: Techniques and Applications (DICTA).</source>
<fpage>1</fpage>
<lpage>8</lpage>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1109/DICTA56598.2022.10034618">https://doi.org/10.1109/DICTA56598.2022.10034618</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref6">
<label>[6]</label>
<mixed-citation publication-type="journal">[6] A. Pérez del Barrio, P. Menéndez Fernández-Miranda, P. Sanz Bellón, L. Lloret Iglesias, and D. Rodríguez González, “Inteligencia artificial en radiología: introducción a los conceptos más importantes,” Radiología, vol. 64, no. 3, pp. 228–236, May 2022. [Online]. Available: <underline>https://doi.org/10.1016/j.rx.2022.03.003</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>Inteligencia artificial en radiología: introducción a los conceptos más importantes</article-title>
<source>Radiología</source>
<volume>64</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.rx.2022.03.003">https://doi.org/10.1016/j.rx.2022.03.003</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref7">
<label>[7]</label>
<mixed-citation publication-type="journal">[7] J. D. Maravilla González, “Integración de la inteligencia artificial en la contabilidad forense: Herramientas y eficacia en la detección de fraudes: Integration of artificial intelligence in forensic accounting: Tools and effectiveness in fraud detection,” LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, vol. 5, no. 4, Aug. 2024. [Online]. Available: <underline>https://doi.org/10.56712/latam.v5i4.2460</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>Integración de la inteligencia artificial en la contabilidad forense: Herramientas y eficacia en la detección de fraudes: Integration of artificial intelligence in forensic accounting: Tools and effectiveness in fraud detection</article-title>
<source>LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades</source>
<volume>5</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.56712/latam.v5i4.2460">https://doi.org/10.56712/latam.v5i4.2460</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref8">
<label>[8]</label>
<mixed-citation publication-type="journal">[8] S. C. Medaramatla, C. V. Samhitha, S. D. Pande, and S. R. Vinta, “Detection of hand bone fractures in x-ray images using hybrid yolo nas,” IEEE Access, vol. 12, pp. 57 661–57 673, 2024. [Online]. Available: <underline>https://doi.org/10.1109/ACCESS.2024.3379760</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>Detection of hand bone fractures in x-ray images using hybrid yolo nas</article-title>
<source>IEEE Access</source>
<volume>12</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1109/ACCESS.2024.3379760">https://doi.org/10.1109/ACCESS.2024.3379760</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref9">
<label>[9]</label>
<mixed-citation publication-type="report">[9] J. Wang, “Anomaly detection of arm x-ray based on deep learning,” IOP Conference Series: Earth and Environmental Science, vol. 440, no. 4, p. 042056, Feb. 2020. [Online]. Available: <underline>https://doi.org/10.1088/1755-1315/440/4/042056</underline>
</mixed-citation>
<element-citation publication-type="report">
<article-title>Anomaly detection of arm x-ray based on deep learning</article-title>
<source>IOP Conference Series: Earth and Environmental Science</source>
<volume>440</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1088/1755-1315/440/4/042056">https://doi.org/10.1088/1755-1315/440/4/042056</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref10">
<label>[10]</label>
<mixed-citation publication-type="journal">[10] B. Guan, G. Zhang, J. Yao, X. Wang, and M. Wang, “Arm fracture detection in x-rays based on improved deep convolutional neural network,” Computers &amp; Electrical Engineering, vol. 81, p. 106530, Jan. 2020. [Online]. Available: <underline>https://doi.org/10.1016/j.compeleceng.2019.106530</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>Arm fracture detection in x-rays based on improved deep convolutional neural network</article-title>
<source>Computers &amp; Electrical Engineering</source>
<volume>81</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.compeleceng.2019.106530">https://doi.org/10.1016/j.compeleceng.2019.106530</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref11">
<label>[11]</label>
<mixed-citation publication-type="journal">[11] A. Pak, A. Ziyaden, K. Tukeshev, A. Jaxylykova, and D. Abdullina, “Comparative analysis of deep learning methods of detection of diabetic retinopathy,” Cogent Engineering, vol. 7, no. 1, Jan. 2020. [Online]. Available: <underline>https://doi.org/10.1080/23311916.2020.1805144</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>Comparative analysis of deep learning methods of detection of diabetic retinopathy</article-title>
<source>Cogent Engineering</source>
<volume>7</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1080/23311916.2020.1805144">https://doi.org/10.1080/23311916.2020.1805144</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref12">
<label>[12]</label>
<mixed-citation publication-type="journal">[12] M. A. Thaarakaraam, M. M. Reddy, and V. Vijayakumar, “Cnn based bone fracture detection for medical imaging using resnet-50,” International Journal of Technical Research &amp; Science, vol. 9, no. Spl, pp. 27–35, Jun. 2024. [Online]. Available: <underline>https://doi.org/10.30780/specialissue-iset-2024/038</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>Cnn based bone fracture detection for medical imaging using resnet-50</article-title>
<source>International Journal of Technical Research &amp; Science</source>
<volume>9</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.30780/specialissue-iset-2024/038">https://doi.org/10.30780/specialissue-iset-2024/038</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref13">
<label>[13]</label>
<mixed-citation publication-type="journal">[13] Z. Li, T. Gu, B. Li, W. Xu, X. He, and X. Hui, “Convnext-based fine-grained image classification and bilinear attention mechanism model,” Applied Sciences, vol. 12, no. 18, p. 9016, Sep. 2022. [Online]. Available: <underline>https://doi.org/10.3390/app12189016</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>Convnext-based fine-grained image classification and bilinear attention mechanism model</article-title>
<source>Applied Sciences</source>
<volume>12</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.3390/app12189016">https://doi.org/10.3390/app12189016</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref14">
<label>[14]</label>
<mixed-citation publication-type="journal">[14] C. A. Mejia Rodriguez, M. A. Rincon Pinzon, L. M. Palmera Quintero, and L. M. Arevalo Vergel, “Aplicación de machine learning y metodología crisp-dm para la clasificación precisa de severidad en casos de dengue,” REVISTA COLOMBIANA DE TECNOLOGIAS DE AVANZADA (RCTA), vol. 1, no. 43, pp. 78–85, Mar. 2024. [Online]. Available: <underline>https://doi.org/10.24054/rcta.v1i43.2822</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>Aplicación de machine learning y metodología crisp-dm para la clasificación precisa de severidad en casos de dengue</article-title>
<source>REVISTA COLOMBIANA DE TECNOLOGIAS DE AVANZADA (RCTA)</source>
<volume>1</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.24054/rcta.v1i43.2822">https://doi.org/10.24054/rcta.v1i43.2822</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref15">
<label>[15]</label>
<mixed-citation publication-type="journal">[15] C. Schröer, F. Kruse, and J. M. Gómez, “A systematic literature review on applying crisp-dm process model,” Procedia Computer Science, vol. 181, pp. 526–534, 2021. [Online]. Available: <underline>https://doi.org/10.1016/j.procs.2021.01.199</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>A systematic literature review on applying crisp-dm process model</article-title>
<source>Procedia Computer Science</source>
<volume>181</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.procs.2021.01.199">https://doi.org/10.1016/j.procs.2021.01.199</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref16">
<label>[16]</label>
<mixed-citation publication-type="report">[16] D. Dzulhijjah, M. Herlambang, and M. Haifan, “Implementasi framework crisp-dm untuk proses data mining aplikasi credit scoring pt. xyz,” in Seminar Nasional Sains dan Teknologi "SainTek", 06 2024. [Online]. Available: <underline>https://upsalesiana.ec/ing35ar2r16</underline>
</mixed-citation>
<element-citation publication-type="report">
<article-title>Implementasi framework crisp-dm untuk proses data mining aplikasi credit scoring pt. xyz</article-title>
<source>Seminar Nasional Sains dan Teknologi "SainTek"</source>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://upsalesiana.ec/ing35ar2r16">https://upsalesiana.ec/ing35ar2r16</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref17">
<label>[17]</label>
<mixed-citation publication-type="journal">[17] V. Garcia-Rios, M. Marres-Salhuana, F. Sierra Liñan, and M. Cabanillas-Carbonell, “Predictive machine learning applying cross industry standard process for data mining for the diagnosis of diabetes mellitus type 2,” IAES International Journal of Artificial Intelligence (IJ-AI), vol. 12, no. 4, p. 1713, Dec. 2023. [Online]. Available: <underline>https://doi.org/10.11591/ijai.v12.i4.pp1713-1726</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>Predictive machine learning applying cross industry standard process for data mining for the diagnosis of diabetes mellitus type 2</article-title>
<source>IAES International Journal of Artificial Intelligence (IJ-AI)</source>
<volume>12</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.11591/ijai.v12.i4.pp1713-1726">https://doi.org/10.11591/ijai.v12.i4.pp1713-1726</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref18">
<label>[18]</label>
<mixed-citation publication-type="report">[18] G. Emmanuel, G. G. Hungilo, and A. W. R. Emanuel, “Performance evaluation of machine learning classification techniques for diabetes disease,” IOP Conference Series: Materials Science and Engineering, vol. 1098, no. 5, p.052082, Mar. 2021. [Online]. Available: <underline>https://doi.org/10.1088/1757-899X/1098/5/052082</underline>
</mixed-citation>
<element-citation publication-type="report">
<article-title>Performance evaluation of machine learning classification techniques for diabetes disease</article-title>
<source>IOP Conference Series: Materials Science and Engineering</source>
<volume>1098</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1088/1757-899X/1098/5/052082">https://doi.org/10.1088/1757-899X/1098/5/052082</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref19">
<label>[19]</label>
<mixed-citation publication-type="journal">[19] E. B. N. Arias, Beatríz M. González Nuñez, Lisset Nonell Fernández, and J. M. R. Pupo, “CRISP-DM y K-means neutrosofía en el análisis de factores de riesgo de pérdida de audición en niños,” Neutrosophic Computing and Machine Learning, vol. 16, p. 73, 2021. [Online]. Available: <underline>https://doi.org/10.5281/zenodo.4679890</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>CRISP-DM y K-means neutrosofía en el análisis de factores de riesgo de pérdida de audición en niños</article-title>
<source>Neutrosophic Computing and Machine Learning</source>
<volume>16</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.5281/zenodo.4679890">https://doi.org/10.5281/zenodo.4679890</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref20">
<label>[20]</label>
<mixed-citation publication-type="report">[20] ML Group. (2025) Bone x-ray deep learning competition. Stanford ML Group. [Online]. Available: <underline>https://upsalesiana.ec/ing35ar2r20</underline>
</mixed-citation>
<element-citation publication-type="report">
<person-group person-group-type="author">
<collab>ML Group</collab>
</person-group>
<article-title>Bone x-ray deep learning competition</article-title>
<source>[20] ML Group. (2025) Bone x-ray deep learning competition. Stanford ML Group. [Online]. Available: https://upsalesiana.ec/ing35ar2r20</source>
<year>2025</year>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://upsalesiana.ec/ing35ar2r20">https://upsalesiana.ec/ing35ar2r20</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref21">
<label>[21]</label>
<mixed-citation publication-type="journal">[21] I. Kandel and M. Castelli, “Improving convolutional neural networks performance for image classification using test time augmentation: a case study using mura dataset,” Health Information Science and Systems, vol. 9, no. 1, Jul. 2021. [Online]. Available: <underline>https://doi.org/10.1007/s13755-021-00163-7</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>Improving convolutional neural networks performance for image classification using test time augmentation: a case study using mura dataset</article-title>
<source>Health Information Science and Systems</source>
<volume>9</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/s13755-021-00163-7">https://doi.org/10.1007/s13755-021-00163-7</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref22">
<label>[22]</label>
<mixed-citation publication-type="journal">[22] K. Dlshad Ahmed and R. Hawezi, “Detection of bone fracture based on machine learning techniques,” Measurement: Sensors, vol. 27, p. 100723, Jun. 2023. [Online]. Available: <underline>https://doi.org/10.1016/j.measen.2023.100723</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>Detection of bone fracture based on machine learning techniques</article-title>
<source>Measurement: Sensors</source>
<volume>27</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.measen.2023.100723">https://doi.org/10.1016/j.measen.2023.100723</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref23">
<label>[23]</label>
<mixed-citation publication-type="report">[23] P. Rajpurkar, J. Irvin, A. Bagul, D. Ding, T. Duan, H. Mehta, B. Yang, K. Zhu, D. Laird, R. L. Ball, C. Langlotz, K. Shpanskaya, M. P. Lungren, and A. Y. Ng, “MURA: Large Dataset for Abnormality Detection in Musculoskeletal Radiographs,” in Proceedings of the 1st Conference on Medical Imaging with Deep Learning (MIDL). arXiv, 2017. [Online]. Available: <underline>https://doi.org/10.48550/arXiv.1712.06957</underline>
</mixed-citation>
<element-citation publication-type="report">
<article-title>MURA: Large Dataset for Abnormality Detection in Musculoskeletal Radiographs</article-title>
<source>Proceedings of the 1st Conference on Medical Imaging with Deep Learning (MIDL).</source>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.48550/arXiv.1712.06957">https://doi.org/10.48550/arXiv.1712.06957</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref24">
<label>[24]</label>
<mixed-citation publication-type="journal">[24] R. Archana and P. S. E. Jeevaraj, “Deep learning models for digital image processing: a review,” Artificial Intelligence Review, vol. 57, no. 1, Jan. 2024. [Online]. Available: <underline>https://doi.org/10.1007/s10462-023-10631-z</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>Deep learning models for digital image processing: a review</article-title>
<source>Artificial Intelligence Review</source>
<volume>57</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/s10462-023-10631-z">https://doi.org/10.1007/s10462-023-10631-z</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref25">
<label>[25]</label>
<mixed-citation publication-type="journal">[25] P. Pandey, R. Gupta, and N. Goel, “Comprehensive review of single image defogging techniques: enhancement, prior, and learning based approaches,” Artificial Intelligence Review, vol. 58, no. 4, Jan. 2025. [Online]. Available: <underline>https://doi.org/10.1007/s10462-024-11034-4</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>Comprehensive review of single image defogging techniques: enhancement, prior, and learning based approaches</article-title>
<source>Artificial Intelligence Review</source>
<volume>58</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/s10462-024-11034-4">https://doi.org/10.1007/s10462-024-11034-4</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref26">
<label>[26]</label>
<mixed-citation publication-type="journal">[26] P. A C, L. S, and M. Somashekara, “An improve method for reconstruction and enhancing dar images based on clahe,” International Researc Journal on Advanced Science Hub, vol. 5 no. 02, pp. 40–46, Feb. 2023. [Online]. Available <underline>https://doi.org/10.47392/irjash.2023.011</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>An improve method for reconstruction and enhancing dar images based on clahe</article-title>
<source>International Researc Journal on Advanced Science Hub</source>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.47392/irjash.2023.011">https://doi.org/10.47392/irjash.2023.011</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref27">
<label>[27]</label>
<mixed-citation publication-type="journal">[27] X. Liu, Comparison of Four Convolutiona Neural Network-Based Algorithms for Sport Image Classification. Atlantis Press Internationa BV, 2024, pp. 178–186. [Online]. Available: <underline>https://doi.org/10.2991/978-94-6463-370-2_20</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>Comparison of Four Convolutiona Neural Network-Based Algorithms for Sport Image Classification</article-title>
<source>Atlantis Press Internationa BV</source>
<fpage>178</fpage>
<lpage>186</lpage>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.2991/978-94-6463-370-2_20">https://doi.org/10.2991/978-94-6463-370-2_20</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref28">
<label>[28]</label>
<mixed-citation publication-type="book">[28] E. Riba, D. Mishkin, D. Ponsa, E. Rublee and G. Bradski, “Kornia: an open sourc differentiable computer vision library for pytorch, in Proceedings of the IEEE/CVF Winte Conference on Applications of Computer Visio (WACV). arXiv, 2019. [Online]. Available: <underline>https://doi.org/10.48550/arXiv.1910.02190</underline>
</mixed-citation>
<element-citation publication-type="book">
<article-title>Kornia: an open sourc differentiable computer vision library for pytorch, in Proceedings of the IEEE/CVF Winte Conference on Applications of Computer Visio (WACV). arXiv, 2019</article-title>
<source>[28] E. Riba, D. Mishkin, D. Ponsa, E. Rublee and G. Bradski, “Kornia: an open sourc differentiable computer vision library for pytorch, in Proceedings of the IEEE/CVF Winte Conference on Applications of Computer Visio (WACV). arXiv, 2019. [Online]. Available: https://doi.org/10.48550/arXiv.1910.02190</source>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.48550/arXiv.1910.02190">https://doi.org/10.48550/arXiv.1910.02190</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref29">
<label>[29]</label>
<mixed-citation publication-type="journal">[29] R. Connor, A. Dearle, B. Claydon, and L. Vadicamo, “Correlations of cross-entropy loss in machine learning,” Entropy, vol. 26, no. 6, p. 491, Jun. 2024. [Online]. Available: <underline>https://doi.org/10.3390/e26060491</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>Correlations of cross-entropy loss in machine learning</article-title>
<source>Entropy</source>
<volume>26</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.3390/e26060491">https://doi.org/10.3390/e26060491</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref30">
<label>[30]</label>
<mixed-citation publication-type="journal">[30] M. Dörrich, M. Fan, and A. M. Kist, “Impact of mixed precision techniques on training and inference efficiency of deep neural networks,” IEEE Access, vol. 11, pp. 57 627–57 634, 2023. [Online]. Available: <underline>https://doi.org/10.1109/ACCESS.2023.3284388</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>Impact of mixed precision techniques on training and inference efficiency of deep neural networks</article-title>
<source>IEEE Access</source>
<volume>11</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1109/ACCESS.2023.3284388">https://doi.org/10.1109/ACCESS.2023.3284388</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref31">
<label>[31]</label>
<mixed-citation publication-type="report">[31] A. Thakur, H. Chauhan, and N. Gupta, “Efficient resnets: Residual network design,” in NYU Tandon School of Engineering, Tech. Rep. arXiv, 2023. [Online]. Available: <underline>https://doi.org/10.48550/arXiv.2306.12100</underline>
</mixed-citation>
<element-citation publication-type="report">
<article-title>Efficient resnets: Residual network design</article-title>
<source>NYU Tandon School of Engineering, Tech. Rep. arXiv, 2023.</source>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.48550/arXiv.2306.12100">https://doi.org/10.48550/arXiv.2306.12100</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref32">
<label>[32]</label>
<mixed-citation publication-type="journal">[32] G. Fang, Y. Dai, Z. Lin, C. Zhou, J. Song, Y. Gu, X. Guo, A. Mao, and X. Kong, “An efficient unsupervised classification model for galaxy morphology: Voting clustering based on coding from convnext large model,” Astronomy &amp; Astrophysics, vol. 693, p. A141, Jan. 2025. [Online]. Available: <underline>https://doi.org/10.1051/0004-6361/202451734</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>An efficient unsupervised classification model for galaxy morphology: Voting clustering based on coding from convnext large model,</article-title>
<source>Astronomy &amp; Astrophysics</source>
<volume>693</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1051/0004-6361/202451734">https://doi.org/10.1051/0004-6361/202451734</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref33">
<label>[33]</label>
<mixed-citation publication-type="journal">[33] A. Anaya-Isaza, L. Mera-Jiménez, and M. Zequera-Diaz, “An overview of deep learning in medical imaging,” Informatics in Medicine Unlocked, vol. 26, p. 100723, 2021. [Online]. Available: <underline>https://doi.org/10.1016/j.imu.2021.100723</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>An overview of deep learning in medical imaging</article-title>
<source>Informatics in Medicine Unlocked</source>
<volume>26</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.imu.2021.100723">https://doi.org/10.1016/j.imu.2021.100723</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref34">
<label>[34]</label>
<mixed-citation publication-type="journal">[34] A. A. Mustapha and M. S. Yoosuf, “Exploring the efficacy and comparative analysis of one-stage object detectors for computer vision: a review,” Multimedia Tools and Applications, vol. 83, no. 20, pp. 59 143–59 168, Dec. 2023. [Online]. Available: <underline>https://doi.org/10.1007/s11042-023-17751-2</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>Exploring the efficacy and comparative analysis of one-stage object detectors for computer vision: a review</article-title>
<source>Multimedia Tools and Applications</source>
<volume>83</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/s11042-023-17751-2">https://doi.org/10.1007/s11042-023-17751-2</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref35">
<label>[35]</label>
<mixed-citation publication-type="report">[35] Y. Nakamura, Y. Ishii, Y. Maruyama, and T. Yamashita, “Few-shot adaptive object detection with cross-domain cutmix,” in Proceedings of the European Conference on Computer Vision (ECCV). arXiv, 2022. [Online]. Available: <underline>https://doi.org/10.48550/arXiv.2208.14586</underline>
</mixed-citation>
<element-citation publication-type="report">
<article-title>Few-shot adaptive object detection with cross-domain cutmix</article-title>
<source>Proceedings of the European Conference on Computer Vision (ECCV). arXiv, 2022.</source>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.48550/arXiv.2208.14586">https://doi.org/10.48550/arXiv.2208.14586</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref36">
<label>[36]</label>
<mixed-citation publication-type="journal">[36] M. T. Mora Cabral, R. G. Camero Berrones, and M. D. Arriaga Pons, “Modelo de identificación espacial de patrones de referencia empleando redes neuronales convolucionales (cnn) y entrenamiento por lotes,” Revista de investigación multidisiplinaria, Iberoamericana, no. 4, Dec. 2024. [Online]. Available: <underline>https://doi.org/10.69850/rimi.vi4.125</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>Modelo de identificación espacial de patrones de referencia empleando redes neuronales convolucionales (cnn) y entrenamiento por lotes</article-title>
<source>Revista de investigación multidisiplinaria, Iberoamericana</source>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.69850/rimi.vi4.125">https://doi.org/10.69850/rimi.vi4.125</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref37">
<label>[37]</label>
<mixed-citation publication-type="journal">[37] A. Verma and B. Meenpal, T. andAcharya, “Computational cost reduction of convolution neural networks by insignificant filter removal,” Journal of Information Science and Technology, vol. 25, no. 2, pp. 150–165, 2022. [Online]. Available: <underline>https://upsalesiana.ec/ing35ar2r37</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>Computational cost reduction of convolution neural networks by insignificant filter removal</article-title>
<source>Journal of Information Science and Technolog</source>
<volume>25</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://upsalesiana.ec/ing35ar2r37">https://upsalesiana.ec/ing35ar2r37</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref38">
<label>[38]</label>
<mixed-citation publication-type="report">[38] C. Guo, R. Zhang, J. Xu, J. Leng, Z. Liu, Z. Huang, M. Guo, H. Wu, S. Zhao, J. Zhao, and K. Zhang, “Gmlake: Efficient and transparent gpu memory defragmentation for large-scale dnn training with virtual memory stitching,” in arXiv preprint. arXiv, 2024. [Online]. Available: <underline>https://doi.org/10.48550/arXiv.2401.08156</underline>
</mixed-citation>
<element-citation publication-type="report">
<article-title>Gmlake: Efficient and transparent gpu memory defragmentation for large-scale dnn training with virtual memory stitching</article-title>
<source>[38] C. Guo, R. Zhang, J. Xu, J. Leng, Z. Liu, Z. Huang, M. Guo, H. Wu, S. Zhao, J. Zhao, and K. Zhang, “Gmlake: Efficient and transparent gpu memory defragmentation for large-scale dnn training with virtual memory stitching,” in arXiv preprint. arXiv, 2024. [Online]. Available: https://doi.org/10.48550/arXiv.2401.08156</source>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.48550/arXiv.2401.08156">https://doi.org/10.48550/arXiv.2401.08156</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref39">
<label>[39]</label>
<mixed-citation publication-type="journal">[39] V. D. Gil-Vera and C. Seguro-Gallego, “Machine learning aplicado al análisis del rendimiento de desarrollos de software,” Revista Politécnica, vol. 18, no. 35, pp. 128–139, Apr. 2022. [Online]. Available: <underline>https://doi.org/10.33571/rpolitec.v18n35a9</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>Machine learning aplicado al análisis del rendimiento de desarrollos de software</article-title>
<source>Revista Politécnica</source>
<volume>18</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.33571/rpolitec.v18n35a9">https://doi.org/10.33571/rpolitec.v18n35a9</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref40">
<label>[40]</label>
<mixed-citation publication-type="journal">[40] F. D. Valle-Medina, L. J. Castillo-Heredia, M. A. Correa-Peralta, and J. E. Guzmán-Seraquive, “Clasificación de enfermedades en hojas de papa utilizando transformadores de visión,” Novasinergia Revista digital de Ciencia, Ingeniería y Tecnología, vol. 8, no. 1, pp. 142–156, Jan. 2025. [Online]. Available: <underline>https://doi.org/10.37135/ns.01.15.06</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>Clasificación de enfermedades en hojas de papa utilizando transformadores de visión</article-title>
<source>Novasinergia Revista digital de Ciencia, Ingeniería y Tecnología</source>
<volume>8</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.37135/ns.01.15.06">https://doi.org/10.37135/ns.01.15.06</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref41">
<label>[41]</label>
<mixed-citation publication-type="journal">[41] M. Ihme, W. T. Chung, and A. A. Mishra, “Combustion machine learning: Principles, progress and prospects,” Progress in Energy and Combustion Science, vol. 91, p. 101010, Jul. 2022. [Online]. Available: <underline>https://doi.org/10.1016/j.pecs.2022.101010</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>Combustion machine learning: Principles, progress and prospects</article-title>
<source>Progress in Energy and Combustion Science</source>
<volume>91</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.pecs.2022.101010">https://doi.org/10.1016/j.pecs.2022.101010</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref42">
<label>[42]</label>
<mixed-citation publication-type="journal">[42] D. Patiño-Pérez, L. Armijos-Valarezo, L. Chóez- Acosta, and F. Burgos-Robalino, “Convolutional neural networks for diabetic retinopathy detection,” Ingenius, no. 33, pp. 91–101, Mar. 2025. [Online]. Available: <underline>https://doi.org/10.17163/ings.n33.2025.08</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>Convolutional neural networks for diabetic retinopathy detection</article-title>
<source>Ingenius</source>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.17163/ings.n33.2025.08">https://doi.org/10.17163/ings.n33.2025.08</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref43">
<label>[43]</label>
<mixed-citation publication-type="journal">[43] G. Bauce and M. Moya-Sifontes, “Análisis de la curva ROC en la evaluación de indicadores antropométricos,” Revista Digital de Postgrado, vol. 11, no. 1, Aug. 2021. [Online]. Available: <underline>https://doi.org/10.37910/RDP.2022.11.1.e333</underline>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>Análisis de la curva ROC en la evaluación de indicadores antropométricos</article-title>
<source>Revista Digital de Postgrado</source>
<volume>11</volume>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.37910/RDP.2022.11.1.e333">https://doi.org/10.37910/RDP.2022.11.1.e333</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_505583422012_ref44">
<label>[44]</label>
<mixed-citation publication-type="report">[44] G. B. Jaén Armijos, “Clasificadorfracturasextremidadessuperiores,” Github, oct 2025, gitHub repository. [Online]. Available: <underline>https://upsalesiana.ec/ing35ar2r44</underline>
</mixed-citation>
<element-citation publication-type="report">
<article-title>Clasificadorfracturasextremidadessuperiores</article-title>
<source>Github</source>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://upsalesiana.ec/ing35ar2r44">https://upsalesiana.ec/ing35ar2r44</ext-link>
</comment>
</element-citation>
</ref>
</ref-list>
</back>
</article>