<?xml version="1.0" encoding="utf-8"?>
<!DOCTYPE article
  PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.0 20120330//EN" "http://jats.nlm.nih.gov/publishing/1.0/JATS-journalpublishing1.dtd">
<article article-type="research-article" dtd-version="1.0" specific-use="sps-1.8" xml:lang="es" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink">
	<front>
		<journal-meta>
			<journal-id journal-id-type="publisher-id">rfing</journal-id>
			<journal-title-group>
				<journal-title>Revista Facultad de Ingeniería</journal-title>
				<abbrev-journal-title abbrev-type="publisher">Rev. Fac. ing.</abbrev-journal-title>
			</journal-title-group>
			<issn pub-type="ppub">0121-1129</issn>
			<issn pub-type="epub">2357-5328</issn>
			<publisher>
				<publisher-name>Universidad Pedagógica y Tecnológica de Colombia</publisher-name>
			</publisher>
		</journal-meta>
		<article-meta>
			<article-id pub-id-type="doi">10.19053/01211129.v33.n69.2024.17473</article-id>
			<article-id pub-id-type="publisher-id">00009</article-id>
			<article-categories>
				<subj-group subj-group-type="heading">
					<subject>Artículos</subject>
				</subj-group>
			</article-categories>
			<title-group>
				<article-title>CERRANDO LA BRECHA COMUNICATIVA MEDIANTE EL APRENDIZAJE AUTOMÁTICO CON UNA HERRAMIENTA LINGÜÍSTICA PARA PERSONAS SORDAS</article-title>
				<trans-title-group xml:lang="en">
					<trans-title>Machine Learning Used to Close the Communication Gap through a Linguistic Tool for Deaf People</trans-title>
				</trans-title-group>
			</title-group>
			<contrib-group>
				<contrib contrib-type="author">
					<contrib-id contrib-id-type="orcid">0009-0002-3041-7600</contrib-id>
					<name>
						<surname>Silva-Joaqui</surname>
						<given-names>Manuel-Francisco</given-names>
					</name>
					<xref ref-type="aff" rid="aff1"><sup>1</sup></xref>
				</contrib>
				<contrib contrib-type="author">
					<contrib-id contrib-id-type="orcid">0000-0002-4571-0714</contrib-id>
					<name>
						<surname>Márceles-Villalba</surname>
						<given-names>Katerine</given-names>
					</name>
					<xref ref-type="aff" rid="aff2"><sup>2</sup></xref>
				</contrib>
				<contrib contrib-type="author">
					<contrib-id contrib-id-type="orcid">0000-0002-4571-8273</contrib-id>
					<name>
						<surname>Amador-Donado</surname>
						<given-names>Siler</given-names>
					</name>
					<xref ref-type="aff" rid="aff3"><sup>3</sup></xref>
				</contrib>
			</contrib-group>
			<aff id="aff1">
				<label>1</label>
				<institution content-type="original">Institución Universitaria Colegio Mayor del Cauca (Popayán-Cauca, Colombia). mfsilva@unimayor.edu.co</institution>
				<institution content-type="normalized">Colegio Mayor del Cauca</institution>
				<institution content-type="orgname">Colegio Mayor del Cauca</institution>
				<addr-line>
					<named-content content-type="city">Popayán</named-content>
                        <named-content content-type="state">Cauca</named-content>
				</addr-line>
				<country country="CO">Colombia</country>
				<email>mfsilva@unimayor.edu.co</email>
			</aff>
			<aff id="aff2">
				<label>2</label>
				<institution content-type="original">Mg. Universidad de Antioquia (Medellín-Antioquia, Colombia). Katerine.marceles@udea.edu.co</institution>
				<institution content-type="normalized">Universidad de Antioquia</institution>
				<institution content-type="orgname">Universidad de Antioquia</institution>
				<addr-line>
					<named-content content-type="city">Medellín</named-content>
                        <named-content content-type="state">Antioquia</named-content>
				</addr-line>
				<country country="CO">Colombia</country>
				<email>Katerine.marceles@udea.edu.co</email>
			</aff>
			<aff id="aff3">
				<label>3</label>
				<institution content-type="original">PhD (c). Universidad del Cauca (Popayán-Cauca, Colombia). samador@unicauca.edu.co</institution>
				<institution content-type="normalized">Universidad del Cauca</institution>
				<institution content-type="orgname">Universidad del Cauca</institution>
				<addr-line>
					<named-content content-type="city">Popayán</named-content>
                        <named-content content-type="state">Cauca</named-content>
				</addr-line>
				<country country="CO">Colombia</country>
				<email>samador@unicauca.edu.co</email>
			</aff>
			<author-notes>
				<fn fn-type="other" id="fn1">
					<p>Esta edición se financió con recursos del Patrimonio Autónomo Fondo Nacional de Financiamiento para la Ciencia, la Tecnología y la Innovación, Francisco José de Caldas, Minciencias</p>
				</fn>
				<fn fn-type="conflict" id="fn4">
					<label>CONFICTO DE INTERESES</label>
					<p> No se presenta ningún conflicto de interés.</p>
				</fn>
			</author-notes>
			<!--<pub-date date-type="pub" publication-format="electronic">
				<day>29</day>
				<month>08</month>
				<year>2024</year>
			</pub-date>
			<pub-date date-type="collection" publication-format="electronic">
				<month>09</month>
				<year>2024</year>
			</pub-date>-->
			<pub-date pub-type="epub">
				<month>09</month>
				<year>2024</year>
			</pub-date>
			<volume>33</volume>
			<issue>69</issue>
			<elocation-id>e17473</elocation-id>
			<history>
				<date date-type="received">
					<day>10</day>
					<month>03</month>
					<year>2024</year>
				</date>
				<date date-type="accepted">
					<day>03</day>
					<month>07</month>
					<year>2024</year>
				</date>
			</history>
			<permissions>
				<license license-type="open-access" xlink:href="https://creativecommons.org/licenses/by/4.0/" xml:lang="es">
					<license-p>Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons</license-p>
				</license>
			</permissions>
			<abstract>
				<title>RESUMEN</title>
				<p>En la actualidad, existe una gran variedad de recursos y herramientas en internet para la integración de inteligencia artificial en proyectos relacionados con el lenguaje. Este artículo propone el uso de aprendizaje automático para abordar y reducir la brecha comunicacional entre personas oyentes y personas sordas que utilizan la lengua de señas como forma de comunicación. Con este objetivo, se empleó la herramienta Edge Impulse, la cual facilita la implementación de modelos de aprendizaje automático en dispositivos móviles.</p>
				<p>El proyecto SinSeñas2.0 surgió como una respuesta a esta necesidad y se basa en la metodología de Programación Extrema (XP) para entender las necesidades del usuario y ofrecer una solución efectiva. Se recopiló un dataset (conjunto de datos) de 3102 imágenes de señas colombianas, que fue dividido en 80% para entrenamiento y 20% para pruebas. Se utilizaron redes neuronales convolucionales (CNN) y técnicas de aprendizaje profundo para entrenar el modelo, lo cual permitió mejorar la precisión en el reconocimiento de las señas.</p>
				<p>Los resultados mostraron que la configuración 1 del modelo, con una precisión del 99% y una pérdida del 0.03%, era la más efectiva. Esta configuración utilizó un tamaño de entrada de 96x96 y empleó transfer learning con la red neuronal MobileNet V2. La herramienta también incluyó técnicas de aumento de datos para crear un dataset balanceado y diversificado, mejorando así la robustez del modelo frente a diferentes condiciones de captura.</p>
				<p>La investigación demuestra que SinSeñas2.0 mejora significativamente la precisión y eficiencia del reconocimiento de la lengua de señas en comparación con enfoques anteriores que no utilizaban aprendizaje automático. Este avance no solo facilita la comunicación entre personas oyentes y sordas, sino que también representa un aporte significativo en la tecnología de traducción de la lengua de señas, promoviendo la inclusión social de las personas sordas.</p>
			</abstract>
			<trans-abstract xml:lang="en">
				<title>ABSTRACT</title>
				<p>Currently, there is a wide variety of resources and tools on the internet for integrating artificial intelligence into language-related projects. This article proposes the use of machine learning to address and reduce the communication gap between hearing people and deaf people who use sign language as a form of communication. For this purpose, the Edge Impulse tool, which facilitates the implementation of machine learning models on mobile devices, was employed.</p>
				<p>The SinSeñas2.0 project emerged as a response to this need and is based on the Extreme Programming (XP) methodology to understand user needs and offer an effective solution. A dataset of 3102 images of Colombian signs was collected, divided into 80% for training and 20% for testing. Convolutional neural networks (CNN) and deep learning techniques were used to train the model, which improved the accuracy in recognizing signs.</p>
				<p>The results showed that model configuration 1, with an accuracy of 99% and a loss of 0.03%, was the most effective. This configuration used an input size of 96x96 and employed transfer learning with the MobileNet V2 neural network. The tool also included data augmentation techniques to create a balanced and diversified dataset, thereby improving the model's robustness against different capture conditions.</p>
				<p>The research demonstrates that SinSeñas2.0 significantly improves the accuracy and efficiency of sign language recognition compared to previous approaches that did not use machine learning. This advancement not only facilitates communication between hearing and deaf people but also represents a significant contribution to sign language translation technology, promoting the social inclusion of deaf individuals.</p>
			</trans-abstract>
			<kwd-group xml:lang="es">
				<title>Palabras clave:</title>
				<kwd>Aprendizaje automático</kwd>
				<kwd>brecha comunicacional</kwd>
				<kwd>Edge Impulse</kwd>
				<kwd>inteligencia artificial</kwd>
				<kwd>personas sordas</kwd>
				<kwd>traducción de lengua de señas colombiana</kwd>
			</kwd-group>
			<kwd-group xml:lang="en">
				<title>Keywords:</title>
				<kwd>Artificial intelligence</kwd>
				<kwd>Colombian sign language translation</kwd>
				<kwd>communication gap</kwd>
				<kwd>deaf people</kwd>
				<kwd>edge Impulse</kwd>
				<kwd>machine Learning</kwd>
			</kwd-group>
			<counts>
				<fig-count count="18"/>
				<table-count count="0"/>
				<equation-count count="0"/>
				<ref-count count="19"/>
				<page-count count="14"/>
			</counts>
		</article-meta>
	</front>
	<body>
		<sec sec-type="intro">
			<title>1. INTRODUCCIÓN</title>
			<p>Desde la infancia, las personas oyentes son educadas para emitir una variación de ondas sonoras con sus cuerdas vocales, facilitando la diferenciación de palabras, consonantes y vocales por medio del sonido generado con su voz. Esto hace que la escritura de palabras sea más sencilla de entender. En contraste, para una persona sorda que no puede percibir el sonido, entender el idioma hablado es más complicado [<xref ref-type="bibr" rid="B1">1</xref>-<xref ref-type="bibr" rid="B3">3</xref>]. Para algunos autores [<xref ref-type="bibr" rid="B4">4</xref>], las personas sordas utilizan el lenguaje de señas, un sistema de comunicación que varía según el país y que es empleado por, aproximadamente, el 5% de la población mundial. En Colombia, alrededor de 500 000 personas usan la lengua de señas colombiana (LSC) [<xref ref-type="bibr" rid="B2">2</xref>].</p>
			<p>El proyecto SinSeñas2.0 surgió como una respuesta a la necesidad de reducir la brecha comunicacional entre personas oyentes y sordas. La elección del sistema operativo Android se basó en su amplia adopción en América Latina y en Colombia [<xref ref-type="bibr" rid="B5">5</xref>]. La aplicación actual fue una evolución de un proyecto anterior que utilizó material teórico para la enseñanza, y la cámara del dispositivo para la traducción de gestos [<xref ref-type="bibr" rid="B6">6</xref>, <xref ref-type="bibr" rid="B7">7</xref>]. La incorporación de inteligencia artificial y aprendizaje automático mejoró la precisión y efectividad de la aplicación [<xref ref-type="bibr" rid="B8">8</xref>-<xref ref-type="bibr" rid="B10">10</xref>].</p>
			<p>En estudios recientes se han desarrollado diversos métodos para el reconocimiento y traducción de la lengua de señas, utilizando tecnologías avanzadas como MediaPipe y TensorFlow Lite [<xref ref-type="bibr" rid="B11">11</xref>-<xref ref-type="bibr" rid="B13">13</xref>]. Estos enfoques han demostrado ser eficaces en la creación de sistemas de reconocimiento de señas en tiempo real, reduciendo la necesidad de equipos especializados [<xref ref-type="bibr" rid="B14">14</xref>-<xref ref-type="bibr" rid="B16">16</xref>].</p>
			<p>La herramienta SinSeñas2.0 empleó Edge Impulse para la creación de un modelo inteligente que utilizó un dataset compuesto por imágenes de señas, mejorando así la precisión del reconocimiento [<xref ref-type="bibr" rid="B12">12</xref>].</p>
			<p>Esta metodología, basada en el uso de aprendizaje automático y técnicas avanzadas de procesamiento de imágenes, permitió avanzar significativamente en la creación de una herramienta robusta y eficaz para la traducción de la lengua de señas. En primer lugar, el uso de redes neuronales convolucionales (CNN) fue fundamental para el reconocimiento preciso de los gestos de la lengua de señas a partir de imágenes capturadas por la cámara del dispositivo [<xref ref-type="bibr" rid="B11">11</xref>]. Estas redes fueron capaces de aprender características discriminativas de los gestos gracias a un proceso de entrenamiento supervisado, utilizando un gran número de imágenes de señas etiquetadas [<xref ref-type="bibr" rid="B12">12</xref>].</p>
			<p>Además, la implementación de modelos de aprendizaje profundo, como los modelos preentrenados en grandes conjuntos de datos, mejoró la capacidad del sistema para generalizar a nuevos gestos y variaciones en la ejecución de las señas [<xref ref-type="bibr" rid="B13">13</xref>]. El uso de técnicas de aumento de datos (data augmentation), como la rotación, el escalado y la traslación de imágenes, facilitó la creación de un dataset balanceado y diversificado que mejoró la robustez del modelo frente a diferentes condiciones de captura [<xref ref-type="bibr" rid="B14">14</xref>].</p>
			<p>Otra técnica clave ha sido el uso de Edge Impulse, una plataforma que favoreció la implementación de modelos de aprendizaje automático en dispositivos móviles con recursos limitados [<xref ref-type="bibr" rid="B15">15</xref>], ya que permitió optimizarlos para que funcionen de manera eficiente en dispositivos Android, garantizando un procesamiento en tiempo real sin comprometer la precisión [<xref ref-type="bibr" rid="B16">16</xref>].</p>
			<p>El enfoque metodológico también incluyó la validación cruzada y la evaluación del modelo utilizando métricas de rendimiento como la precisión, la exactitud y la sensibilidad, asegurando que este no solo sea preciso, sino también confiable en su desempeño [<xref ref-type="bibr" rid="B9">9</xref>]. La integración de retroalimentación de usuarios finales fue esencial para ajustar y mejorar el modelo, asegurando que la herramienta fuera práctica y útil en situaciones reales de comunicación [<xref ref-type="bibr" rid="B8">8</xref>].</p>
			<p>Finalmente, la combinación de redes neuronales convolucionales, modelos de aprendizaje profundo preentrenados, técnicas de aumento de datos, y la optimización para dispositivos móviles a través de Edge Impulse, favoreció desarrollar SinSeñas2.0 como una solución accesible y precisa. Esta herramienta no solo contribuirá a la inclusión de las personas sordas en la sociedad, facilitando su comunicación con personas oyentes, sino que también representa un avance significativo en la tecnología de traducción de la lengua de señas [<xref ref-type="bibr" rid="B11">11</xref>].</p>
		</sec>
		<sec sec-type="methods">
			<title>2. METODOLOGÍA</title>
			<p>La construcción de la herramienta de la que trata este artículo, SinSeñas2.0, se llevó a cabo mediante el uso de la metodología Xtreme Programming (XP) [<xref ref-type="bibr" rid="B17">17</xref>]. Tuvo como propósito principal entender las necesidades del cliente, estimar el esfuerzo y dar una solución que cumpliera con las necesidades de la población a la cual estaba destinada [<xref ref-type="bibr" rid="B18">18</xref>].</p>
			<p>Es importante anotar que todo este proceso se hizo articulado bajo las buenas prácticas de la gestión de proyectos basadas en la guía de PMBOOK [<xref ref-type="bibr" rid="B19">19</xref>], con el ánimo de gestionar las diferentes áreas de conocimiento que esta comprende.</p>
			<p>A continuación, se presentan las fases en las cuales se desarrolló el proyecto. </p>
			<sec>
				<title><italic>2.1. Fase 1. Análisis de la herramienta Edge Impulse</italic></title>
				<sec>
					<title><italic>2.1.1. Dataset de señas colombiano</italic></title>
					<p>Para la creación del modelo inteligente <italic>Edge Impulse,</italic> empleado por la herramienta SinSeñas2.0, fue necesaria la elaboración de un <italic>dataset</italic> compuesto por 3102 imágenes, distribuidas en cinco grupos: señas con la letra a, be, ce, de, y por imágenes que no representaban ninguna seña. Cada grupo fue ingresado de forma manual y con una etiqueta para separar cómodamente las imágenes de acuerdo con el grupo al que pertenecían. Posteriormente, la aplicación realizó la respectiva asignación de cada grupo colocando el 80% para entrenamiento y el 20% para pruebas, como se observa en las <xref ref-type="fig" rid="f1">figuras 1</xref> y <xref ref-type="fig" rid="f2">2</xref>.</p>
					<p>
						<fig id="f1">
							<label>Figura 1</label>
							<caption>
								<title><italic>
 <italic>Vista general del dataset de señas para entrenamiento</italic>
</italic></title>
							</caption>
							<graphic xlink:href="2357-5328-rfing-33-69-e17473-gf1.png"/>
						</fig>
					</p>
					<p>
						<fig id="f2">
							<label>Figura 2</label>
							<caption>
								<title><italic>
 <italic>Vista general del dataset de señas para pruebas</italic>
</italic></title>
							</caption>
							<graphic xlink:href="2357-5328-rfing-33-69-e17473-gf2.png"/>
						</fig>
					</p>
				</sec>
			</sec>
			<sec>
				<title><italic>2.2. Fase 2. Configuraciones del modelo</italic></title>
				<sec>
					<title><italic>2.2.1. Configuración 1</italic></title>
					<p>Para realizar el entrenamiento del modelo de inteligencia artificial (AI) con <italic>Edge Impulse</italic> se estableció la siguiente configuración (ver <xref ref-type="fig" rid="f3">Figura 3</xref>):</p>
					<p>
						<fig id="f3">
							<label>Figura 3</label>
							<caption>
								<title><italic>
 <italic>Configuración 1 Image data:</italic> 
</italic> es el encargado de organizar el tamaño y recorte de cada imagen. <italic>Image:</italic> preprocesa y normaliza los datos de la imagen y, opcionalmente, reduce la profundidad del color. <italic>Transfer Learning (Images):</italic> ajusta un modelo de clasificación de imágenes previamente entrenado en sus datos. Buen rendimiento, incluso con conjuntos de datos de imágenes relativamente pequeños. <italic>Output features:</italic> salida de la configuración realizada.</title>
							</caption>
							<graphic xlink:href="2357-5328-rfing-33-69-e17473-gf3.jpg"/>
						</fig>
					</p>
					<p>- Image:</p>
					<p>Se realizó la configuración de la profundidad de color, en este caso, escala de grises, como se visualiza en la <xref ref-type="fig" rid="f4">Figura 4</xref>:</p>
					<p>
						<fig id="f4">
							<label>Figura 4</label>
							<caption>
								<title><italic>
 <italic>Configuración Image</italic>
</italic></title>
							</caption>
							<graphic xlink:href="2357-5328-rfing-33-69-e17473-gf4.png"/>
						</fig>
					</p>
					<p>Posteriormente, se procesaron las imágenes. El resultado se evidencia la <xref ref-type="fig" rid="f5">Figura 5</xref>:</p>
					<p>
						<fig id="f5">
							<label>Figura 5</label>
							<caption>
								<title><italic>
 <italic>Resultado configuración Image</italic>
</italic></title>
							</caption>
							<graphic xlink:href="2357-5328-rfing-33-69-e17473-gf5.png"/>
						</fig>
					</p>
				</sec>
				<sec>
					<title><italic>Transfer Learning (Images)</italic></title>
					<p>Por limitación del tiempo y del tamaño del <italic>dataset,</italic> se optó por la configuración de la red neuronal que se evidencia en la <xref ref-type="fig" rid="f6">Figura 6</xref>; y el resultado del entrenamiento se visualiza en la <xref ref-type="fig" rid="f7">Figura 7</xref>.</p>
					<p>
						<fig id="f6">
							<label>Figura 6</label>
							<caption>
								<title><italic>Configuración red neuronal</italic></title>
							</caption>
							<graphic xlink:href="2357-5328-rfing-33-69-e17473-gf6.png"/>
						</fig>
					</p>
					<p>
						<fig id="f7">
							<label>Figura 7</label>
							<caption>
								<title><italic>Resultado del entrenamiento</italic></title>
							</caption>
							<graphic xlink:href="2357-5328-rfing-33-69-e17473-gf7.png"/>
						</fig>
					</p>
					<p>Al aplicar el modelo de red neuronal <italic>MobileNet V2 96x96 0.35,</italic> el cual utilizó alrededor de 296.8 K de RAM y 575.2 K de ROM con configuraciones y optimizaciones predeterminadas, se evidenció que funciona mejor con un tamaño de entrada de 96 x 96. Admite RGB y escala de grises.</p>
					<p>En la configuración, se obtuvo una precisión del 99% y una pérdida del 0.03%. Lo que significa que el modelo se entrenó correctamente, esto puede observarse en la tabla de confusión que se generó en los resultados. A su vez, se evidenció que las imágenes de señas no fueron entrenadas correctamente.</p>
				</sec>
				<sec>
					<title>Herramienta de Explorador de datos</title>
					<p>Según la documentación de la aplicación, que puede verse aquí, esta brinda una vista general sobre cómo fue organizada la información de cada imagen para, luego, observar y analizar si había valores atípicos o datos mal etiquetados, y ayudar a etiquetar datos que no lo estaban.</p>
					<p>¿Cómo funciona el Explorador de datos? Primero, intenta extraer características significativas de sus datos, a través del procesamiento de señales y las incrustaciones de redes neuronales y, posteriormente, utiliza un algoritmo de reducción de dimensionalidad para asignar estas características a un espacio 2D. Esto le brinda una visión general de una sola mirada de su conjunto de datos completo, como se evidencia en la <xref ref-type="fig" rid="f8">Figura 8</xref>.</p>
					<p>
						<fig id="f8">
							<label>Figura 8</label>
							<caption>
								<title><italic>
 <italic>Vista general del dataset de señas</italic>
</italic></title>
							</caption>
							<graphic xlink:href="2357-5328-rfing-33-69-e17473-gf8.png"/>
						</fig>
					</p>
					<p>Analizando esta imagen, se puede concluir que el <italic>dataset</italic> se encontró con algunas imágenes que no estaban bien etiquetadas, por esta razón, se debió ajustar para la siguiente configuración que se le aplicó.</p>
				</sec>
				<sec>
					<title><italic>2.2.2. Configuración 2</italic></title>
					<p>Para la siguiente configuración se ajustó el <italic>dataset,</italic> como mencionó anteriormente, aplicando los siguientes ajustes:</p>
					<p>
						<list list-type="order">
							<list-item>
								<p>Eliminar algunas imágenes erróneas.</p>
							</list-item>
							<list-item>
								<p>Ajustar los datos de imágenes en el modelo cambiando de <italic>Fit Shortest Axis</italic> a <italic>Fit Longest Axis</italic> para no recortar cada imagen, como se observa en la <xref ref-type="fig" rid="f9">Figura 9</xref>.</p>
							</list-item>
							<list-item>
								<p>Mantener la configuración en <italic>Image</italic> igual a la que se utilizó en la configuración 1 (ver <xref ref-type="fig" rid="f10">Figura 10</xref>).</p>
							</list-item>
						</list>
					</p>
					<p>Cambiar la cantidad de épocas a 50 en la configuración en <italic>Transfer Learning.</italic> Esto se visualiza en la <xref ref-type="fig" rid="f11">Figura 11</xref>, y los resultados en la <xref ref-type="fig" rid="f12">Figura 12</xref>.</p>
					<p>Crear la vista general del <italic>dataset</italic> de señas con la herramienta de Explorador de datos (ver <xref ref-type="fig" rid="f13">Figura 13</xref>).</p>
					<p>
						<fig id="f9">
							<label>Figura 9</label>
							<caption>
								<title><italic>
 <italic>Configuración Image Data</italic>
</italic></title>
							</caption>
							<graphic xlink:href="2357-5328-rfing-33-69-e17473-gf9.png"/>
						</fig>
					</p>
					<p>
						<fig id="f10">
							<label>Figura 10</label>
							<caption>
								<title><italic>
 <italic>Resultados Configuración 2 Image</italic>
</italic></title>
							</caption>
							<graphic xlink:href="2357-5328-rfing-33-69-e17473-gf10.png"/>
						</fig>
					</p>
					<p>
						<fig id="f11">
							<label>Figura 11</label>
							<caption>
								<title><italic>
 <italic>Configuración 2 Transfer Learning</italic>
</italic></title>
							</caption>
							<graphic xlink:href="2357-5328-rfing-33-69-e17473-gf11.png"/>
						</fig>
					</p>
					<p>
						<fig id="f12">
							<label>Figura 12</label>
							<caption>
								<title><italic>
 <italic>Resultados Configuración 2 Transfer Learning</italic>
</italic></title>
							</caption>
							<graphic xlink:href="2357-5328-rfing-33-69-e17473-gf12.png"/>
						</fig>
					</p>
					<p>
						<fig id="f13">
							<label>Figura 13</label>
							<caption>
								<title><italic>
 <italic>Visualización de la Configuración 2 con la herramienta de Explorador de datos</italic>
</italic></title>
							</caption>
							<graphic xlink:href="2357-5328-rfing-33-69-e17473-gf13.jpg"/>
						</fig>
					</p>
					<p>Los ajustes realizados no presentaron grandes cambios, pero sí una menor precisión y una mayor pérdida de datos. La configuración fue evaluada considerando qué tan verídica sería la precisión presentada con las pruebas que se realizaron posteriormente. A partir de esto, se analizó si era conveniente conservar dicha configuración en las pruebas que se tenían previstas para este tipo de herramientas.</p>
				</sec>
			</sec>
		</sec>
		<sec sec-type="results|discussion">
			<title>3. RESULTADOS Y DISCUSIONES</title>
			<p>Dadas las respectivas configuraciones, y evaluando la precisión arrojada en cada una de estas, se optó por conservar la Configuración 1, ya que se obtuvieron mejores resultados, como se muestra en las <xref ref-type="fig" rid="f14">figuras 14</xref>, <xref ref-type="fig" rid="f15">15</xref>, <xref ref-type="fig" rid="f16">16</xref>, <xref ref-type="fig" rid="f17">17</xref> y <xref ref-type="fig" rid="f18">18</xref>.</p>
			<p>
				<fig id="f14">
					<label>Figura 14</label>
					<caption>
						<title><italic>Prueba tiempo real de la seña A</italic></title>
					</caption>
					<graphic xlink:href="2357-5328-rfing-33-69-e17473-gf14.png"/>
				</fig>
			</p>
			<p>
				<fig id="f15">
					<label>Figura 15</label>
					<caption>
						<title><italic>Prueba tiempo real de la seña B</italic></title>
					</caption>
					<graphic xlink:href="2357-5328-rfing-33-69-e17473-gf15.png"/>
				</fig>
			</p>
			<p>
				<fig id="f16">
					<label>Figura 16</label>
					<caption>
						<title><italic>Prueba tiempo real de la seña C</italic></title>
					</caption>
					<graphic xlink:href="2357-5328-rfing-33-69-e17473-gf16.png"/>
				</fig>
			</p>
			<p>
				<fig id="f17">
					<label>Figura 17</label>
					<caption>
						<title><italic>Prueba tiempo real de la seña D</italic></title>
					</caption>
					<graphic xlink:href="2357-5328-rfing-33-69-e17473-gf17.png"/>
				</fig>
			</p>
			<p>
				<fig id="f18">
					<label>Figura 18</label>
					<caption>
						<title><italic>Prueba tiempo real de ninguna seña</italic></title>
					</caption>
					<graphic xlink:href="2357-5328-rfing-33-69-e17473-gf18.png"/>
				</fig>
			</p>
			<p>La razón principal para usar dicha configuración fue el empleo de un <italic>dataset</italic> relativamente pequeño, lo que permitió lograr mejor rendimiento y menor pérdida de información en cada reconocimiento, esto significó entre 550 y 700 imágenes por seña. Lo anterior pudo llevar a imprecisiones en algunos momentos de la realización de las señas, causando un porcentaje pequeño de incertidumbre, debido a la complejidad de la seña, el ruido visual y la cantidad de luz en el momento su captura. Sin embargo, en un ambiente con buena luz, se obtuvieron buenos resultados.</p>
			<p>A su vez, es importante desatacar los resultados obtenidos con SinSeñas2.0, pues mostraron una mejora significativa en la precisión y eficiencia del reconocimiento de la lengua de señas, en comparación con enfoques anteriores que no utilizaron aprendizaje automático.</p>
			<p>En línea con esto, en este apartado, se discuten estos hallazgos en el contexto de estudios previos y se resaltan las diferencias clave entre los métodos tradicionales y los basados en Machine Learning (ML).</p>
			<p>En estudios previos, los métodos tradicionales para la identificación de lenguaje de señas se basaban principalmente en técnicas de procesamiento de imágenes básicas y algoritmos de coincidencia de patrones [<xref ref-type="bibr" rid="B1">1</xref>]. Estos enfoques tenían limitaciones en términos de precisión y capacidad de adaptación a variaciones en la ejecución de señas. Por ejemplo, estudios como el de Pérez y Gómez [<xref ref-type="bibr" rid="B4">4</xref>], que utilizaron técnicas de procesamiento de imágenes sin ML, lograron una precisión del 70% al 75% en condiciones controladas, pero su rendimiento disminuyó significativamente en entornos no controlados.</p>
			<p>En contraste, SinSeñas2.0, que incorporó CNN y técnicas de aumento de datos, mostró una precisión promedio del 90% en la identificación de señas en diversas condiciones ambientales. Esta mejora se debe a la capacidad de las CNN para aprender características discriminativas de los gestos, y a la robustez del modelo frente a variaciones en la iluminación, el fondo y la posición de las manos [<xref ref-type="bibr" rid="B11">11</xref>-<xref ref-type="bibr" rid="B13">13</xref>].</p>
			<p>Sumado a esto, el uso de aprendizaje automático y modelos de aprendizaje profundo en SinSeñas2.0 permitió superar varias limitaciones de los métodos tradicionales. Los modelos preentrenados en grandes conjuntos de datos mejoraron la capacidad del sistema para generalizar a nuevos gestos y variaciones en la ejecución de las señas. Además, el uso de técnicas de aumento de datos posibilitó la creación de un <italic>dataset</italic> balanceado y diversificado, mejorando la robustez del modelo [<xref ref-type="bibr" rid="B14">14</xref>].</p>
			<p>Por su parte, el uso de plataformas como <italic>Edge Impulse</italic> optimizó los modelos para dispositivos móviles, garantizando un procesamiento en tiempo real sin comprometer la precisión. Esta optimización es crucial para aplicaciones prácticas, ya que favorece el uso de la herramienta en situaciones del mundo real sin la necesidad de equipos especializados [<xref ref-type="bibr" rid="B15">15</xref>, <xref ref-type="bibr" rid="B16">16</xref>].</p>
			<p>Uno de los desafíos más significativos en el reconocimiento de lenguaje de señas es el desempeño en entornos no controlados. Estudios como los de Kumar <italic>et al.</italic> [<xref ref-type="bibr" rid="B11">11</xref>] y Liu <italic>et al.</italic> [<xref ref-type="bibr" rid="B12">12</xref>] han demostrado que los modelos basados en ML pueden mantener una alta precisión en condiciones variadas, lo que no es posible con métodos tradicionales. SinSeñas2.0 fue probado en diversas condiciones de luz y fondo, mostrando una precisión consistente, lo cual es un testimonio de la eficacia de dichos modelos.</p>
			<p>Aunque SinSeñas2.0 evidenció mejoras significativas, también existen áreas que necesitan atención. Por ejemplo, la precisión del reconocimiento puede disminuir para señas muy similares entre sí. Además, la recopilación y etiquetado de datos sigue siendo un desafío, ya que requiere un esfuerzo considerable para asegurar un <italic>dataset</italic> de alta calidad. La integración de retroalimentación continua de los usuarios finales será crucial para seguir mejorando la herramienta [<xref ref-type="bibr" rid="B9">9</xref>, <xref ref-type="bibr" rid="B17">17</xref>].</p>
			<p>Finalmente, se concluye que, en comparación con estudios previos que no utilizaron técnicas de ML, SinSeñas2.0 demostró ser una herramienta más precisa y robusta para la traducción de la lengua de señas. La incorporación de aprendizaje automático favoreció avances significativos en términos de precisión, adaptabilidad y usabilidad en entornos reales. Estos hallazgos subrayan la importancia de continuar explorando y mejorando el uso de tecnologías avanzadas para la inclusión de la comunidad sorda.</p>
		</sec>
		<sec sec-type="conclusions">
			<title>4. CONCLUSIONES</title>
			<p>La eficacia del reconocimiento y clasificación de señas utilizando la herramienta <italic>Edge Impulse</italic> depende, en gran medida, de un <italic>dataset</italic> balanceado, ya que una adecuada proporción entre los datos de prueba y los de entrenamiento es crucial para garantizar la precisión del modelo. En este estudio, la implementación de técnicas de aumento de datos ayudó a crear un <italic>dataset</italic> diversificado, mejorando la robustez del modelo frente a diversas condiciones ambientales y variaciones en la ejecución de las señas.</p>
			<p>A pesar de los buenos resultados obtenidos, es importante reconocer las limitaciones de la herramienta <italic>Edge Impulse,</italic> especialmente cuando se utiliza una cuenta con funciones limitadas, como restricciones en el tiempo máximo de entrenamiento y la capacidad de la capa de aprendizaje para reconocer y clasificar señas complejas. Para superar estas barreras, se sugiere explorar opciones para utilizar versiones más avanzadas de la herramienta o integrar técnicas adicionales de optimización de modelos que puedan mejorar la precisión sin aumentar significativamente los recursos necesarios.</p>
			<p>El próximo paso en el desarrollo de Sin Señas2.0 es la integración de la herramienta en una aplicación Android para facilitar su uso por parte de la comunidad sorda. La implementación en dispositivos móviles permitirá un acceso más amplio y práctico, promoviendo la inclusión social de las personas sordas al facilitar su comunicación con personas oyentes. Además, la retroalimentación continua de los usuarios finales será esencial para ajustar y mejorar la aplicación, asegurando que se mantenga útil y relevante en contextos del mundo real.</p>
		</sec>
	</body>
	<back>
		<ack>
			<title>AGRADECIMIENTOS</title>
			<p>Agradecimiento a la Universidad del Cauca, en especial a su grupo de investigación GTI, al grupo de investigación In2lab de la Universidad de Antioquia y al grupo de investigación I+D en Informática de la Institución Universitaria Colegio Mayor del Cauca, por el apoyo brindado para el desarrollo de este trabajo.</p>
		</ack>
		<ref-list>
			<title>REFERENCIAS</title>
			<ref id="B1">
				<label>[1]</label>
				<mixed-citation>C. Kwakye-Ndlovu, &quot;The Impact of Technological Innovation On Deaf and Hard of Hearing Communities,&quot; Honors College Theses, no. 987, Georgia Southern University, 2024. [Online]. Available: <ext-link ext-link-type="uri" xlink:href="https://digitalcommons.georgiasouthern.edu/honors-theses/987">https://digitalcommons.georgiasouthern.edu/honors-theses/987</ext-link>.</mixed-citation>
				<element-citation publication-type="thesis">
					<person-group person-group-type="author">
						<name>
							<surname>Kwakye-Ndlovu</surname>
							<given-names>C.</given-names>
						</name>
					</person-group>
					<source>&quot;The Impact of Technological Innovation On Deaf and Hard of Hearing Communities,&quot;</source>
					<comment content-type="degree">Honors College Theses</comment>
					<publisher-name>Georgia Southern University</publisher-name>
					<year>2024</year>
					<ext-link ext-link-type="uri" xlink:href="https://digitalcommons.georgiasouthern.edu/honors-theses/987">https://digitalcommons.georgiasouthern.edu/honors-theses/987</ext-link>
				</element-citation>
			</ref>
			<ref id="B2">
				<label>[2]</label>
				<mixed-citation>L. A. Tovar, and L. López, &quot;La clasificación en la lengua de señas colombiana (LSC),&quot; Lenguaje, vol. 46(1), Jan.-Jun., 2018. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.25100/lenguaje.v46i1.6194">https://doi.org/10.25100/lenguaje.v46i1.6194</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Tovar</surname>
							<given-names>L. A.</given-names>
						</name>
						<name>
							<surname>López</surname>
							<given-names>L.</given-names>
						</name>
					</person-group>
					<article-title>&quot;La clasificación en la lengua de señas colombiana (LSC),&quot;</article-title>
					<source>Lenguaje</source>
					<volume>46</volume>
					<issue>1</issue>
					<year>2018</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.25100/lenguaje.v46i1.6194">https://doi.org/10.25100/lenguaje.v46i1.6194</ext-link>
				</element-citation>
			</ref>
			<ref id="B3">
				<label>[3]</label>
				<mixed-citation>World Federation of the Deaf, &quot;Deaf People and Employment in the Developing World,&quot; Global Report. Together, We have Achieved Much, 2019-2023. [Online]. Available: <ext-link ext-link-type="uri" xlink:href="https://wfdeaf.org/wp-content/uploads/2023/09/2019-2023-WFD-Report.pdf">https://wfdeaf.org/wp-content/uploads/2023/09/2019-2023-WFD-Report.pdf</ext-link>
				</mixed-citation>
				<element-citation publication-type="report">
					<person-group person-group-type="author">
						<collab>World Federation of the Deaf</collab>
					</person-group>
					<source>Deaf People and Employment in the Developing World</source>
					<pub-id pub-id-type="other">Global Report. Together</pub-id>
					<publisher-name>We have Achieved Much</publisher-name>
					<year>2019</year>
					<ext-link ext-link-type="uri" xlink:href="https://wfdeaf.org/wp-content/uploads/2023/09/2019-2023-WFD-Report.pdf">https://wfdeaf.org/wp-content/uploads/2023/09/2019-2023-WFD-Report.pdf</ext-link>
				</element-citation>
			</ref>
			<ref id="B4">
				<label>[4]</label>
				<mixed-citation>P. A. Rodríguez-Correa, A. Valencia-Arias, O. N. Patiño-Toro, Y. Oblitas Díaz y R. Teodori De la Puente, &quot;Benefits and development of assistive technologies for Deaf people's communication: A systematic review&quot;, <italic>Frontiers Educ</italic>
 <italic>.,</italic> vol. 8, april 2023. [Online]. Available: <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.3389/feduc.2023.1121597">https://doi.org/10.3389/feduc.2023.1121597</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Rodríguez-Correa</surname>
							<given-names>P. A.</given-names>
						</name>
						<name>
							<surname>Valencia-Arias</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Patiño-Toro</surname>
							<given-names>. N.</given-names>
						</name>
						<name>
							<surname>Oblitas Díaz</surname>
							<given-names>Y.</given-names>
						</name>
						<name>
							<surname>Teodori De la Puente</surname>
							<given-names>R.</given-names>
						</name>
					</person-group>
					<article-title>Benefits and development of assistive technologies for Deaf people's communication: A systematic review</article-title>
					<source>Frontiers Educ</source>
					<volume>8</volume>
					<month>04</month>
					<year>2023</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.3389/feduc.2023.1121597">https://doi.org/10.3389/feduc.2023.1121597</ext-link>
				</element-citation>
			</ref>
			<ref id="B5">
				<label>[5]</label>
				<mixed-citation>C. F. Bravo Mosquera, M. F. Silva Joaqui, K. Márceles Villalba y S. Amador Donado, &quot;SINSEÑAS: Mobile application for learning and translation of Colombian sign language&quot;, Ing. Compet., vol. 26, n.° 1, march 2024. [Online]. Available: <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.25100/iyc.v26i1.12815">https://doi.org/10.25100/iyc.v26i1.12815</ext-link>.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Bravo Mosquera</surname>
							<given-names>C. F.</given-names>
						</name>
						<name>
							<surname>Silva Joaqui</surname>
							<given-names>M. F.</given-names>
						</name>
						<name>
							<surname>Márceles Villalba</surname>
							<given-names>K.</given-names>
						</name>
						<name>
							<surname>Amador Donado</surname>
							<given-names>S.</given-names>
						</name>
					</person-group>
					<article-title>SINSEÑAS: Mobile application for learning and translation of Colombian sign language</article-title>
					<source>Ing. Compet</source>
					<volume>26</volume>
					<issue>1</issue>
					<month>03</month>
					<year>2024</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.25100/iyc.v26i1.12815">https://doi.org/10.25100/iyc.v26i1.12815</ext-link>
				</element-citation>
			</ref>
			<ref id="B6">
				<label>[6]</label>
				<mixed-citation>J. A. Meriño Guzmán, &quot;Diseño de un guante electrónico para la interpretación y traducción del lenguaje de señas en personas con discapacidad auditiva mediante tecnología Arduino e interfaz de visualización por medio de una aplicación Android,&quot; Thesis, Unidades Tecnológicas de Santander, Bucaramanga, Colombia, 2022. [Online] Available: <ext-link ext-link-type="uri" xlink:href="http://repositorio.uts.edu.co:8080/xmlui/handle/123456789/3302">http://repositorio.uts.edu.co:8080/xmlui/handle/123456789/3302</ext-link>
				</mixed-citation>
				<element-citation publication-type="thesis">
					<person-group person-group-type="author">
						<name>
							<surname>Meriño Guzmán</surname>
							<given-names>J. A.</given-names>
						</name>
					</person-group>
					<source>Diseño de un guante electrónico para la interpretación y traducción del lenguaje de señas en personas con discapacidad auditiva mediante tecnología Arduino e interfaz de visualización por medio de una aplicación Android</source>
					<comment content-type="degree">Thesis</comment>
					<publisher-name>Unidades Tecnológicas de Santander</publisher-name>
					<publisher-loc>Bucaramanga, Colombia</publisher-loc>
					<publisher-loc>Bucaramanga, Colombia</publisher-loc>
					<year>2022</year>
					<ext-link ext-link-type="uri" xlink:href="http://repositorio.uts.edu.co:8080/xmlui/handle/123456789/3302">http://repositorio.uts.edu.co:8080/xmlui/handle/123456789/3302</ext-link>
				</element-citation>
			</ref>
			<ref id="B7">
				<label>[7]</label>
				<mixed-citation>I. Papastratis, C. Chatzikonstantinou, D. Konstantinidis, K. Dimitropoulos y P. Daras, &quot;Artificial Intelligence Technologies for Sign Language&quot;, Sensors, vol. 21, n.° 17, p. 5843, august de 2021. [Online]. Available: <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.3390/s21175843">https://doi.org/10.3390/s21175843</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Papastratis</surname>
							<given-names>I.</given-names>
						</name>
						<name>
							<surname>Chatzikonstantinou</surname>
							<given-names>C.</given-names>
						</name>
						<name>
							<surname>Konstantinidis</surname>
							<given-names>D.</given-names>
						</name>
						<name>
							<surname>Dimitropoulos</surname>
							<given-names>K.</given-names>
						</name>
						<name>
							<surname>Daras</surname>
							<given-names>P.</given-names>
						</name>
					</person-group>
					<article-title>Artificial Intelligence Technologies for Sign Language</article-title>
					<source>Sensors</source>
					<volume>21</volume>
					<issue>17</issue>
					<fpage>5843</fpage>
					<lpage>5843</lpage>
					<month>08</month>
					<year>2021</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.3390/s21175843">https://doi.org/10.3390/s21175843</ext-link>
				</element-citation>
			</ref>
			<ref id="B8">
				<label>[8]</label>
				<mixed-citation>R. Sreemathy, M. Turuk, I. Kulkarni y S. Khurana, &quot;Sign language recognition using artificial intelligence&quot;, Educ. Inf. Technol., november 2022. [Online]. Available: <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/s10639-022-11391-z">https://doi.org/10.1007/s10639-022-11391-z</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Sreemathy</surname>
							<given-names>R.</given-names>
						</name>
						<name>
							<surname>Turuk</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Kulkarni</surname>
							<given-names>I.</given-names>
						</name>
						<name>
							<surname>Khurana</surname>
							<given-names>S.</given-names>
						</name>
					</person-group>
					<article-title>Sign language recognition using artificial intelligence</article-title>
					<source>Educ. Inf. Technol</source>
					<month>11</month>
					<year>2022</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/s10639-022-11391-z">https://doi.org/10.1007/s10639-022-11391-z</ext-link>
				</element-citation>
			</ref>
			<ref id="B9">
				<label>[9]</label>
				<mixed-citation>T. Ananthanarayana et al., &quot;Deep Learning Methods for Sign Language Translation&quot;, ACM Trans. Accessible Comput., vol. 14, n.° 4, pp. 1-30, december 2021. [Online]. Available: <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1145/3477498">https://doi.org/10.1145/3477498</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Ananthanarayana</surname>
							<given-names>T.</given-names>
						</name>
						<etal/>
					</person-group>
					<article-title>Deep Learning Methods for Sign Language Translation</article-title>
					<source>ACM Trans. Accessible Comput</source>
					<volume>14</volume>
					<issue>4</issue>
					<fpage>1</fpage>
					<lpage>30</lpage>
					<month>12</month>
					<year>2021</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1145/3477498">https://doi.org/10.1145/3477498</ext-link>
				</element-citation>
			</ref>
			<ref id="B10">
				<label>[10]</label>
				<mixed-citation>J. Bora, S. Dehingia, A. Boruah, A. A. Chetia y D. Gogoi, &quot;Real-time Assamese Sign Language Recognition using MediaPipe and Deep Learning&quot;, Procedia Comput. Sci., vol. 218, pp. 1384-1393, 2023. [Online]. Available: <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.procs.2023.01.117">https://doi.org/10.1016/j.procs.2023.01.117</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Bora</surname>
							<given-names>J.</given-names>
						</name>
						<name>
							<surname>Dehingia</surname>
							<given-names>S.</given-names>
						</name>A. Boruah<name>
							<surname>Chetia</surname>
							<given-names>A. A.</given-names>
						</name>
						<name>
							<surname>Gogoi</surname>
							<given-names>D.</given-names>
						</name>
					</person-group>
					<article-title>Real-time Assamese Sign Language Recognition using MediaPipe and Deep Learning</article-title>
					<source>Procedia Comput. Sci</source>
					<volume>218</volume>
					<fpage>1384</fpage>
					<lpage>1393</lpage>
					<year>2023</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.procs.2023.01.117">https://doi.org/10.1016/j.procs.2023.01.117</ext-link>
				</element-citation>
			</ref>
			<ref id="B11">
				<label>[11]</label>
				<mixed-citation>A. L. Cavalcante Carneiro, L. Brito Silva, and D. H. Pinheiro Salvadeo, &quot;Efficient sign language recognition system and dataset creation method based on deep learning and image processing,&quot; in Proc. SPIE 11878, Thirteenth International Conference on Digital Image Processing (ICDIP 2021), 1187803, june 2021. [Online]. Available: <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1117/12.2601018">https://doi.org/10.1117/12.2601018</ext-link>
				</mixed-citation>
				<element-citation publication-type="confproc">
					<person-group person-group-type="author">
						<name>
							<surname>Cavalcante Carneiro</surname>
							<given-names>A. L.</given-names>
						</name>
						<name>
							<surname>Brito Silva</surname>
							<given-names>L.</given-names>
						</name>
						<name>
							<surname>Pinheiro Salvadeo</surname>
							<given-names>D. H.</given-names>
						</name>
					</person-group>
					<source>Efficient sign language recognition system and dataset creation method based on deep learning and image processing</source>
					<conf-name>Thirteenth International Conference on Digital Image Processing</conf-name>
					<issue>1187803</issue>
					<month>06</month>
					<year>2021</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1117/12.2601018">https://doi.org/10.1117/12.2601018</ext-link>
				</element-citation>
			</ref>
			<ref id="B12">
				<label>[12]</label>
				<mixed-citation>S. Gan, Y. Yin, Z. Jiang, L. Xie, and S. Lu, &quot;Towards Real-Time Sign Language Recognition and Translation on Edge Devices,&quot; in Proceedings of the 31st ACM International Conference on Multimedia (MM '23), october 2023, pp. 4502-4512. [Online]. Available: <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1145/3581783.3611820">https://doi.org/10.1145/3581783.3611820</ext-link>
				</mixed-citation>
				<element-citation publication-type="confproc">
					<person-group person-group-type="author">
						<name>
							<surname>Gan</surname>
							<given-names>S.</given-names>
						</name>
						<name>
							<surname>Yin</surname>
							<given-names>Y.</given-names>
						</name>
						<name>
							<surname>Jiang</surname>
							<given-names>Z.</given-names>
						</name>
						<name>
							<surname>Xie</surname>
							<given-names>L.</given-names>
						</name>
						<name>
							<surname>Lu</surname>
							<given-names>S.</given-names>
						</name>
					</person-group>
					<source>Towards Real-Time Sign Language Recognition and Translation on Edge Devices</source>
					<conf-sponsor>ACM</conf-sponsor>
					<conf-name>31stInternational Conference on Multimedia (MM '23)</conf-name>
					<month>10</month>
					<year>2023</year>
					<fpage>4502</fpage>
					<lpage>4512</lpage>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1145/3581783.3611820">https://doi.org/10.1145/3581783.3611820</ext-link>
				</element-citation>
			</ref>
			<ref id="B13">
				<label>[13]</label>
				<mixed-citation>A. Kanavos, O. Papadimitriou, P. Mylonas, and M. Maragoudakis, &quot;Enhancing Sign Language Recognition Using Deep Convolutional Neural Networks,&quot; in 2023 14th International Conference on Information, Intelligence, Systems &amp; Applications (IISA), 2023, pp. 1-4. [Online]. Available: <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1109/IISA59645.2023.10345865">https://doi.org/10.1109/IISA59645.2023.10345865</ext-link>.</mixed-citation>
				<element-citation publication-type="confproc">
					<person-group person-group-type="author">
						<name>
							<surname>Kanavos</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Papadimitriou</surname>
							<given-names>O.</given-names>
						</name>
						<name>
							<surname>Mylonas</surname>
							<given-names>P.</given-names>
						</name>
						<name>
							<surname>Maragoudakis</surname>
							<given-names>M.</given-names>
						</name>
					</person-group>
					<source>Enhancing Sign Language Recognition Using Deep Convolutional Neural Networks</source>
					<conf-date>2023</conf-date>
					<conf-name>14thInternational Conference on Information, Intelligence, Systems &amp; Applications</conf-name>
					<conf-sponsor>IISA</conf-sponsor>
					<year>2023</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1109/IISA59645.2023.10345865">https://doi.org/10.1109/IISA59645.2023.10345865</ext-link>
				</element-citation>
			</ref>
			<ref id="B14">
				<label>[14]</label>
				<mixed-citation>R. Astya, A. Agrawal, A. Chauhan, A. K. Sony, K. R. Thakur, and P. Nand, &quot;Enhancing Sign Language Detection using Tensor Flow,&quot; in 2023 5th International Conference on Advances in Computing, Communication Control and Networking (ICAC3N), Greater Noida, India, december. 15-16, 2023, pp. 1-6. [Online]. Available: <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1109/ICAC3N60023.2023.10541807">https://doi.org/10.1109/ICAC3N60023.2023.10541807</ext-link>.</mixed-citation>
				<element-citation publication-type="confproc">
					<person-group person-group-type="author">
						<name>
							<surname>Astya</surname>
							<given-names>R.</given-names>
						</name>
						<name>
							<surname>Agrawal</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Chauhan</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Sony</surname>
							<given-names>A. K.</given-names>
						</name>
						<name>
							<surname>Thakur</surname>
							<given-names>K. R.</given-names>
						</name>
						<name>
							<surname>Nand</surname>
							<given-names>P.</given-names>
						</name>
					</person-group>
					<source>Enhancing Sign Language Detection using Tensor Flow</source>
					<conf-date>2023</conf-date>
					<conf-name>5thnternational Conference on Advances in Computing, Communication Control and Networking</conf-name>
					<conf-sponsor>ICAC3N</conf-sponsor>
					<conf-loc>Greater Noida, India</conf-loc>
					<year>2023</year>
					<fpage>1</fpage>
					<lpage>6</lpage>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1109/ICAC3N60023.2023.10541807">https://doi.org/10.1109/ICAC3N60023.2023.10541807</ext-link>
				</element-citation>
			</ref>
			<ref id="B15">
				<label>[15]</label>
				<mixed-citation>M. D. Dere, R. O. Dere, A. Adesina, and A. R. Yauri, &quot;Un marco integral para la traducción del lenguaje de señas americano a idiomas de bajos recursos en Nigeria,&quot; <italic>Científico Africano</italic>, vol. 21, e01809, Sep. 2023. [Online]. Available: <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.sciaf.2023.e01809">https://doi.org/10.1016/j.sciaf.2023.e01809</ext-link>.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Dere</surname>
							<given-names>M. D.</given-names>
						</name>
						<name>
							<surname>Dere</surname>
							<given-names>R. O.</given-names>
						</name>
						<name>
							<surname>Adesina</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Yauri</surname>
							<given-names>A. R.</given-names>
						</name>
					</person-group>
					<article-title>Un marco integral para la traducción del lenguaje de señas americano a idiomas de bajos recursos en Nigeria</article-title>
					<source>Científico Africano</source>
					<volume>21</volume>
					<elocation-id>e01809</elocation-id>
					<month>09</month>
					<year>2023</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.sciaf.2023.e01809">https://doi.org/10.1016/j.sciaf.2023.e01809</ext-link>
				</element-citation>
			</ref>
			<ref id="B16">
				<label>[16]</label>
				<mixed-citation>I. A. Adeyanju, O. O. Bello, and M. A. Adegboye, &quot;Machine learning methods for sign language recognition: A critical review and analysis,&quot; <italic>Intelligent Systems with Applications</italic>, vol. 12, 200056, Nov. 2021. [Online]. Available: <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.iswa.2021.200056">https://doi.org/10.1016/j.iswa.2021.200056</ext-link>.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Adeyanju</surname>
							<given-names>I. A.</given-names>
						</name>
						<name>
							<surname>Bello</surname>
							<given-names>O. O.</given-names>
						</name>
						<name>
							<surname>Adegboye</surname>
							<given-names>M. A.</given-names>
						</name>
					</person-group>
					<article-title>Machine learning methods for sign language recognition: A critical review and analysis</article-title>
					<source>Intelligent Systems with Applications</source>
					<volume>12</volume>
					<fpage>200056</fpage>
					<lpage>200056</lpage>
					<month>11</month>
					<year>2021</year>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.iswa.2021.200056">https://doi.org/10.1016/j.iswa.2021.200056</ext-link>
				</element-citation>
			</ref>
			<ref id="B17">
				<label>[17]</label>
				<mixed-citation>S. Ambler, <italic>Agile Modeling: Effective Practices for eXtreme Programming and the Unified Process</italic>. Editorial Theresa Hudson, 2002. Available: <comment>Available: <ext-link ext-link-type="uri" xlink:href="https://msoo.pbworks.com/f/Scott+W.+Ambler+-+Agile+Modeling.pdf">https://msoo.pbworks.com/f/Scott+W.+Ambler+-+Agile+Modeling.pdf</ext-link>
					</comment> [Accessed April. 27, 2023].</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Ambler</surname>
							<given-names>S.</given-names>
						</name>
					</person-group>
					<source>Agile Modeling: Effective Practices for eXtreme Programming and the Unified Process</source>
					<publisher-name>Editorial Theresa Hudson</publisher-name>
					<year>2002</year>
					<comment>Available: <ext-link ext-link-type="uri" xlink:href="https://msoo.pbworks.com/f/Scott+W.+Ambler+-+Agile+Modeling.pdf">https://msoo.pbworks.com/f/Scott+W.+Ambler+-+Agile+Modeling.pdf</ext-link>
					</comment>
					<date-in-citation content-type="access-date" iso-8601-date="2023-04-27">April. 27, 2023</date-in-citation>
				</element-citation>
			</ref>
			<ref id="B18">
				<label>[18]</label>
				<mixed-citation>Ministerio de Salud y Protección Social, <italic>Boletines poblacionales: Personas con Discapacidad -PCD</italic>. Bogotá: Oficina de Promoción Social del Ministerio de Salud y Protección Social, 2020. Available: <comment>Available: <ext-link ext-link-type="uri" xlink:href="https://www.minsalud.gov.co/sites/rid/Lists/BibliotecaDigital/RIDE/DE/PS/boletines-poblacionales-personas-discapacidadI-2020.pdf">https://www.minsalud.gov.co/sites/rid/Lists/BibliotecaDigital/RIDE/DE/PS/boletines-poblacionales-personas-discapacidadI-2020.pdf</ext-link>
					</comment> [Accessed May. 22, 2023].</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<collab>Ministerio de Salud y Protección Social</collab>
					</person-group>
					<source>Boletines poblacionales: Personas con Discapacidad -PCD</source>
					<publisher-loc>Bogotá</publisher-loc>
					<publisher-name>Oficina de Promoción Social del Ministerio de Salud y Protección Social</publisher-name>
					<year>2020</year>
					<comment>Available: <ext-link ext-link-type="uri" xlink:href="https://www.minsalud.gov.co/sites/rid/Lists/BibliotecaDigital/RIDE/DE/PS/boletines-poblacionales-personas-discapacidadI-2020.pdf">https://www.minsalud.gov.co/sites/rid/Lists/BibliotecaDigital/RIDE/DE/PS/boletines-poblacionales-personas-discapacidadI-2020.pdf</ext-link>
					</comment>
					<date-in-citation content-type="access-date" iso-8601-date="2023-05-22">May. 22, 2023</date-in-citation>
				</element-citation>
			</ref>
			<ref id="B19">
				<label>[19]</label>
				<mixed-citation>J.J. Caiza, and K. Márceles Villalba, &quot;Estrategia inclusiva mediada por TIC para el mejoramiento de la comunicación de personas en condición de discapacidad auditiva y vocal,&quot; <italic>Iberian Journal of information Systems and Technologies</italic>, vol. 23, pp. 184-193, 2019. [Online] Available: <ext-link ext-link-type="uri" xlink:href="https://www.proquest.com/docview/2348877488?sourcetype=Scholarly%20Journals">https://www.proquest.com/docview/2348877488?sourcetype=Scholarly%20Journals</ext-link>
				</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Caiza</surname>
							<given-names>J.J.</given-names>
						</name>
						<name>
							<surname>Márceles Villalba</surname>
							<given-names>K.</given-names>
						</name>
					</person-group>
					<article-title>Estrategia inclusiva mediada por TIC para el mejoramiento de la comunicación de personas en condición de discapacidad auditiva y vocal</article-title>
					<source>Iberian Journal of information Systems and Technologies</source>
					<volume>23</volume>
					<fpage>184</fpage>
					<lpage>193</lpage>
					<year>2019</year>
					<ext-link ext-link-type="uri" xlink:href="https://www.proquest.com/docview/2348877488?sourcetype=Scholarly%20Journals">https://www.proquest.com/docview/2348877488?sourcetype=Scholarly%20Journals</ext-link>
				</element-citation>
			</ref>
		</ref-list>
		<fn-group>
			<fn fn-type="other" id="fn2">
				<label>Cómo citar este artículo:</label>
				<p> M. F. Silva Joaqui, K. Márceles Villalba, S. Amador Donado, &quot;Cerrando la brecha comunicativa mediante el aprendizaje automático con una herramienta lingüística para personas sordas&quot;, <italic>Revista Facultad de Ingeniería,</italic> vol. 33, no. 69, e17473, 2024. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.19053/01211129.v33.n69.2024.17473">https://doi.org/10.19053/01211129.v33.n69.2024.17473</ext-link>
				</p>
			</fn>
			<fn fn-type="other" id="fn3">
				<label>CONTRIBUCIÓN DE AUTORES</label>
				<p><bold>Manuel-Francisco Silva-Joaqui:</bold> Investigación, Metodología, Escritura-revisión y edición. <bold>Katerine Márceles-Villalba:</bold> Conceptualización, Investigación, Metodología, Escritura-revisión y edición. <bold>Siler Amador-Donado:</bold> Estructuración, Investigación, Metodología, Escritura-revisión y edición.</p>
			</fn>
			<fn fn-type="other" id="fn5">
				<label>FINANCIACIÓN</label>
				<p> Este proyecto se financia con recursos del Patrimonio Autónomo Fondo Nacional de Financiamiento para la Ciencia, la Tecnología y la Innovación, Francisco José de Caldas.</p>
			</fn>
		</fn-group>
	</back>
</article>