<?xml version="1.0" encoding="UTF-8"?><?xml-model type="application/xml-dtd" href="https://jats.nlm.nih.gov/publishing/1.3/JATS-journalpublishing1-3.dtd"?>
<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.3 20210610//EN" "https://jats.nlm.nih.gov/publishing/1.3/JATS-journalpublishing1-3.dtd">
<article xmlns:ali="http://www.niso.org/schemas/ali/1.0/" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" specific-use="Marcalyc 1.3" dtd-version="1.3" article-type="research-article" xml:lang="es">
<front>
<journal-meta>
<journal-id journal-id-type="index">8139</journal-id>
<journal-title-group>
<journal-title specific-use="original" xml:lang="es">Tavira</journal-title>
<abbrev-journal-title abbrev-type="publisher" xml:lang="es">Tavira</abbrev-journal-title>
</journal-title-group>
<issn pub-type="epub">2792-9035</issn>
<issn-l>0214-137X</issn-l>
<publisher>
<publisher-name>Universidad de Cádiz</publisher-name>
<publisher-loc>
<country>España</country>
<email>tavira.fpcll@uca.es</email>
</publisher-loc>
</publisher>
</journal-meta>
<article-meta>
<article-id pub-id-type="art-access-id" specific-use="redalyc">813983451013</article-id>
<article-categories>
<subj-group subj-group-type="heading">
<subject>Cámara Oscura: investigaciones del área</subject>
</subj-group>
</article-categories>
<title-group>
<article-title xml:lang="es">Tecnología en la enseñanza de EL2 para personas sordas: dificultades y oportunidades</article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author" corresp="no">
<name name-style="western">
<surname>Aura</surname>
<given-names>Schabl-Duarte</given-names>
</name>
<xref ref-type="aff" rid="aff1"/>
<email>auraceleste.duarte@estudiants.urv.cat</email>
</contrib>
<contrib contrib-type="author" corresp="no">
<name name-style="western">
<surname>Gibert</surname>
<given-names>Isabel</given-names>
</name>
<xref ref-type="aff" rid="aff3"/>
<email>isabel.gibert@urv.cat</email>
</contrib>
</contrib-group>
<aff id="aff1">
<institution content-type="original">Universitat Rovira i Virigili (España)</institution>
<country country="ES">España</country>
<institution-wrap>
<institution content-type="orgname">Sin institución</institution>
</institution-wrap>
</aff>
<aff id="aff3">
<institution content-type="original">Universitat Rovira i Virigili, España</institution>
<country country="ES">España</country>
<institution-wrap>
<institution content-type="orgname">Sin institución</institution>
</institution-wrap>
</aff>
<pub-date pub-type="epub-ppub">
<season>January-December</season>
<year>2025</year>
</pub-date>
<issue>30</issue>
<fpage>1</fpage>
<lpage>18</lpage>
<history>
<date date-type="received" publication-format="dd/mm/yyyy">
<day>30</day>
<month>06</month>
<year>2025</year>
</date>
<date date-type="accepted" publication-format="dd/mm/yyyy">
<day>23</day>
<month>12</month>
<year>2025</year>
</date>
<date date-type="pub" publication-format="dd/mm/yyyy">
<day>30</day>
<month>12</month>
<year>2026</year>
</date>
</history>
<permissions>
<ali:free_to_read/>
<license xlink:href="https://creativecommons.org/licenses/by-nc-nd/4.0/">
<ali:license_ref>https://creativecommons.org/licenses/by-nc-nd/4.0/</ali:license_ref>
<license-p>Esta obra está bajo una Licencia Creative Commons Atribución-NoComercial-SinDerivar 4.0 Internacional.</license-p>
</license>
</permissions>
<abstract xml:lang="es">
<title>Resumen</title>
<p>Este estudio presenta los resultados de un proyecto de innovación docente desarrollado durante los cursos 2022-23, 2023-24 y 2024-25 en las asignaturas de prácticas externas del Máster Universitario en Traducción Editorial de la Universidad de Murcia. El objetivo general es evaluar la implementación e impacto de herramientas de automatización en procesos de revisión y corrección textual en contextos académicos y profesionales. El proyecto se ha centrado en la implementación de «El quitamanchas del Dr. Macro», una macro de limpieza textual como herramienta de automatización de procesos de revisión y corrección en <italic>MS Word</italic> creada y distribuida gratuitamente por el filólogo Antonio Martín. La investigación analiza los hábitos de revisión de tres colectivos (60 estudiantes, 22 tutores académicos y 10 editores) y su experiencia con esta herramienta. A través de encuestas se estudian los métodos de revisión, la aplicación de normas ortotipográficas, el conocimiento previo sobre macros, su utilidad percibida y la intención de uso futuro. La evaluación del impacto se realizó mediante el análisis de las calificaciones de los informes de tutores académicos, observándose una mejora de 0,5 puntos en la competencia revisora y correctora (calificación media de 9,25/10 frente a cursos anteriores sin la herramienta). Los resultados revelan una discrepancia significativa entre conocimiento previo y valoración posterior: aunque el conocimiento previo es limitado (28,3 % en estudiantes, 45,5 % en tutores y 0 % en editores), la valoración tras su uso es muy alta (93,3 %, 100 % y 100 % respectivamente). Esta discrepancia entre conocimiento (28,3%) y uso real (18,3%) en estudiantes evidencia barreras de adopción tecnológica que trascienden el mero conocimiento de la herramienta. El estudio concluye que estas herramientas representan una innovación eficiente, con beneficios tanto para la formación como para la práctica profesional. La implementación de macros de limpieza textual en entornos académicos y profesionales demuestra un potencial significativo para optimizar los flujos de trabajo editorial y mejorar la calidad de los procesos de revisión y corrección.</p>
</abstract>
<trans-abstract xml:lang="en">
<title>Abstract</title>
<p>This study presents the results of a teaching innovation project developed during the 2022-23, 2023-24 and 2024-25 academic years in the external internship subjects of the Master's Degree in Editorial Translation at the University of Murcia. The main objective is to evaluate the implementation and impact of automation tools in text revision and correction processes in academic and professional contexts. The project focused on the implementation of 'Dr. Macro's Stain Remover,' a text cleaning macro as a tool for automating revision and correction processes in MS Word, created and distributed free of charge by philologist Antonio Martín.The research analyses the revision habits of three groups (60 students, 22 academic tutors and 10 editors) and their experience with this tool. Surveys were used to study revision methods, the application of orthotypographical rules, prior knowledge of macros, their perceived usefulness and the intention to use them in the future. Impact evaluation was conducted through analysis of academic tutors' report grades, observing a 0.5-point improvement in revision and correction competence (average grade of 9.25/10 compared to previous courses without the tool). The results reveal a significant discrepancy between prior knowledge and subsequent evaluation: although prior knowledge is limited (28.3% in students, 45.5% in tutors, and 0% in editors), the evaluation after use is very high (93.3%, 100%, and 100% respectively). This discrepancy between knowledge (28.3%) and actual use (18.3%) in students evidences technology adoption barriers that transcend mere knowledge of the tool. The study concludes that these tools represent an efficient innovation, with benefits for both training and professional practice. The implementation of text cleaning macros in academic and professional environments demonstrates significant potential for optimizing editorial workflows and improving the quality of revisión and correction processes.</p>
</trans-abstract>
<trans-abstract xml:lang="pt">
<title>Resumo</title>
<p>Este estudo apresenta os resultados de um projeto de inovação docente desenvolvido durante os anos letivos de 2022-23, 2023-24 e 2024-25 nas disciplinas de estágios externos do Mestrado Universitário em Tradução Editorial da Universidade de Múrcia. O objetivo geral é avaliar a implementação e impacto de ferramentas de automatização em processos de revisão e correção textual em contextos acadêmicos e profissionais. O projeto centrou-se na implementação do «El quitamanchas del Dr. Macro», uma macro de limpeza textual como ferramenta de automatização de processos de revisão e correção no MS Word, criada e distribuída gratuitamente pelo filólogo Antonio Martín. A investigação analisa os hábitos de revisão de três grupos (60 estudantes, 22 tutores académicos e 10 editores) e a sua experiência com esta ferramenta. Através de inquéritos, são estudados os métodos de revisão, a aplicação de normas ortotipográficas, o conhecimento prévio sobre macros, a sua utilidade percebida e a intenção de utilização futura. A avaliação do impacto foi realizada mediante análise das qualificações dos relatórios de tutores acadêmicos, observando-se uma melhora de 0,5 pontos na competência revisora e corretora (qualificação média de 9,25/10 frente a cursos anteriores sem a ferramenta). Os resultados revelam uma discrepância significativa entre conhecimento prévio e valoração posterior: embora o conhecimento prévio seja limitado (28,3% em estudantes, 45,5% em tutores e 0% em editores), a valoração após seu uso é muito alta (93,3%, 100% e 100% respectivamente). Esta discrepância entre conhecimento (28,3%) e uso real (18,3%) em estudantes evidencia barreiras de adoção tecnológica que transcendem o mero conhecimento da ferramenta. O estudo conclui que estas ferramentas representam uma inovação eficiente, com benefícios tanto para a formação como para a prática profissional. A implementação de macros de limpeza textual em ambientes académicos e profissionais demonstra um potencial significativo para otimizar os fluxos de trabalho editorial e melhorar a qualidade dos processos de revisão e correção.</p>
<p>
<bold>Palabras-chave: </bold>Língua espanhola; Revisão editorial; Correção automatizada; Macros do Word; Inovação docente.</p>
</trans-abstract>
<kwd-group xml:lang="es">
<title>Palabras clave</title>
<kwd>Lengua española</kwd>
<kwd>Revisión editorial</kwd>
<kwd>Corrección automatizada</kwd>
<kwd>Macros de Word</kwd>
<kwd>Innovación docente</kwd>
</kwd-group>
<kwd-group xml:lang="en">
<title>Keywords</title>
<kwd>Spanish language</kwd>
<kwd>Editorial review</kwd>
<kwd>Automated correction</kwd>
<kwd>Word macros</kwd>
<kwd>Teaching innovation</kwd>
</kwd-group>
<kwd-group xml:lang="pt">
<title>Palavras-chave</title>
<kwd>El2</kwd>
<kwd>Comunicação</kwd>
<kwd>Tecnologia inclusiva</kwd>
<kwd>Educação de surdos</kwd>
</kwd-group>
<counts>
<fig-count count="4"/>
<table-count count="2"/>
<equation-count count="0"/>
<ref-count count="19"/>
</counts>
<custom-meta-group>
<custom-meta>
<meta-name>NOTAS</meta-name>
<meta-value>Este trabajo forma parte de una macroinvestigación en curso, cuyo objetivo es diseñar un prototipo de aplicación para la enseñanza del español como segunda lengua (L2) a personas sordas. Los resultados aquí presentados corresponden a una fase exploratoria, centrada en identificar y analizar herramientas digitales existentes con fines inclusivos. Esta etapa permitió establecer criterios de referencia y detectar vacíos funcionales. Si bien se evidencian tendencias relevantes, los resultados deben considerarse preliminares, sujetos a validación en fases posteriores del estudio.</meta-value>
</custom-meta>
<custom-meta>
<meta-name>CONTRIBUCIÓN DE LOS AUTORES</meta-name>
<meta-value>Aura Schabl-Duarte (conceptualización, tratamiento de datos y redacción), Isabel Gibert (conceptualización, redacción y revisión).</meta-value>
</custom-meta>
<custom-meta>
<meta-name>AGRADECIMIENTOS</meta-name>
<meta-value>Agradecemos el apoyo del grupo Research Group in Language and Technology (ReLaTe) de la Universitat Rovira i Virgili y Grupo de Investigación de Lengua de Señas Hondureña- Universidad Nacional Autónoma de Honduras (GILSHO – UNAH). Msc. Diana Calero, experta en programación y lingüística computacional, Ingeniero en Sistemas Bryan Portillo. Todas las figuras y gráficos son de creación propia. Texto adaptado con ayuda de ChatGPT (OpenAI).</meta-value>
</custom-meta>
</custom-meta-group>
<custom-meta-group>
<custom-meta>
<meta-name>redalyc-journal-id</meta-name>
<meta-value>8139</meta-value>
</custom-meta>
</custom-meta-group>
</article-meta>
</front>
<body>
<sec>
<title>
<bold>1. INTRODUCCIÓN</bold>
</title>
<p>Aprender español como segunda lengua (EL2) para las personas sordas es mucho más que traducir palabras o signos, es un proceso profundo que implica conectar dos mundos lingüísticos con estructuras muy distintas. Sabemos que la lengua de señas es visual, espacial y gestual, mientras que el español escrito pertenece a un canal audio-vocal representado gráficamente. Para muchas personas sordas, el acceso al español se da principalmente a través de la escritura, lo cual requiere de un abordaje pedagógico diferenciado. En este sentido, <xref ref-type="bibr" rid="redalyc_813983451013_ref17">Tovar (2000</xref>; <xref ref-type="bibr" rid="redalyc_813983451013_ref18">2002)</xref> enfatiza que la enseñanza del español escrito a la población sorda debe asumirse como segunda lengua, ya que no tiene sentido emplear enfoques diseñados para oyentes que ya poseen un referente oral. Se subraya así la necesidad de consolidar primero la lengua de señas como L1, pues sobre esa base se construyen las competencias cognitivas y sociales que facilitan la adquisición de la lengua escrita. Este planteamiento coincide con la propuesta de un <bold>modelo bilingüe-bicultural</bold> en el que la lengua de señas se reconoce como lengua natural y el español escrito como EL2. Según <xref ref-type="bibr" rid="redalyc_813983451013_ref17">Tovar (2000</xref>; <xref ref-type="bibr" rid="redalyc_813983451013_ref18">2002</xref>), los enfoques fono-céntricos han fracasado porque no consideran las particularidades cognitivas y comunicativas de la población sorda, mientras que un enfoque bilingüe interdisciplinario, basado en la consolidación de la L1, permite formar usuarios sordos competentes en lectura y escritura. No obstante, en la actualidad, para muchas personas sordas el acceso al español escrito como L2 aún continúa estando condicionado por <bold>barreras lingüísticas, cognitivas y culturales</bold>, las cuales se ven con frecuencia agravadas por la limitada disponibilidad de apoyos pedagógicos adecuados. En este contexto, las aplicaciones digitales han resultado ser prometedoras, al ofrecer nuevas posibilidades de aprendizaje mediante apoyos visuales e interactivos. Sin embargo, su desarrollo e implementación aún enfrentan grandes retos que deben abordarse desde una perspectiva inclusiva y sensible a las experiencias de quienes las utilizan (<xref ref-type="bibr" rid="redalyc_813983451013_ref1">Álvarez-Escobar et al., 2023</xref>).</p>
<p>En los últimos años, las aplicaciones educativas dirigidas a personas sordas se han ido transformando para responder a una necesidad urgente, la cual se resume en derribar las barreras comunicativas que han persistido en los modelos educativos tradicionales. Soluciones como<italic> Mimix3D </italic>y <italic>SVisual </italic>u otras aplicaciones móviles diseñadas en plataformas como <italic>Android</italic> han abierto puentes entre la lengua de señas y el lenguaje oral o escrito, al integrar tecnologías como el reconocimiento de voz, interfaces visuales intuitivas y bases de datos con apoyo gráfico (<xref ref-type="bibr" rid="redalyc_813983451013_ref11">Nashat et al., 2014</xref>). Estas herramientas abren caminos hacia la participación y el empoderamiento, para promover la autonomía comunicativa de la niñez, juventud y personas adultas sordas. Al incorporar elementos de gamificación y estrategias de aprendizaje visual, estas aplicaciones motivan y reconocen la diversidad en las formas de aprender. </p>
<p>No obstante, la realidad está más lejos de lo que se desea, puesto que se señala que muchas de estas aplicaciones aún presentan limitaciones. <xref ref-type="bibr" rid="redalyc_813983451013_ref15">Samsudin et al. (2017)</xref> destacan que la mayoría carece de marcos teóricos sólidos basados en pedagogía inclusiva y no están adecuadamente diseñadas para responder a los ritmos y necesidades cognitivas específicas del estudiantado sordo. Esto se refleja, por ejemplo, en la ausencia de estrategias multimodales que integren la lengua de señas, lectura labiofacial, textos adaptados y elementos visuales complementarios <xref ref-type="bibr" rid="redalyc_813983451013_ref15">(Samsudin et al., 2017)</xref>. Conjuntamente, investigaciones realizadas en América Latina como la de <xref ref-type="bibr" rid="redalyc_813983451013_ref1">Álvarez-Escobar et al. (2023)</xref> exponen el actual acceso desigual a la tecnología y la falta de enfoques bilingües que limitan su efectividad hacia la Comunidad Sorda. Estos autores destacan la necesidad de enfoques bilingües biculturales que reconozcan la lengua de señas como primera lengua (L1) y el español escrito como L2, lo cual debe reflejarse también en el diseño de recursos tecnológicos apropiados. De todo lo planteado, la pregunta que surge es la siguiente: ¿las aplicaciones tecnológicas diseñadas y no diseñadas para personas sordas pueden ser evaluadas como herramientas inclusivas en contextos de accesibilidad?</p>
<p>Para dar respuesta a lo anterior, se realizó un análisis de herramientas tecnológicas seleccionadas, fundamentado bajo los modelos de rúbrica de <xref ref-type="bibr" rid="redalyc_813983451013_ref13">Prieto (2020),</xref> seguidamente, se utilizó la rúbrica de evaluación de <italic/>
<xref ref-type="bibr" rid="redalyc_813983451013_ref12">
<italic>Net-Learning</italic> (2018)</xref>, una matriz de valoración desarrollada para analizar la calidad de las aplicaciones educativas y, por último, se tomó en cuenta las Pautas de Accesibilidad W3C – <xref ref-type="bibr" rid="redalyc_813983451013_ref19">World Wide Web Consortium (2018) </xref>para examinar la accesibilidad de las aplicaciones. A partir de este análisis, se identificaron recursos tecnológicos que no fueron creados para personas sordas, pero que pueden servir de apoyo en su proceso de aprendizaje. Se evaluaron aspectos como funcionalidad, accesibilidad, adaptabilidad y pertinencia lingüística, con el objetivo de determinar su potencial en el proceso de enseñanza-aprendizaje de usuarios sordos. Por lo tanto, el propósito de este artículo es analizar y valorar el uso de distintas herramientas digitales, identificando sus fortalezas, limitaciones y potencial para fomentar una educación más accesible e inclusiva para usuarios sordos.</p>
</sec>
<sec>
<title>
<bold>2. METODOLOGÍA</bold>
</title>
<p>El presente estudio adoptó un enfoque cualitativo de análisis comparativo basado en la revisión documental de aplicaciones existentes, sin participación directa de usuarios finales. <xref ref-type="bibr" rid="redalyc_813983451013_ref14">Sartori (1991)</xref> define el análisis comparativo como un método que busca identificar similitudes y diferencias entre unidades de análisis para comprender fenómenos y construir explicaciones teóricas más amplias. El proceso metodológico se desarrolló en seis etapas, como se puede observar en la <xref ref-type="fig" rid="gf1">figura1</xref>:</p>
<p>
<fig id="gf1">
<label>
<bold>Figura 1</bold>
</label>
<caption>
<title>dología de la investigación</title>
</caption>
<alt-text>Figura 1 dología de la investigación</alt-text>
<graphic xlink:href="813983451013_gf2.png" position="anchor" orientation="portrait">
<alt-text>Figura 1 dología de la investigación</alt-text>
</graphic>
<attrib>Elaboración propia</attrib>
</fig>
</p>
<p>En primer lugar, se inició con la <bold>investigación</bold> y recopilación de aplicaciones digitales potencialmente útiles para personas sordas. Para esta selección, se establecieron criterios de inclusión como; disponibilidad pública o gratuita, compatibilidad con sistemas operativos comunes (<italic>Android</italic>, <italic>iOS</italic>, versiones web), orientación educativa o comunicativa, y la presencia de al menos una función de accesibilidad (subtítulos, lengua de señas, pictogramas o transcripción). Cabe señalar que, se excluyeron aquellas aplicaciones desactualizadas, no disponibles para prueba, con barreras técnicas importantes o sin documentación verificable.</p>
<p>En la segunda etapa, se definieron los indicadores de análisis, seleccionados por su relevancia en contextos de aprendizaje inclusivo. Los cinco criterios principales fueron funcionalidad, accesibilidad, usabilidad, pertinencia lingüística y adaptabilidad. Estos se diseñaron a partir de una adaptación de las pautas de <italic/>
<xref ref-type="bibr" rid="redalyc_813983451013_ref12">
<italic>Net-Learning</italic> (2018)</xref>, que propone una estructura de rúbricas basada en objetivos educativos; de los criterios de <xref ref-type="bibr" rid="redalyc_813983451013_ref13">Prieto (2015)</xref>, enfocados en la claridad, utilidad pedagógica y personalización de las aplicaciones móviles; y de las Pautas de Accesibilidad para el Contenido Web (WCAG 2.1) del <xref ref-type="bibr" rid="redalyc_813983451013_ref19">W3C (2018)</xref>, centradas en los principios de percepción, <italic>operabilidad</italic>, comprensión y robustez, especialmente aplicables al análisis de accesibilidad digital. Estos permitieron enfocar el análisis hacia el potencial pedagógico e inclusivo de cada herramienta.</p>
<p>Las cinco dimensiones fueron evaluadas mediante una escala ordinal de 1 a 5 puntos —Tabla 1—, donde 1 representa un cumplimiento mínimo del criterio y 5 un desempeño sobresaliente, como puede verse en <xref ref-type="table" rid="gt1">la tabla 1</xref>. Esta escala fue seleccionada por su uso extendido en evaluaciones cualitativas de tecnología educativa, así como por su capacidad para representar niveles crecientes de calidad. La escala se aplicó de forma uniforme en todas las dimensiones, permitiendo comparaciones equitativas entre las herramientas.</p>
<p>
<table-wrap id="gt1">
<label>Tabla 1</label>
<caption>
<title>Distribución de puntaje</title>
</caption>
<alt-text>Tabla 1 Distribución de puntaje</alt-text>
<alternatives>
<graphic xlink:href="813983451013_gt3.png" position="anchor" orientation="portrait">
<alt-text>Tabla 1 Distribución de puntaje</alt-text>
</graphic>
<table style="border-collapse:collapse;border:none;      " id="gt2-526564616c7963">
<thead style="display:none;">
<tr style="display:none;">
<th style="display:none;"/>
</tr>
</thead>
<tbody>
<tr>
<td style="width:3.0cm;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt">
<bold>Aplicación</bold>
</td>
<td style="width:68.8pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt">
<bold>Funcionali-dad</bold>
</td>
<td style="width:71.5pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt">
<bold>Accesibili-dad</bold>
</td>
<td style="width:51.1pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt">
<bold>Usabili-dad</bold>
</td>
<td style="width:72.25pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt">
<bold>Pertinencia lingüística</bold>
</td>
<td style="width:76.2pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt">
<bold>Adaptabili-dad</bold>
</td>
</tr>
<tr>
<td style="width:3.0cm;border:none;border-bottom:solid #7F7F7F 1.0pt;            padding:0cm 5.4pt 0cm 5.4pt">
<bold>SVisual</bold>
</td>
<td style="width:68.8pt;border:none;border-bottom:solid #7F7F7F 1.0pt;            padding:0cm 5.4pt 0cm 5.4pt">5</td>
<td style="width:71.5pt;border:none;border-bottom:solid #7F7F7F 1.0pt;            padding:0cm 5.4pt 0cm 5.4pt">5</td>
<td style="width:51.1pt;border:none;border-bottom:solid #7F7F7F 1.0pt;            padding:0cm 5.4pt 0cm 5.4pt">4</td>
<td style="width:72.25pt;border:none;border-bottom:solid #7F7F7F 1.0pt;            padding:0cm 5.4pt 0cm 5.4pt">5</td>
<td style="width:76.2pt;border:none;border-bottom:solid #7F7F7F 1.0pt;            padding:0cm 5.4pt 0cm 5.4pt">3</td>
</tr>
<tr>
<td style="width:3.0cm;border:none;padding:0cm 5.4pt 0cm 5.4pt">
<bold>AVA</bold>
</td>
<td style="width:68.8pt;border:none;padding:0cm 5.4pt 0cm 5.4pt">5</td>
<td style="width:71.5pt;border:none;padding:0cm 5.4pt 0cm 5.4pt">5</td>
<td style="width:51.1pt;border:none;padding:0cm 5.4pt 0cm 5.4pt">4</td>
<td style="width:72.25pt;border:none;padding:0cm 5.4pt 0cm 5.4pt">5</td>
<td style="width:76.2pt;border:none;padding:0cm 5.4pt 0cm 5.4pt">4</td>
</tr>
<tr>
<td style="width:3.0cm;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt">
<bold>Live Transcribe</bold>
</td>
<td style="width:68.8pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt">5</td>
<td style="width:71.5pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt">5</td>
<td style="width:51.1pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt">5</td>
<td style="width:72.25pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt">5</td>
<td style="width:76.2pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt">4</td>
</tr>
<tr>
<td style="width:3.0cm;border:none;padding:0cm 5.4pt 0cm 5.4pt">
<bold>Signily</bold>
</td>
<td style="width:68.8pt;border:none;padding:0cm 5.4pt 0cm 5.4pt">2</td>
<td style="width:71.5pt;border:none;padding:0cm 5.4pt 0cm 5.4pt">4</td>
<td style="width:51.1pt;border:none;padding:0cm 5.4pt 0cm 5.4pt">4</td>
<td style="width:72.25pt;border:none;padding:0cm 5.4pt 0cm 5.4pt">4</td>
<td style="width:76.2pt;border:none;padding:0cm 5.4pt 0cm 5.4pt">2</td>
</tr>
<tr>
<td style="width:3.0cm;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt">
<bold>Sorenson Buzz</bold>
</td>
<td style="width:68.8pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt">5</td>
<td style="width:71.5pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt">5</td>
<td style="width:51.1pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt">4</td>
<td style="width:72.25pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt">4</td>
<td style="width:76.2pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt">3</td>
</tr>
<tr>
<td style="width:3.0cm;border:none;padding:0cm 5.4pt 0cm 5.4pt">
<bold>SignARTE</bold>
</td>
<td style="width:68.8pt;border:none;padding:0cm 5.4pt 0cm 5.4pt">3</td>
<td style="width:71.5pt;border:none;padding:0cm 5.4pt 0cm 5.4pt">5</td>
<td style="width:51.1pt;border:none;padding:0cm 5.4pt 0cm 5.4pt">4</td>
<td style="width:72.25pt;border:none;padding:0cm 5.4pt 0cm 5.4pt">5</td>
<td style="width:76.2pt;border:none;padding:0cm 5.4pt 0cm 5.4pt">3</td>
</tr>
<tr>
<td style="width:3.0cm;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt">
<bold>Arasaac</bold>
</td>
<td style="width:68.8pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt">5</td>
<td style="width:71.5pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt">5</td>
<td style="width:51.1pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt">4</td>
<td style="width:72.25pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt">4</td>
<td style="width:76.2pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt">5</td>
</tr>
<tr>
<td style="width:3.0cm;border:none;border-bottom:solid #7F7F7F 1.0pt;         padding:0cm 5.4pt 0cm 5.4pt">
<bold>Pictotraductor</bold>
</td>
<td style="width:68.8pt;border:none;border-bottom:solid #7F7F7F 1.0pt;         padding:0cm 5.4pt 0cm 5.4pt">4</td>
<td style="width:71.5pt;border:none;border-bottom:solid #7F7F7F 1.0pt;         padding:0cm 5.4pt 0cm 5.4pt">4</td>
<td style="width:51.1pt;border:none;border-bottom:solid #7F7F7F 1.0pt;         padding:0cm 5.4pt 0cm 5.4pt">4</td>
<td style="width:72.25pt;border:none;border-bottom:solid #7F7F7F 1.0pt;         padding:0cm 5.4pt 0cm 5.4pt">5</td>
<td style="width:76.2pt;border:none;border-bottom:solid #7F7F7F 1.0pt;         padding:0cm 5.4pt 0cm 5.4pt">3</td>
</tr>
</tbody>
</table>
</alternatives>
<attrib>Elaboración propia</attrib>
</table-wrap>
</p>
<p>Por un lado, se analizó la funcionalidad, entiéndase como la capacidad de la aplicación para cumplir sus objetivos principales, ya fueran de carácter educativo o comunicativo. Esta dimensión contempló elementos como la estabilidad técnica, el nivel de interactividad y la diversidad de recursos integrados (<italic/>
<xref ref-type="bibr" rid="redalyc_813983451013_ref12">
<italic>Net-Learning</italic>, 2018</xref>). En cuanto a la accesibilidad, se consideraron aspectos que permiten el uso efectivo por parte de personas con diversidad funcional auditiva. Para ello, se evaluaron criterios como el contraste visual, la inclusión de subtítulos, la transcripción de voz, la navegación intuitiva y la presencia de lengua de señas, siguiendo los principios establecidos en las WCAG 2.1 (<xref ref-type="bibr" rid="redalyc_813983451013_ref19">W3C, 2018</xref>). También se tuvo en cuenta la usabilidad, que refiere a la facilidad de uso general de la herramienta. Se valoraron la claridad de la interfaz, la organización de los menús, la curva de aprendizaje, el diseño visual y la coherencia general de la experiencia de usuario (<xref ref-type="bibr" rid="redalyc_813983451013_ref13">Prieto, 2015</xref>).</p>
<p> En lo relativo a la pertinencia lingüística, se examinó la adecuación del contenido al idioma del usuario, así como la incorporación de lenguajes visuales alternativos, como la lengua de señas o los pictogramas que resultan esenciales para facilitar la comprensión y expresión en personas sordas (<xref ref-type="bibr" rid="redalyc_813983451013_ref12">Net-Learning, 2018</xref>; <xref ref-type="bibr" rid="redalyc_813983451013_ref13">Prieto, 2015)</xref>. Por último, se valoró la adaptabilidad, entendida como la capacidad de la herramienta para ajustarse a distintos contextos y perfiles de usuarios. Es decir, se consideraron variables como la compatibilidad multiplataforma, la posibilidad de personalización y la flexibilidad de uso en diferentes entornos tecnológicos y educativos. Posteriormente, se elaboró una ficha de análisis estructurada, con el propósito de <bold>recopilar de manera sistemática y objetiva</bold> la información clave de cada herramienta. Esta ficha incluyó campos esenciales como el nombre de la aplicación, año de creación, desarrollador o entidad responsable, funcionalidades principales, compatibilidad con distintos sistemas operativos, características destacadas de accesibilidad y otros datos relevantes que aportaron una visión contextual y cualitativa del recurso. Seguidamente, para sintetizar y comunicar los resultados de la evaluación, se recurrió a una representación visual mediante gráficos tipo radar (también conocidos como gráficos de araña o <italic>spider charts</italic>), inspirada en el gráfico que propone <xref ref-type="bibr" rid="redalyc_813983451013_ref13">Prieto (2020)</xref> en su rúbrica. En estos diagramas, cada aplicación se representó con un polígono, cuyos ejes corresponden a los criterios/dimensiones evaluadas, se marcó el grado de cumplimiento de cada criterio relacionado. Esta visualización permite comparar rápidamente el perfil de fortalezas y debilidades de cada aplicación, que evidenció en qué áreas sobresalía o presentaba carencias cada una.</p>
<p>Posteriormente, en la <bold>etapa de filtrado</bold>, se seleccionaron aquellas aplicaciones que alcanzaron mejores puntuaciones, descartando las que no cumplían con los criterios mínimos establecidos. La selección final incluyó ocho aplicaciones que representan diferentes aproximaciones tecnológicas a la accesibilidad para personas sordas. Cinco de ellas se centran en la <bold>comunicación y accesibilidad auditiva</bold> (<italic>SVisual</italic>, AVA, <italic>Live Transcribe</italic>, <italic>Sorenson</italic>
<italic> Buzz</italic> y <italic>SignARTE</italic>), ya sea mediante vídeo-interpretación, transcripción de voz en tiempo real o mediación visual de contenidos orales. La aplicación <bold>
<italic>Signily</italic>
</bold>
<bold>, </bold>se clasificó como herramienta de <bold>apoyo lingüístico</bold>
<bold>visual</bold>, orientada a la comunicación escrita mediante alfabeto manual. Seguidamente, <bold>
<italic>Arasaac</italic>
</bold> y <bold>
<italic>Pictotraductor</italic>
</bold> fueron identificadas como <bold>traductores visuales</bold>, útiles en contextos educativos y multilingües para personas con baja alfabetización.</p>
<p>Para la ejecución del análisis, se tomaron en cuenta los criterios propuestos por <xref ref-type="bibr" rid="redalyc_813983451013_ref13">Prieto (2020) </xref>sobre el diseño y uso de aplicaciones educativas móviles. Los mismos abarcan dimensiones pedagógicas clave como la alineación de la aplicación con los objetivos curriculares, la autenticidad de las actividades (aprendizajes situados en contextos reales), la flexibilidad y la personalización según necesidades del estudiante. Además, se añade, la calidad de la retroalimentación proporcionada, el fomento de habilidades cognitivas de orden superior, es decir, análisis, evaluación, creatividad y la promoción de la colaboración entre los usuarios. Por lo que, estos indicadores permiten evaluar hasta qué punto cada herramienta incorpora buenas prácticas en las necesidades específicas del usuario.</p>
<p>En segundo lugar, se utilizó la rúbrica de evaluación de <italic/>
<xref ref-type="bibr" rid="redalyc_813983451013_ref12">
<italic>Net-Learning</italic> (2018),</xref> una matriz de valoración desarrollada para analizar la calidad de las aplicaciones educativas. Esta rúbrica provee criterios e indicadores concretos para calificar cada aplicación en una escala (excelente, bueno, regular, deficiente) en aspectos como la pertinencia de la app para su propósito educativo, la facilidad de uso de la interfaz, el grado de personalización posible, la eficacia de la retroalimentación, la autenticidad de las actividades de aprendizaje, el desarrollo de habilidades de pensamiento, el apoyo al trabajo colaborativo y la motivación que la app genera en el estudiante</p>
<p>Por último, se consideraron las Pautas de Accesibilidad <xref ref-type="bibr" rid="redalyc_813983451013_ref19">W3C – World Wide Web Consortium (2018)</xref> para examinar la accesibilidad de las aplicaciones. Estas directrices internacionales contienen principios y recomendaciones para asegurar que el contenido digital sea perceptible, operable, comprensible y robusto para usuarios con discapacidad. En el contexto del análisis, se verificó, por ejemplo, que las aplicaciones ofrecieran alternativas textuales para contenidos no auditivos y que incluyeran subtítulos u otras alternativas para contenido multimedia, asegurando que su diseño soporta múltiples formas (lo anterior, no aplica para aplicaciones no destinadas a usuarios sordos).</p>
<p>En consecuencia, como parte complementaria de la revisión, se hizo un análisis de compatibilidad multiplataforma de cada aplicación, verificando la compatibilidad de las apps con distintos sistemas operativos y dispositivos. Se comprobó si las aplicaciones funcionan en plataformas de uso común como <italic>Windows</italic>, además de entornos móviles (<italic>Android</italic>, <italic>iOS</italic>) o si ofrecían versiones web. Esta revisión asegura que las recomendaciones tomadas en cuenta para el nuevo desarrollo contemplen la necesidad de multiplataforma. Según Alnfiai (2021), la compatibilidad multiplataforma es fundamental para garantizar que una mayor diversidad de personas pueda acceder a una aplicación, al promover así la inclusión tecnológica, dado que la inclusividad tecnológica implica acceso desde diferentes herramientas (computadoras de escritorio, portátiles o dispositivos móviles) a partir de las preferencias y contextos de los usuarios.</p>
</sec>
<sec>
<title>
<bold>3. RESULTADOS</bold>
</title>
<p>En la <xref ref-type="table" rid="gt2">tabla 2</xref> se presenta una ficha informativa general que recoge y compara los aspectos más representativos de cada aplicación seleccionada. Esto ayudó no solo a organizar la información de manera clara, sino que permitió comprender de forma integral el valor de cada solución tecnológica en contextos de accesibilidad comunicativa.</p>
<p>
<table-wrap id="gt2">
<label>Tabla 2</label>
<caption>
<title>Ficha informativa general</title>
</caption>
<alt-text>Tabla 2 Ficha informativa general</alt-text>
<alternatives>
<graphic xlink:href="813983451013_gt5.png" position="anchor" orientation="portrait">
<alt-text>Tabla 2 Ficha informativa general</alt-text>
</graphic>
<table style="width:457.6pt;border-collapse:collapse;border:none;" id="gt4-526564616c7963">
<thead style="display:none;">
<tr style="display:none;">
<th style="display:none;"/>
</tr>
</thead>
<tbody>
<tr style="   height:3.75pt">
<td style="width:59.2pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt;height:3.75pt">
<bold>Nombre de  herramienta</bold>
</td>
<td style="width:43.25pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt;height:3.75pt">
<bold>Año de creación</bold>
</td>
<td style="border-top:solid #7F7F7F 1.0pt;border-left:none;border-bottom:solid #7F7F7F 1.0pt;      border-right:none;      padding:0cm 5.4pt 0cm 5.4pt;height:3.75pt">
<bold>Desarrollador - organización</bold>
</td>
<td style="border-top:solid #7F7F7F 1.0pt;border-left:none;border-bottom:solid #7F7F7F 1.0pt;      border-right:none;      padding:0cm 5.4pt 0cm 5.4pt;height:3.75pt">
<bold>Funcionali-dades clave</bold>
</td>
<td style="border-top:solid #7F7F7F 1.0pt;border-left:none;border-bottom:solid #7F7F7F 1.0pt;      border-right:none;      padding:0cm 5.4pt 0cm 5.4pt;height:3.75pt">
<bold>Compatibilidad</bold>
</td>
<td style="border-top:solid #7F7F7F 1.0pt;border-left:none;border-bottom:solid #7F7F7F 1.0pt;      border-right:none;      padding:0cm 5.4pt 0cm 5.4pt;height:3.75pt">
<bold>Accesibilidad destacada</bold>
</td>
<td style="width:68.6pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt;height:3.75pt">
<bold>Otros datos relevantes</bold>
</td>
</tr>
<tr style="height:15.25pt">
<td style="width:59.2pt;border:none;border-bottom:solid #7F7F7F 1.0pt;            padding:0cm 5.4pt 0cm 5.4pt;height:15.25pt">
<bold>SVisual</bold>
</td>
<td style="width:43.25pt;border:none;border-bottom:solid #7F7F7F 1.0pt;            padding:0cm 5.4pt 0cm 5.4pt;height:15.25pt">2010</td>
<td style="border:none;border-bottom:solid #7F7F7F 1.0pt;            padding:0cm 5.4pt 0cm 5.4pt;height:15.25pt">Fundación CNSE (España)</td>
<td style="border:none;border-bottom:solid #7F7F7F 1.0pt;            padding:0cm 5.4pt 0cm 5.4pt;height:15.25pt">Videollamadas en LSE, chat en tiempo real, interpretación, alertas visuales y vibración</td>
<td style="border:none;border-bottom:solid #7F7F7F 1.0pt;            padding:0cm 5.4pt 0cm 5.4pt;height:15.25pt">Windows, Android, iOS</td>
<td style="border:none;border-bottom:solid #7F7F7F 1.0pt;            padding:0cm 5.4pt 0cm 5.4pt;height:15.25pt">Videollamadas en LSE, chat textual, compatible con audífonos bluetooth y vibradores</td>
<td style="width:68.6pt;border:none;border-bottom:solid #7F7F7F 1.0pt;            padding:0cm 5.4pt 0cm 5.4pt;height:15.25pt">Premio Solidarios ONCE (2011); parte del sistema público accesible en España</td>
</tr>
<tr style="height:11.25pt">
<td style="width:59.2pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:11.25pt">
<bold>AVA</bold>
</td>
<td style="width:43.25pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:11.25pt">2015</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:11.25pt">Transcense Inc. (EE. UU.)</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:11.25pt">Transcripción en tiempo real, identificación de hablantes, soporte multilingüe</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:11.25pt">Android, iOS, versión web</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:11.25pt">Texto personalizable, transcripción en vivo en clases y eventos</td>
<td style="width:68.6pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:11.25pt">Reconocida por TechCrunch y DisabilityIN como innovación inclusiva</td>
</tr>
<tr style="height:.95pt">
<td style="width:59.2pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">
<bold>Signily</bold>
</td>
<td style="width:43.25pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">2015</td>
<td style="border-top:solid #7F7F7F 1.0pt;border-left:none;border-bottom:solid #7F7F7F 1.0pt;      border-right:none;      padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">ASLized (EE. UU.)</td>
<td style="border-top:solid #7F7F7F 1.0pt;border-left:none;border-bottom:solid #7F7F7F 1.0pt;      border-right:none;      padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">Teclado de emojis del alfabeto manual ASL, uso en mensajería</td>
<td style="border-top:solid #7F7F7F 1.0pt;border-left:none;border-bottom:solid #7F7F7F 1.0pt;      border-right:none;      padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">iOS (gratuita y de pago)</td>
<td style="border-top:solid #7F7F7F 1.0pt;border-left:none;border-bottom:solid #7F7F7F 1.0pt;      border-right:none;      padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">Visualización de signos del alfabeto manual en entornos digitales</td>
<td style="width:68.6pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">Proyecto sin fines de lucro; promueve el ASL digitalmente</td>
</tr>
<tr style="height:.95pt">
<td style="width:59.2pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:.95pt">
<bold>Live Transcribe</bold>
</td>
<td style="width:43.25pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:.95pt">2019</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">Google Research + Gallaudet University</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">Transcripción voz-texto, reconocimiento de sonidos, soporte multilingüe</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">Android (nativo desde 10+)</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">Texto de alto contraste, fuente grande, vibraciones de alerta</td>
<td style="width:68.6pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:.95pt">Basada en tecnologías ASR de Google; actualizaciones frecuentes</td>
</tr>
<tr style="height:.95pt">
<td style="width:59.2pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">
<bold>Sorenson Buzz</bold>
</td>
<td style="width:43.25pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">2018</td>
<td style="border-top:solid #7F7F7F 1.0pt;border-left:none;border-bottom:solid #7F7F7F 1.0pt;      border-right:none;      padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">Sorenson Communications (EE. UU.)</td>
<td style="border-top:solid #7F7F7F 1.0pt;border-left:none;border-bottom:solid #7F7F7F 1.0pt;      border-right:none;      padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">Videollamadas gratuitas, mensajería instantánea, soporte de ASL</td>
<td style="border-top:solid #7F7F7F 1.0pt;border-left:none;border-bottom:solid #7F7F7F 1.0pt;      border-right:none;      padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">Android, iOS</td>
<td style="border-top:solid #7F7F7F 1.0pt;border-left:none;border-bottom:solid #7F7F7F 1.0pt;      border-right:none;      padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">Videollamadas en ASL, subtítulos opcionales</td>
<td style="width:68.6pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">Llamadas de emergencia accesibles; fuerte presencia en EE. UU.</td>
</tr>
<tr style="height:.95pt">
<td style="width:59.2pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:.95pt">
<bold>SignARTE</bold>
</td>
<td style="width:43.25pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:.95pt">2020</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">CNSE (España)</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">Acceso cultural en LSE mediante videos y contenidos artísticos</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">Versión web</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">Accesibilidad visual, lengua de señas, enfoque artístico inclusivo</td>
<td style="width:68.6pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:.95pt">Pionera en cultura accesible en LSE, recursos multimedia inclusivos</td>
</tr>
<tr style="height:.95pt">
<td style="width:59.2pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">
<bold>Arasaac</bold>
</td>
<td style="width:43.25pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">2007</td>
<td style="border-top:solid #7F7F7F 1.0pt;border-left:none;border-bottom:solid #7F7F7F 1.0pt;      border-right:none;      padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">Gobierno de Aragón (España)</td>
<td style="border-top:solid #7F7F7F 1.0pt;border-left:none;border-bottom:solid #7F7F7F 1.0pt;      border-right:none;      padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">Banco de pictogramas, materiales gráficos para comunicación aumentativa</td>
<td style="border-top:solid #7F7F7F 1.0pt;border-left:none;border-bottom:solid #7F7F7F 1.0pt;      border-right:none;      padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">Versión web, integrable en apps</td>
<td style="border-top:solid #7F7F7F 1.0pt;border-left:none;border-bottom:solid #7F7F7F 1.0pt;      border-right:none;      padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">Alto nivel de adaptabilidad, personalización de contenido visual</td>
<td style="width:68.6pt;border-top:solid #7F7F7F 1.0pt;   border-left:   none;border-bottom:solid #7F7F7F 1.0pt;   border-right:none;   padding:0cm 5.4pt 0cm 5.4pt;height:.95pt">Ampliamente adoptada en entornos educativos y terapéuticos</td>
</tr>
<tr style="height:11.25pt">
<td style="width:59.2pt;border:none;border-bottom:solid #7F7F7F 1.0pt;         padding:0cm 5.4pt 0cm 5.4pt;height:11.25pt">
<bold>Pictotra-ductor</bold>
</td>
<td style="width:43.25pt;border:none;border-bottom:solid #7F7F7F 1.0pt;         padding:0cm 5.4pt 0cm 5.4pt;height:11.25pt">2016</td>
<td style="border:none;border-bottom:solid #7F7F7F 1.0pt;         padding:0cm 5.4pt 0cm 5.4pt;height:11.25pt">Grupo Promedia (España)</td>
<td style="border:none;border-bottom:solid #7F7F7F 1.0pt;         padding:0cm 5.4pt 0cm 5.4pt;height:11.25pt">Conversión de texto en pictogramas, herramienta de apoyo cognitivo</td>
<td style="border:none;border-bottom:solid #7F7F7F 1.0pt;         padding:0cm 5.4pt 0cm 5.4pt;height:11.25pt">Versión web</td>
<td style="border:none;border-bottom:solid #7F7F7F 1.0pt;         padding:0cm 5.4pt 0cm 5.4pt;height:11.25pt">Visualización automática de contenido en pictogramas, fácil navegación</td>
<td style="width:68.6pt;border:none;border-bottom:solid #7F7F7F 1.0pt;         padding:0cm 5.4pt 0cm 5.4pt;height:11.25pt">Uso frecuente en contextos educativos y logopédicos</td>
</tr>
</tbody>
</table>
</alternatives>
<table-wrap-foot>
<fn id="fn2" fn-type="other">
<label>Notas:</label>
<p>LSE: Lengua de Señas Española. ASL: American Sign Language (Lengua de Señas Americana)</p>
</fn>
</table-wrap-foot>
</table-wrap>
</p>
<p>Cabe señalar que cada una de estas herramientas fueron analizadas a partir de criterios clave: el año en que fue creada la aplicación, que nos proporciona contexto sobre su evolución y vigencia; la entidad o equipo desarrollador, que indica si se trata de una organización sin ánimo de lucro como una empresa tecnológica y garantiza unos mínimos estándares de calidad; sus funcionalidades principales, que reflejan el tipo de necesidades comunicativas que busca cubrir (en este contexto, la diversidad funcional auditiva) como transcripciones automáticas, videollamadas en lengua de señas,  teclados especializados; la compatibilidad con los distintos sistemas operativos; y una última columna en la que se añaden datos relevantes que hablan de su calidad e impacto, como los premios recibidos, las actualizaciones, si dispone de recursos inclusivos, frecuencia de uso, o si está presente terapéuticos.</p>
<p>En conjunto, la tabla organiza la información de manera sistemática a la vez que permite visualizar de forma comparativa las fortalezas y limitaciones de cada herramienta. Esta estructura facilita la identificación de patrones comunes y diferencias significativas entre las aplicaciones, ofreciendo una base sólida para valorar su pertinencia en contextos de apoyo a la comunicación de personas con diversidad funcional auditiva.</p>
<p>
<bold>Análisis: Radar comparativo de las mejores aplicaciones candidatas</bold>
</p>
<p>El radar comparativo general presentado en la <xref ref-type="fig" rid="gf2">figura 2 </xref>permite visualizar el desempeño de las ocho aplicaciones en las cinco dimensiones clave: funcionalidad, accesibilidad, usabilidad, pertinencia lingüística y adaptabilidad. Este enfoque no solo facilitó una visión integral del rendimiento de cada herramienta, sino que también permitió establecer contrastes significativos entre ellas. Gracias a esta perspectiva comparativa, fue posible identificar cuáles aplicaciones ofrecen un soporte comunicativo más completo, integrando múltiples recursos para responder a diversas necesidades de la población sorda, y cuáles, en cambio, se centran en objetivos más específicos, pero aportan fortalezas diferenciadas según su propósito pedagógico o tecnológico<bold>.</bold> De la misma manera, el análisis evidenció que no existe una aplicación “ideal” que cubra todas las dimensiones de manera sobresaliente; más bien, cada una contribuye de manera parcial al proceso de enseñanza-aprendizaje. Esta constatación resulta relevante porque pone de manifiesto la importancia de articular y complementar diversas herramientas digitales, de modo que su uso combinado pueda responder de manera más efectiva a los retos de inclusión y accesibilidad que enfrentan los estudiantes sordos en la actualidad.</p>
<p>
<fig id="gf2">
<label>
<bold>Figura 2</bold>
</label>
<caption>
<title>Comparativa de aplicaciones</title>
</caption>
<alt-text>Figura 2 Comparativa de aplicaciones</alt-text>
<graphic xlink:href="813983451013_gf3.png" position="anchor" orientation="portrait">
<alt-text>Figura 2 Comparativa de aplicaciones</alt-text>
</graphic>
<attrib>Elaboración propia: gráfico generado con Python (Matplotlib), a partir de datos analizados mediante IA generativa.</attrib>
</fig>
</p>
<p>Inicialmente, se destacan <italic>Live Transcribe</italic>, <italic>SVisual</italic> y AVA (polígonos azul, rojo y verde, Figura 2), cuyos polígonos se expanden hacia casi todos los vértices del radar. Estas aplicaciones evidencian un alto rendimiento en funcionalidad, accesibilidad y pertinencia lingüística, que confirma su papel como un apoyo integral para personas sordas.</p>
<p>
<italic>Live Transcribe</italic> combina transcripción en múltiples idiomas con detección de sonidos del entorno, lo que extiende su valor a contextos informales, académicos y profesionales. <italic>SVisual</italic>, al ofrecer videointerpretación en Lengua de Señas Española (LSE), representa una solución directa, natural y culturalmente adecuada.</p>
<p>            AVA ofrece transcripción colaborativa multilingüe en tiempo real, diferencia a las personas hablantes y permite interacciones más dinámicas, incluso en ambientes ruidosos. Cabe resaltar que estas cumplen sus descripciones específicas y generales accesibles, en conjunto a comentarios de satisfacción, sin embargo, debe ser aplicada a usuarios directos.</p>
<p>Para facilitar la interpretación de las visualizaciones tipo radar, es importante aclarar que la escala utilizada en los ejes de cada gráfico corresponde a una valoración ordinal de 1 a 5 puntos, donde 1 representa un nivel muy bajo de cumplimiento del criterio evaluado y 5 indica un desempeño sobresaliente. Esta escala fue aplicada de manera uniforme en las cinco dimensiones analizadas: funcionalidad, accesibilidad, usabilidad, pertinencia lingüística y adaptabilidad. Los puntajes asignados fueron determinados con base en una adaptación de las rúbricas propuestas por <xref ref-type="bibr" rid="redalyc_813983451013_ref13">Prieto (2020)</xref>, <italic/>
<xref ref-type="bibr" rid="redalyc_813983451013_ref12">
<italic>Net-Learning</italic> (2018)</xref> y las pautas de accesibilidad digital del <xref ref-type="bibr" rid="redalyc_813983451013_ref19">W3C (2018).</xref> Así, cada eje del gráfico refleja de forma visual el grado en que una aplicación responde a las necesidades comunicativas y educativas de personas sordas, permitiendo una comparación clara y sintética entre herramientas tecnológicas con distintos enfoques funcionales.</p>
<p>En la <xref ref-type="fig" rid="gf3">figura 3</xref> se pueden observar las seis dimensiones clave relacionadas con la accesibilidad comunicativa (multilingüismo, detección de sonidos, interacción dinámica, pertinencia cultural, uso de lengua de señas y aplicabilidad en distintos contextos):</p>
<p>
<fig id="gf3">
<label>
<bold>Figura 3</bold>
</label>
<caption>
<title>Comparativa de aplicaciones</title>
</caption>
<alt-text>Figura 3 Comparativa de aplicaciones</alt-text>
<graphic xlink:href="813983451013_gf4.png" position="anchor" orientation="portrait">
<alt-text>Figura 3 Comparativa de aplicaciones</alt-text>
</graphic>
<attrib>Elaboración propia: gráfico generado con Python (Matplotlib), a partir de datos analizados mediante IA generativa.</attrib>
</fig>
</p>
<p>En ella podemos ver que <italic>Live Transcribe</italic> se perfila como la herramienta más completa en términos funcionales, destaca especialmente en el soporte multilingüe, la detección de sonidos del entorno y su capacidad de adaptación a entornos académicos, profesionales e informales. Por su parte, <italic>SVisual</italic> alcanza sus mayores fortalezas en los aspectos culturales y lingüísticos, al ofrecer videointerpretación en LSE, lo que la convierte en una opción más directa y cercana para usuarios que se comunican con la misma. En tanto, AVA sobresale por ofrecer transcripción colaborativa y diferenciación de hablantes en tiempo real, lo que la hace especialmente útil en espacios ruidosos o donde intervienen múltiples personas, aunque con menor alcance en otros criterios.</p>
<p>            Por lo tanto, este aspecto poco visible pero relevante en esta comparación es el modo en que cada aplicación resuelve las tensiones entre automatización y control del usuario. Mientras <italic>Live Transcribe</italic> y AVA dependen principalmente de procesos automáticos de reconocimiento de voz, <italic>SVisual</italic> introduce la intervención humana mediante intérpretes en tiempo real, lo que aporta un nivel más alto de precisión cultural y contextual. Esta diferencia técnica también se traduce en distintos tipos de experiencia para el usuario sordo, es decir, una más autónoma y fluida, frente a otra más personalizada y confiable. Los que nos deja reflexionar que, más allá de las puntuaciones obtenidas, la elección de una herramienta dependerá en gran medida del contexto comunicativo, las preferencias del usuario y los recursos disponibles. En conjunto, en el gráfico se observa que cada aplicación está pensada para cubrir diferentes necesidades dentro del gran universo de la comunicación accesible. Por consiguiente, estas tres aplicaciones cumplen con las Pautas de Accesibilidad del <xref ref-type="bibr" rid="redalyc_813983451013_ref19">W3C – World Wide Web Consortium (2018) </xref>y se alinean con los criterios pedagógicos y técnicos establecidos en las rúbricas propuestas por <xref ref-type="bibr" rid="redalyc_813983451013_ref13">Prieto (2020) </xref>y <italic/>
<xref ref-type="bibr" rid="redalyc_813983451013_ref12">
<italic>Net-Learning</italic> (2018).</xref> Esto evidencia un nivel de madurez técnica, claridad en sus objetivos funcionales y una adecuación pertinente al contexto lingüístico y cultural del usuario.</p>
<p> De la misma forma, el gráfico radar correspondiente representa estas evaluaciones utilizando una escala ordinal de 1 a 5 puntos, donde 1 indica un nivel deficiente de cumplimiento del criterio evaluado y 5 refleja una implementación sólida o destacada (<xref ref-type="fig" rid="gf4">Figura 4</xref>). Las dimensiones consideradas en esta visualización incluyen la precisión de transcripción, velocidad de respuesta, reconocimiento de voz, soporte multilingüe, detección de sonidos del entorno y adecuación a contextos educativos. Esta representación permite identificar las fortalezas específicas de cada herramienta, como la amplia cobertura multilingüe de AVA o la integración cultural de <italic>SVisual</italic> mediante videointerpretación en lengua de señas.</p>
<p>
<fig id="gf4">
<label>
<bold>Figura 4</bold>
</label>
<caption>
<title>Comparativa de aplicaciones</title>
</caption>
<alt-text>Figura 4 Comparativa de aplicaciones</alt-text>
<graphic xlink:href="813983451013_gf5.png" position="anchor" orientation="portrait">
<alt-text>Figura 4 Comparativa de aplicaciones</alt-text>
</graphic>
<attrib>Elaboración propia: gráfico generado con Python (Matplotlib), a partir de datos analizados mediante IA generativa.</attrib>
</fig>
</p>
<p>Por otro lado, <italic>Signily</italic> (polígono celeste, Figura 2 y 4) representa un caso de herramienta de nicho, su funcionalidad general es reducida (al actuar solo como teclado de <italic>emojis</italic> en ASL), pero obtiene buen puntaje en accesibilidad y pertinencia dentro de su ámbito. Es una aplicación con valor identitario y pedagógico para el aprendizaje y uso del alfabeto signado, aunque limitada como medio principal de comunicación. Ahora bien, desde la perspectiva de <italic>Arasaac</italic> (polígono naranja, figura 2 y 4), esta presenta un perfil particularmente fuerte en adaptabilidad. Como repositorio de pictogramas aplicables en educación, comunicación alternativa y accesibilidad cognitiva, no está diseñada como una app comunicativa directa, pero su versatilidad ha permitido su incorporación en numerosas plataformas. Su alta puntuación en funcionalidad y pertinencia, además de su amplia capacidad de personalización, la consolidan como un recurso fundamental y expansible en distintos entornos, no solo para la Comunidad Sorda, sino para otras diversidades funcionales.</p>
<p> Educativamente, ambas aplicaciones pueden enriquecer entornos de aprendizaje inclusivos. En especial en la enseñanza del EL2, <italic>Signily</italic> puede emplearse como herramienta de apoyo visual y motriz en contextos bilingües bimodales (lengua oral y lengua de señas), mientras que <italic>Arasaac</italic> permite reforzar el vocabulario y la comprensión mediante pictogramas que facilitan la adquisición semántica y la estructuración gramatical. Por ejemplo, los docentes pueden crear materiales visuales accesibles con pictogramas para apoyar al estudiantado con necesidades educativas específicas o diseñar secuencias de actividades que combinen el uso de señas y escritura para promover una alfabetización multimodal.</p>
<p>En cuanto, a las aplicaciones <italic>SignARTE</italic> y <italic>Sorenson Buzz</italic> (polígonos amarillo y morado, figura 2 y 4) configuran perfiles equilibrados. Ambas presentan una a<italic>lta accesibilidad visual </italic>y<italic> buena usabilidad</italic>. Por una parte, <italic>SignARTE</italic> proporciona acceso cultural accesible en LSE, siendo pionera en la visibilización de la cultura inclusiva en lengua de señas. Por otra parte<italic>,</italic>
<italic>Sorenson Buzz</italic> permite mensajería visual y videollamadas en lengua de señas, construyendo una comunidad digital en torno al uso visual del lenguaje. Su enfoque es normalmente más restringido geográficamente (ASL en EE. UU.), sin embargo, es altamente adecuado para sus usuarios locales.</p>
<p>Por último, <italic>Pictotraductor </italic>(polígono gris, figura 2 y 4) se posiciona como una herramienta de apoyo cognitivo y educativo, esta convierte el texto en secuencias de pictogramas, actuando como puente entre el lenguaje verbal y el visual (no lengua de signos). Sus puntuaciones en pertinencia lingüística y usabilidad son sólidas, y aunque su adaptabilidad es más contenida como interfaz web (pocas integraciones externas), sigue siendo un recurso clave en contextos educativos y terapéuticos. Enfocándonos en la perspectiva educativa, su uso resulta especialmente valioso en aulas inclusivas y en la enseñanza del EL2, al facilitar la comprensión de estructuras gramaticales básicas y vocabulario cotidiano mediante apoyos visuales directos. Por ejemplo, puede emplearse para presentar instrucciones o narraciones en formato accesible, ayudar en la comprensión lectora o diseñar actividades donde el estudiantado traduzca frases simples a pictogramas, reforzando la relación entre texto y significado (representaciones gráficas que ilustran su contenido).</p>
<p>En esta misma línea, las herramientas fueron evaluadas en torno a dimensiones clave como el valor pedagógico, la accesibilidad visual, la comunidad de usuarios, la versatilidad lingüística, la identidad cultural y el soporte educativo. Al igual que en los gráficos anteriores, se utilizó una escala ordinal de 1 a 5, donde 1 indica una implementación muy limitada y 5 representa un nivel óptimo de desarrollo en cada dimensión. La representación gráfica facilita la identificación de perfiles diferenciados: por ejemplo, el enfoque identitario de <italic>Signily</italic>, el valor cultural de <italic>SignARTE </italic>o la alta adaptabilidad de <italic>Arasaac</italic> como repositorio gráfico versátil y aplicable en diversos contextos educativos. En conjunto, esta comparación ofrece una visión ampliada del impacto cualitativo de las herramientas analizadas, permitiendo comprender su aporte en entornos de aprendizaje inclusivo y culturalmente diverso.</p>
<p>Llegando a este punto, el análisis del radar nos permite reconocer a las aplicaciones y herramientas más firmes y completas, y valorar aquellas cuyas fortalezas específicas las hacen esenciales para determinados perfiles de usuario o situaciones. Tal como afirma <xref ref-type="bibr" rid="redalyc_813983451013_ref5">Bax (2003),</xref> comparar tecnologías en función de su grado de integración y uso contextual permite identificar fortalezas que no siempre son visibles desde una evaluación general.</p>
<p>En este sentido, la diversidad de enfoques que ofrecen estas herramientas, desde la transcripción automática hasta la representación visual de la lengua de señas o el apoyo pictográfico, evidencia que no existe una única solución universal, sino un ecosistema de herramientas complementarias. Esta variedad, responde a nuestra pregunta inicial, demostrando que tanto las aplicaciones diseñadas específicamente para personas sordas como aquellas creadas para un público general pueden ser exploradas y evaluadas críticamente como herramientas inclusivas, siempre y tanto que su funcionalidad responda de manera efectiva a las necesidades comunicativas de los usuarios en contextos reales de accesibilidad.</p>
<p>Estas primeras observaciones también nos ofrecen una guía valiosa para el desarrollo de futuras tecnologías, integrar funciones multimodales, permitir la personalización lingüística y cultural, y garantizar conformidad con estándares internacionales de accesibilidad. Por lo que, estos aspectos pueden potenciar el impacto y la adopción de nuevas soluciones tecnológicas dirigidas a la Comunidad Sorda, ampliando así el alcance de la inclusión en entornos cada vez más digitales.</p>
</sec>
<sec sec-type="discussion">
<title>
<bold>4. DISCUSIONES Y CONCLUSIONES</bold>
</title>
<p>Recopilando los resultados más significativos de la investigación, durante el análisis pudimos describir las características específicas, fortalezas y debilidades de cada herramienta evaluada. Para cada una de ellas se observaron sus funcionalidades principales (qué tipo de servicios o herramientas ofrece al usuario sordo, como traducción de voz a texto en tiempo real, aprendizaje de vocabulario en lengua de señas, ejercicios auditivos, etc.), se analizaron y se sostuvieron en función de los criterios definidos, a partir de la rúbrica que propone <xref ref-type="bibr" rid="redalyc_813983451013_ref13">Prieto (2020)</xref>, basada en la rúbrica de Tony Vincent (2011), y también se tuvo en cuenta las pautas de accesibilidad W3C – <xref ref-type="bibr" rid="redalyc_813983451013_ref19">World Wide Web Consortium (2018).</xref>
</p>
<p>Dentro de los avances predominantes, se destaca la accesibilidad y diseño centrado en el usuario. Muchas de las aplicaciones evaluadas mostraron buenas prácticas en la creación de interfaces intuitivas, uso de pictogramas universales, incorporación de tutoriales accesibles y contenidos atractivos que favorecen la participación del sordo. Lo que nos hace deducir que dichas fortalezas revelan un compromiso creciente con la inclusión, especialmente cuando las aplicaciones ofrecen retroalimentación visual inmediata, personalización de la experiencia y contenidos diseñados desde una lógica de autonomía y empoderamiento del usuario sordo.</p>
<p>Sin embargo, también se evidenciaron limitaciones significativas, sobre todo en términos de adaptabilidad lingüística y enfoque pedagógico inclusivo. Varias herramientas asumen un alto nivel de lectoescritura por parte del usuario, con textos complejos y escasa opción de simplificación o apoyo en lengua de señas. Esto representa una barrera real para muchos usuarios sordos, especialmente para quienes tienen un dominio parcial del idioma escrito o se comunican principalmente a través de la lengua de señas. Aparte que la mayoría de las aplicaciones están orientadas a personas con hipoacusia leve o con otras tipologías auditivas, dejando en segundo plano a los usuarios sordos profundos, cuyos requerimientos comunicativos son diferentes y predominantes en la Comunidad Sorda.</p>
<p>De la misma manera, es relevante mencionar que, si bien algunas aplicaciones incluían contenidos en lengua de señas, la mayoría se limitan a un solo sistema (como LSE o ASL), lo cual restringe su uso en contextos multilingües o culturalmente diversos. La falta de compatibilidad con distintas lenguas de señas, sumada a la escasa consideración de referentes culturales locales, limita la pertinencia de estas herramientas para muchas Comunidades Sordas. Esto refuerza la necesidad de diseñar herramientas más inclusivas, culturalmente sensibles y adaptadas a las realidades de distintos grupos.</p>
<p>Desde esta perspectiva, proponemos avanzar hacia metodologías didácticas que se ajusten a los ritmos y formas de aprendizaje propios de las personas sordas. Es fundamental favorecer propuestas que promuevan la autonomía del usuario y su participación activa en los procesos educativos. Elementos como la navegación accesible, estructuras claras y comprensibles, y el uso de contenidos visuales significativos, no solo mejoran la experiencia de uso, sino que también apoyan la comprensión y el aprendizaje.</p>
<p>Como último paso, se exploró el potencial de tecnologías emergentes como la inteligencia artificial (IA) y el aprendizaje automático dentro de este dominio. Se evaluó en qué medida las apps incorporan (o podrían incorporar) funcionalidades inteligentes. Por ejemplo, se consideró si alguna aplicación utiliza reconocimiento automático de voz para transcribir audio a texto, reconocimiento de señas mediante visión artificial o algoritmos de aprendizaje adaptativo que ajustarán el contenido en función del progreso del usuario. Si bien la mayoría de las aplicaciones analizadas presentaban funcionalidades predefinidas sin mucha inteligencia adaptativa, la revisión destacó que la integración de IA constituye una gran oportunidad de mejora. Cabe recordar que, la tecnología se presenta como una aliada estratégica. Apostar por soluciones inclusivas no es solo una respuesta técnica, sino una apuesta ética y educativa para reducir brechas y construir una educación más equitativa y accesible. Tecnologías emergentes como la inteligencia artificial y el aprendizaje automático pueden jugar un papel clave en este proceso. Aunque hoy su presencia en estas aplicaciones es limitada, su futuro potencial es enorme.</p>
</sec>
</body>
<back>
<ref-list>
<title>
<bold>REFERENCIAS BIBLIOGRÁFICAS </bold>
</title>
<ref id="redalyc_813983451013_ref1">
<mixed-citation publication-type="journal">Álvarez-Escobar, M. L., Arroyo-Lewin, M. A., y Bermúdez-García, J. Á. (2023). Lecto-escritura del español como segunda lengua en la educación de niños sordos<italic>. INNOVA Research Journal, 8</italic>(1), 34-48. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.33890/innova.v8.n1.2023.2191">https://doi.org/10.33890/innova.v8.n1.2023.2191</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Álvarez-Escobar</surname>
<given-names>M. L.</given-names>
</name>
<name>
<surname>Arroyo-Lewin</surname>
<given-names>M. A.</given-names>
</name>
<name>
<surname>Bermúdez-García</surname>
<given-names>J. Á.</given-names>
</name>
</person-group>
<article-title>Lecto-escritura del español como segunda lengua en la educación de niños sordos<italic>.</italic>
</article-title>
<source>. INNOVA Research Journal</source>
<year>2023</year>
<volume>8</volume>
<issue>1</issue>
<fpage>34</fpage>
<lpage>48</lpage>
<pub-id pub-id-type="doi">10.33890/innova.v8.n1.2023.2191</pub-id>
</element-citation>
</ref>
<ref id="redalyc_813983451013_ref2">
<mixed-citation publication-type="journal">Alnfiai, M. (2021). Evaluación de la accesibilidad y usabilidad de un CAPTCHA universal basado en gestos para teléfonos inteligentes<italic>. Univ Access Inf Soc 20</italic>, 817–831. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/s10209-020-00730-x">https://doi.org/10.1007/s10209-020-00730-x</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Alnfiai</surname>
<given-names>M.</given-names>
</name>
</person-group>
<article-title>Evaluación de la accesibilidad y usabilidad de un CAPTCHA universal basado en gestos para teléfonos inteligentes<italic>.</italic>
</article-title>
<source>. Univ Access Inf Soc 20</source>
<year>2021</year>
<fpage>817</fpage>
<lpage>831</lpage>
<pub-id pub-id-type="doi">10.1007/s10209-020-00730-x</pub-id>
</element-citation>
</ref>
<ref id="redalyc_813983451013_ref3">
<mixed-citation publication-type="webpage">Ava. (s.f.). Ava. Disponible en Ava: <ext-link ext-link-type="uri" xlink:href="https://es.ava.me">https://es.ava.me</ext-link>/</mixed-citation>
<element-citation publication-type="webpage">
<source>Ava.</source>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://es.ava.me">https://es.ava.me</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_813983451013_ref4">
<mixed-citation publication-type="webpage">ASLized. (2015). Signily Keyboard. <ext-link ext-link-type="uri" xlink:href="https://aslized.org/innovations/signily">https://aslized.org/innovations/signily</ext-link>/</mixed-citation>
<element-citation publication-type="webpage">
<person-group person-group-type="author">
<collab>ASLized</collab>
</person-group>
<source>Signily Keyboard.</source>
<year>2015</year>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://aslized.org/innovations/signily">https://aslized.org/innovations/signily</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_813983451013_ref5">
<mixed-citation publication-type="journal">Bax, S. (2003). CALL—past, present and future. <italic>System</italic>, <italic>31</italic>(1), 13-28. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/S0346-251X(02)00071-4">https://doi.org/10.1016/S0346-251X(02)00071-4</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Bax</surname>
<given-names>S.</given-names>
</name>
</person-group>
<article-title>CALL—past, present and future</article-title>
<source>System</source>
<year>2003</year>
<volume>31</volume>
<issue>1</issue>
<fpage>13</fpage>
<lpage>28</lpage>
<pub-id pub-id-type="doi">10.1016/S0346-251X(02)00071-4</pub-id>
</element-citation>
</ref>
<ref id="redalyc_813983451013_ref6">
<mixed-citation publication-type="webpage">Fundación CNSE. (2010). SVisual. Servicio de Videointerpretación en Lengua de Signos Española. <ext-link ext-link-type="uri" xlink:href="https://www.svisual.org">https://www.svisual.org</ext-link>/</mixed-citation>
<element-citation publication-type="webpage">
<person-group person-group-type="author">
<collab>Fundación CNSE</collab>
</person-group>
<source>SVisual. Servicio de Videointerpretación en Lengua de Signos Española</source>
<year>2010</year>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://www.svisual.org">https://www.svisual.org</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_813983451013_ref7">
<mixed-citation publication-type="webpage">Fundación CNSE. (2021). SignARTE: <italic>encuentra los espacios culturales accesibles más cercanos a tu posición</italic>. Centro de Normalización Lingüística de la Lengua de Signos Española (CNLSE). <ext-link ext-link-type="uri" xlink:href="https://cnlse.es/es/recursos/otros/arte-y-cultura/accesibilidad-cultural/signarte-encuentra-los-espacios-culturales">https://cnlse.es/es/recursos/otros/arte-y-cultura/accesibilidad-cultural/signarte-encuentra-los-espacios-culturales</ext-link>
</mixed-citation>
<element-citation publication-type="webpage">
<person-group person-group-type="author">
<collab>Fundación CNSE</collab>
</person-group>
<source>SignARTE: encuentra los espacios culturales accesibles más cercanos a tu posición. Centro de Normalización Lingüística de la Lengua de Signos Española (CNLSE).</source>
<year>2021</year>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://cnlse.es/es/recursos/otros/arte-y-cultura/accesibilidad-cultural/signarte-encuentra-los-espacios-culturales">https://cnlse.es/es/recursos/otros/arte-y-cultura/accesibilidad-cultural/signarte-encuentra-los-espacios-culturales</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_813983451013_ref8">
<mixed-citation publication-type="webpage">Gobierno de Aragón. (2025). ARASAAC: Portal Aragonés de la Comunicación Aumentativa y Alternativa. <ext-link ext-link-type="uri" xlink:href="https://arasaac.org">https://arasaac.org</ext-link>/</mixed-citation>
<element-citation publication-type="webpage">
<person-group person-group-type="author">
<collab>Gobierno de Aragón</collab>
</person-group>
<source>ARASAAC: Portal Aragonés de la Comunicación Aumentativa y Alternativa.</source>
<year>2025</year>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://arasaac.org">https://arasaac.org</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_813983451013_ref9">
<mixed-citation publication-type="webpage">Grupo Promedia. (2012). Pictotraductor: Comunicación sencilla con pictogramas. <ext-link ext-link-type="uri" xlink:href="https://www.pictotraductor.com">https://www.pictotraductor.com</ext-link>/</mixed-citation>
<element-citation publication-type="webpage">
<person-group person-group-type="author">
<collab>Grupo Promedia</collab>
</person-group>
<source>Pictotraductor: Comunicación sencilla con pictogramas.</source>
<year>2012</year>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://www.pictotraductor.com">https://www.pictotraductor.com</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_813983451013_ref10">
<mixed-citation publication-type="webpage">Google Accessibility. (2019). <italic>Live Transcribe</italic>. <ext-link ext-link-type="uri" xlink:href="https://www.android.com/accessibility/live-transcribe">https://www.android.com/accessibility/live-transcribe</ext-link>/</mixed-citation>
<element-citation publication-type="webpage">
<person-group person-group-type="author">
<collab>Google Accessibility</collab>
</person-group>
<source>Live Transcribe</source>
<year>2019</year>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://www.android.com/accessibility/live-transcribe">https://www.android.com/accessibility/live-transcribe</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_813983451013_ref11">
<mixed-citation publication-type="journal">Nashat, D., Shoker, A., Al-Swat, F., &amp; Al-Ebailan, R. (2014). An Android Application to Aid Uneducated Deaf-Dumb People. <italic>International Journal of Computer Science and Mobile Applications</italic>, <italic>2</italic>(9), 1-8. <ext-link ext-link-type="uri" xlink:href="https://www.ijcsma.com/articles/an-android-application-to-aid-uneducated-deafdumb-people.pdf">https://www.ijcsma.com/articles/an-android-application-to-aid-uneducated-deafdumb-people.pdf</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Nashat</surname>
<given-names>D.</given-names>
</name>
<name>
<surname>Shoker</surname>
<given-names>A.</given-names>
</name>
<name>
<surname>Al-Swat</surname>
<given-names>F.</given-names>
</name>
<name>
<surname>Al-Ebailan</surname>
<given-names>R.</given-names>
</name>
</person-group>
<article-title>An Android Application to Aid Uneducated Deaf-Dumb People. </article-title>
<source>International Journal of Computer Science and Mobile Applications</source>
<year>2014</year>
<volume>2</volume>
<issue>9</issue>
<fpage>1</fpage>
<lpage>8</lpage>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://www.ijcsma.com/articles/an-android-application-to-aid-uneducated-deafdumb-people.pdf">https://www.ijcsma.com/articles/an-android-application-to-aid-uneducated-deafdumb-people.pdf</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_813983451013_ref12">
<mixed-citation publication-type="webpage">Net-Learning. (2018<italic>). Guía para evaluar la calidad de las apps móviles educativas</italic>. Net-Learning Blog. <ext-link ext-link-type="uri" xlink:href="https://www.net-learning.com.ar/blog/guia-para-evaluar-la-calidad-de-las-apps-moviles-educativas.html">https://www.net-learning.com.ar/blog/guia-para-evaluar-la-calidad-de-las-apps-moviles-educativas.html</ext-link>
</mixed-citation>
<element-citation publication-type="webpage">
<person-group person-group-type="author">
<name>
<given-names>Net-Learning</given-names>
</name>
</person-group>
<source>Guía para evaluar la calidad de las apps móviles educativas. Net-Learning Blog.</source>
<year>2018</year>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://www.net-learning.com.ar/blog/guia-para-evaluar-la-calidad-de-las-apps-moviles-educativas.html">https://www.net-learning.com.ar/blog/guia-para-evaluar-la-calidad-de-las-apps-moviles-educativas.html</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_813983451013_ref13">
<mixed-citation publication-type="webpage">Prieto, S. (2020<italic>). Criterios para la utilización y diseño de aplicaciones móviles educativas</italic>. Educaweb. <ext-link ext-link-type="uri" xlink:href="https://www.educaweb.com/noticia/2015/04/29/criterios-utilizacion-diseno-aplicaciones-moviles-educativas-8814">https://www.educaweb.com/noticia/2015/04/29/criterios-utilizacion-diseno-aplicaciones-moviles-educativas-8814</ext-link>/</mixed-citation>
<element-citation publication-type="webpage">
<source>). Criterios para la utilización y diseño de aplicaciones móviles educativas</source>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://www.educaweb.com/noticia/2015/04/29/criterios-utilizacion-diseno-aplicaciones-moviles-educativas-8814">https://www.educaweb.com/noticia/2015/04/29/criterios-utilizacion-diseno-aplicaciones-moviles-educativas-8814</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_813983451013_ref14">
<mixed-citation publication-type="journal">Sartori, G. (1991). Comparing and miscomparing. <italic>Journal of theoretical politics</italic>, <italic>3</italic>(3), 243-257. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1177/0951692891003003001">https://doi.org/10.1177/0951692891003003001</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Sartori</surname>
<given-names>G.</given-names>
</name>
</person-group>
<article-title>Comparing and miscomparing.</article-title>
<source>Journal of theoretical politics</source>
<year>1991</year>
<volume>3</volume>
<issue>3</issue>
<fpage>243</fpage>
<lpage>257</lpage>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1177/0951692891003003001">https://doi.org/10.1177/0951692891003003001</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_813983451013_ref15">
<mixed-citation publication-type="journal">Samsudin, M., Guan, T., Yusof, A., &amp; Yaacob, M. (2017). A review of mobile application characteristics based on teaching and learning theory for mute and deaf students. <italic>International Journal of Technology in Education and Science, 1</italic>(1), 24-28. <ext-link ext-link-type="uri" xlink:href="https://www.learntechlib.org/p/207272">https://www.learntechlib.org/p/207272</ext-link>/</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Samsudin</surname>
<given-names>M.</given-names>
</name>
<name>
<surname>Guan</surname>
<given-names>T.</given-names>
</name>
<name>
<surname>Yusof</surname>
<given-names>A.</given-names>
</name>
<name>
<surname>Yaacob</surname>
<given-names>M.</given-names>
</name>
</person-group>
<article-title>A review of mobile application characteristics based on teaching and learning theory for mute and deaf students.</article-title>
<source>International Journal of Technology in Education and Science</source>
<year>2017</year>
<volume>1</volume>
<issue>1</issue>
<fpage>24</fpage>
<lpage>28</lpage>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://www.learntechlib.org/p/207272">https://www.learntechlib.org/p/207272</ext-link>
</comment>
<comment>
<underline>https://www.learntechlib.org/p/207272/</underline>
</comment>
</element-citation>
</ref>
<ref id="redalyc_813983451013_ref16">
<mixed-citation publication-type="webpage">Sorenson Communications. (2018). Sorenson Buzz App. <ext-link ext-link-type="uri" xlink:href="https://sorenson.com">https://sorenson.com</ext-link>
</mixed-citation>
<element-citation publication-type="webpage">
<person-group person-group-type="author">
<collab>Sorenson Communications</collab>
</person-group>
<source>Sorenson Buzz App</source>
<year>2018</year>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://sorenson.com">https://sorenson.com</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_813983451013_ref17">
<mixed-citation publication-type="journal">Tovar, L. (2000). La lengua escrita como segunda lengua para el niño sordo. <italic>El bilingüismo de los sordos</italic>, <italic>1</italic>(4), 74-88.</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Tovar</surname>
<given-names>L.</given-names>
</name>
</person-group>
<article-title>La lengua escrita como segunda lengua para el niño sordo.</article-title>
<source>El bilingüismo de los sordos</source>
<year>2000</year>
<volume>1</volume>
<issue>4</issue>
<fpage>74</fpage>
<lpage>88</lpage>
</element-citation>
</ref>
<ref id="redalyc_813983451013_ref18">
<mixed-citation publication-type="book">Tovar, L. A. (2002). <italic>Un enfoque interdisciplinario para la enseñanza de la lengua escrita a niños sordos.</italic> En C. Curcó, M. Colín, N. Groult &amp; L. Herrera (Eds.), Contribuciones a la lingüística aplicada en América Latina (pp. 269–292). Universidad Nacional Autónoma de México, Centro de Enseñanza de Lenguas Extranjeras.</mixed-citation>
<element-citation publication-type="book">
<person-group person-group-type="author">
<name>
<surname>Tovar</surname>
<given-names>L. A.</given-names>
</name>
</person-group>
<source>Contribuciones a la lingüística aplicada en América Latina</source>
<year>2002</year>
<fpage>269</fpage>
<lpage>292</lpage>
<publisher-loc>Universidad Nacional Autónoma de México, Centro de Enseñanza de Lenguas Extranjeras.</publisher-loc>
<chapter-title>Un enfoque interdisciplinario para la enseñanza de la lengua escrita a niños sordos.</chapter-title>
</element-citation>
</ref>
<ref id="redalyc_813983451013_ref19">
<mixed-citation publication-type="webpage">W3C – World Wide Web Consortium. (2018). Web Content Accessibility Guidelines (WCAG) 2.1. <ext-link ext-link-type="uri" xlink:href="https://www.w3.org/TR/WCAG21">https://www.w3.org/TR/WCAG21</ext-link>/</mixed-citation>
<element-citation publication-type="webpage">
<person-group person-group-type="author">
<collab>W3C – World Wide Web Consortium</collab>
</person-group>
<source>Web Content Accessibility Guidelines (WCAG) 2.1</source>
<year>2018</year>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://www.w3.org/TR/WCAG21">https://www.w3.org/TR/WCAG21</ext-link>
</comment>
</element-citation>
</ref>
</ref-list>
</back>
</article>