Computación e Informática

Hacia un sistema de software basado en ihc para el apoyo de niños con capacidades auditivas diferentes

Gerardo Cruz González
Universidad Tecnológica de la Mixteca, México
Carlos Alberto Fernández y Fernández
Universidad Tecnológica de la Mixteca, México
Jorge Aguilar Cisneros
Universidad Popular Autónoma del Estado de Puebla, México

Hacia un sistema de software basado en ihc para el apoyo de niños con capacidades auditivas diferentes

ReCIBE. Revista electrónica de Computación, Informática, Biomédica y Electrónica, vol. 9, núm. 1, pp. 1-12, 2020

Universidad de Guadalajara

Recepción: 24 Septiembre 2020

Aprobación: 12 Octubre 2020

Resumen: Este artículo presenta una propuesta para que las personas con discapacidad auditiva, especialmente los niños, interactúen con un sistema de software que les permita practicar actividades primordiales de comunicación como: decir nombres personales, indicar estados de ánimo y manifestar malestares físicos por medio de la Lengua de Señas Mexicana. La propuesta consiste en desarrollar una interfaz interactiva de computadora utilizando la metodología de diseño centrada en el usuario, aplicando heurísticas de usabilidad para usuarios con discapacidad auditiva. El objetivo del proyecto es que los niños aprendan a expresarse en su lengua materna; que se integren con mayor facilidad al núcleo social al que pertenecen y que sean menos dependientes de los oyentes con los que conviven. Para entender al usuario se realizará una investigación de campo en la escuela de educación especial de la localidad y la medición de la efectividad, eficiencia y satisfacción del usuario se efectuará en un laboratorio de usabilidad. En el proyecto colaborarán especialistas en problemas de lenguaje, maestros de lengua de señas y expertos en interacción hombre-computadora.

Palabras clave: IHC, Inclusión, Interfaces, LSM, Sordos, Usabilidad.

Abstract: This article presents a proposal for hearing impaired people, especially children, to interact with a software system that allows them to practice basic communication activities such as: saying personal names, indicating moods and manifesting physical discomfort through the Mexican Sign Language. The objective is to develop an interactive computer interface using the user-centered design methodology, applying usability heuristics for hearing impaired users. The aim of the project is for children to learn to express themselves in their mother tongue; that they integrate more easily into the social nucleus to which they belong and that they are less dependent on the listeners with which they live. To understand the user, field research will be carried out at the local special education school and the measurement of the effectiveness, efficiency and user satisfaction will be carried out in a usability laboratory. Specialists in language problems, sign language teachers and experts in human-computer interaction will collaborate in the project.

HCI, Deaf, Inclusion, Interfaces, LSM, Usability

Keywords: HCI, Deaf, Inclusion, Interfaces, LSM, Usability.

1. INTRODUCCIÓN

La Organización Mundial de la Salud (OMS) (World Health Organization (WHO), 2020b), estima que al menos el 5% de la población mundial, que equivale a 466 millones de personas, tiene pérdida auditiva profunda, hecho que las convierte en discapacitadas auditivas. De acuerdo con la OMS, 432 millones son adultos y 34 millones son niños. La organización también estima que para 2050, el 10% de la población mundial tendrá pérdida auditiva discapacitante. En México, el Censo de Población y Vivienda del año 2010 (Instituto Nacional de Estadística y Geografía (INEGI), 2013), contabilizó 5,739,270 personas con algún tipo de discapacidad, de las cuales 694,451 (12.1%) tienen algún nivel de sordera. El censo determinó que el 21% de las personas con sordera de entre tres y veintinueve años va a la escuela, pero que solamente el 48% alcanza el cuarto año de primaria. Esto provoca que las personas con discapacidad auditiva (PCDA) formen un grupo social marginado en el ámbito educativo, social y económico. Las estadísticas muestran que el estado de Oaxaca tiene 81.5 sordos por cada diez mil habitantes, lo que ubica al Estado en el tercer lugar a nivel nacional (INEGI, 2013).

Por otro lado, la integración a la sociedad no debe ser un derecho exclusivo para las personas sin discapacidades. Debe ser un derecho para todos. En el caso de la información, ésta debe estar disponible para todo aquel ciudadano que la necesite, en el formato y por el medio que las personas tengan a su disposición. En el caso de las personas sordas o con deficiencia auditiva, ese medio es la Lengua de Señas Mexicana (LSM), la cual se puede expresar a través de medios impresos como libros y revistas, por medios electrónicos como la televisión o el internet, o por contacto directo con personas signantes. Así mismo, los humanos somos seres sociales y debemos tener la capacidad de establecer comunicación con los diferentes entes que conforman la sociedad a la que pertenecemos (familia, vecinos, escuela, seguridad, gobierno). Esta capacidad de comunicación es indispensable para desarrollar relaciones personales, pero también para ofrecer y recibir auxilio en casos de emergencia que pongan en peligro la integridad física de las personas y de sus bienes.

A raíz del COVID-19 (World Health Organization (WHO), 2020a), este derecho ha sido reconocido por el Poder Judicial de la Ciudad de México (D’Artiguez, 2020), al conceder un amparo a la comunidad de sordos de la ciudad para recibir información en LSM por parte de las autoridades. El amparo obliga al presidente de la República, a los titulares de Salud, al Consejo de Salubridad General, al Jefe de Gobierno de la Ciudad de México, así como al titular de la Dirección General de análisis de medios y contenidos visuales del Instituto Federal de Telecomunicaciones (IFETEL) a que de manera inmediata utilicen la LSM en cada comunicación oficial que emitan. Este amparo protege el derecho a recibir información en el formato y por el canal adecuado, pero no es muy útil si el ciudadano con discapacidad auditiva no entiende la LSM.

Aunque en principio pareciera que solamente la comunidad sorda es la que debe aprender LSM, un análisis más a fondo pone de manifiesto que esta lengua también debe ser aprendida por las personas oyentes que conviven o trabajan con miembros de la comunidad sorda, como lo pueden ser familiares, maestros, empleadores, compañeros de trabajo, etc. Actualmente y en aras de la inclusión, existen diversas instituciones públicas y privadas (Yañez, 2019) que enseñan LSM, sin embargo, en la comunidad en donde se lleva a cabo está investigación, la única institución que enseña lengua de signos es el Centro de Atención Múltiple No. 4 (CAM-4).

Por lo general y hasta donde se sabe, los profesores se concentran en escuelas de educación especial que a su vez se instalan en ciudades de medianas a grandes. Esto implica que muchas personas que viven alejadas de las escuelas de educación especial queden al margen de este beneficio. Una manera de colaborar en la disminución de esta marginación es mediante el desarrollo de un sistema de software que ayude a los interesados a practicar la LSM sin la intervención de profesores.

Buscando aplicaciones de software desarrolladas con este propósito, se encontraron cuatro (Tabla 1), en la tienda del sistema Android. Éstas están diseñadas para que el usuario practique vocabulario y dejan de lado otros aspectos como la gramática y la sintaxis de la LSM.


Como se observa en la Tabla 1, todas las aplicaciones enseñan vocabulario (campos semánticos), una enseña la seña para cada letra del alfabeto español, ninguna enseña frases y ninguna enseña a diferenciar el múltiple significado que una palabra puede tener (dimensionalidad de la palabra).

Por esta razón se propone el desarrollo de un sistema de software que le permita al usuario la práctica de la LSM para decir pronombres personales, estados de ánimo y a manifestar malestares físicos. Además, el sistema permitirá ejercitarse en la ejecución de sustantivos que estarán divididos en campos semánticos.

El desarrollo del sistema se realizará de acuerdo con la metodología de diseño centrado en el usuario (UCD, por sus siglas en inglés) documentado en (International Organization for Standardization (ISO), 1999b) y en (ISO, 2010a). Esta metodología es un medio para garantizar que la interacción entre el hombre y la computadora (IHC) sea satisfactoria, es decir, que el sistema resuelva problemas específicos de usuarios específicos en un contexto específico de uso. La aplicación de UCD se explica en la sección 8.

2. REVISIÓN DE LITERATURA Y OBRAS RELACIONADAS

Existen diversos trabajos académicos que se han abocado al estudio de la problemática que rodea a las personas con discapacidad auditiva. En esta sección se presentan aquellos que se consideran relevantes para este proyecto.

El trabajo de investigación (Cruz-González et al., 2018), presenta un estudio contextual de niños con discapacidad auditiva (NCDA) que asisten al CAM-4. El estudio muestra las características de los niños, de sus maestras y del entorno en el que llevan a cabo su proceso de enseñanza-aprendizaje.

El proyecto (Martins et al., 2018), tiene como objetivo crear un sistema que proporcione acceso remoto a clases. El sistema incluye la interpretación en línea de la lengua de señas portuguesa (LSP). El sistema también lo pueden utilizar estudiantes presenciales sordos que requieran clases en LSP, lo que pone en igualdad de condiciones a los estudiantes con discapacidad auditiva respecto de los estudiantes oyentes. El trabajo documentado en (Teófilo et al., 2018), es un traductor en tiempo real del idioma portugués hablado al portugués escrito. Utiliza tecnología de realidad virtual y de inteligencia artificial para poder hacer efectiva la traducción de lengua oral a lengua escrita. En este sistema el texto se envía al dispositivo móvil del espectador con la finalidad de que los sordos puedan entender lo que se dice en una película u obra de teatro.

La investigación presentada en (Takala y Sume, 2018), muestra la realización de un estudio en Finlandia. En ese país desde la década de 1990, los niños con discapacidad auditiva reciben un implante coclear antes de cumplir los tres años, por lo cual ellos pueden asistir a escuelas regulares sin restricciones. El estudio analiza los resultados de esta inclusión en donde se aprecia que los niños con discapacidad auditiva mejoran su aprendizaje, pero los niños oyentes se retrasaron.

El documento (Meliones y Duta, 2019) presenta una aplicación para el sistema Android que permite que una persona hablante y una con discapacidad auditiva se puedan comunicar. El hablante se coloca un micrófono para capturar la voz, la voz se convierte a texto el cual se transmite al dispositivo móvil del no oyente y este lee el texto. Por otro lado (Jeyalakshmi y Revathi, 2018), propone un sistema que reconoce frases habladas por PCDA que han sido oralizadas. Las frases se convierten en audio fácilmente entendibles por personas oyentes. Este trabajo se justifica porque las PCDA oralizados estructuran y pronuncian las frases de manera diferente a como lo hacen los oyentes, lo que dificulta entender lo que dicen. Por otra parte (Kularia et al., 2020), propone un prototipo para ayudar a los sordos a detectar sonidos o ruidos de alarma que ocurren en el hogar y que no sean voces. Los ruidos con los que trabaja el sistema son los que emiten las alarmas de incendios, de presencia de intrusos, de movimiento y de abertura y cierre de puertas. El objetivo de la aplicación es disminuir la dependencia que tienen los discapacitados auditivos de sus familiares oyentes en un entorno doméstico. En esta misma línea está la investigación (Berger y Maly, 2018), que propone una solución que extrae las voces presentes en el sonido ambiental para su conversión a texto, y posterior presentación en el lente Google Glass, de un adulto mayor que está perdiendo la habilidad de escuchar. En esta misma línea de investigación está (Razalli et al., 2018) donde se muestra que el texto con imágenes ayuda a las personas a entender la idea fundamental de un documento escrito, aun si el lector no entienda o conozca el significado de cada una de las palabras escritas.

El trabajo de investigación documentado en (Syukri y Humaera, 2019), propone la enseñanza del inglés utilizando tarjetas flash, libros plegables y pósteres. La propuesta está enfocada en estudiantes adolescentes de Indonesia que padecen sordera profunda y que están aprendiendo inglés como segundo idioma. El proyecto solamente considera la enseñanza de vocabulario, pero no va más allá. En este mismo sentido se realizó el proyecto de (Jabar y Ahmad, 2018). Este tiene el propósito de enseñar a los niños malasios de entre ocho y diez años, a leer el idioma bahasa melayu. Para conseguirlo utilizan elementos multimedia, es decir, textos, gráficos, ilustraciones y videos, integrados mediante herramientas de autoría e-learning.

El trabajo presentado en (Nathan et al., 2018), analiza la importancia de que las aplicaciones para sordos, que se ejecutan en teléfonos celulares, cumplan con cinco criterios de usabilidad: memorabilidad, accesibilidad, satisfacción, eficacia y eficiencia, ya que desde su punto de vista no lo hacen y que son indispensables para que sean útiles a los usuarios.

La investigación (Yeratziotis y Zaphiris, 2018) presenta doce heurísticas para ayudar a los expertos de IHC y desarrolladores web en la evaluación y el diseño de sitios web para usuarios sordos. Esto mediante la medición de problemas de accesibilidad y usabilidad que pueden influir en la experiencia de usuario en la Web. Otro trabajo que también propone heurísticas de desarrollo de aplicaciones para sordos es (Cruz-González et al., 2019) el cuál utilizó UCD para desarrollar interfaz para niños sordos. Durante el desarrollo, la aplicación se sometió a pruebas de usabilidad para garantizar la satisfacción de los usuarios. También (Risald et al., 2018) muestra una aplicación desarrollada conforme a UCD para asistir a los sordos en casos de emergencia médica. La aplicación solamente utiliza íconos para representar el tipo de emergencia (accidente, embarazo, ataque cardiaco y golpe o caída). El usuario selecciona el icono adecuado y la aplicación determina el hospital más cercano. De esa manera el usuario recibe la atención médica necesaria.

Finalmente (Murtaza et al., 2019) presenta el desarrollo de un traductor de lengua de señas a texto. Tiene como objetivo desarrollar un sistema IHC que convierta el lenguaje de señas en texto para personas con discapacidad auditiva. El sistema aparte de considerar las señas también toma en cuenta los gestos y el lenguaje corporal para decodificar el mensaje emitido por la persona con discapacidad auditiva.

3. CONTEXTO DE LOS NIÑOS CON DEFICIENCIA AUDITIVA

En la zona de la mixteca se tienen municipios y agencias municipales con un alto porcentaje de personas con discapacidad auditiva, al grado que los presidentes municipales, los padres de familia y los maestros regulares, han promovido que maestros de educación especial, acudan a las primarias, una o dos veces por semana, a enseñar LSM a los NCDA que lo requieran. Es decir, como son muchos los niños, es más fácil traer a los profesores que llevar a los niños a una escuela de educación especial. Por otro lado, en entrevista con profesoras del CAM-4, ellas explicaron que muchos de los niños que requieren educación especial, por limitaciones económicas, en lugar de asistir a la escuela cinco días a la semana, solamente acuden de una a tres veces a clase, lo que limita la oportunidad de que aprendan la LSM. En la Figura 1, se observa a una maestra de LSM con su grupo de estudiantes.


La caracterización de los niños del CAM-4 es la siguiente (Cruz-González et al., 2018): proceden de familias con recursos económicos limitados, no hablan, no escriben español, no están oralizados, asisten a escuelas regulares y no conocen la LSM. Para comunicarse utilizan señas informales que solamente son entendibles en el entorno familiar, pero que no son útiles en otros lugares como la escuela. Todo esto origina que sean niños aislados, que experimenten frustración, marginación y presenten un nivel de conocimientos escolares considerablemente menor que sus compañeros oyentes.

Por otro lado, los NCDA con acceso a internet han descubierto que una manera fácil de comunicarse entre ellos es por medio de la grabación de videos que luego comparten con sus contactos de redes sociales. Esto se debe a que su lenguaje materno es la lengua de señas que requiere expresión corporal, pero no necesita del habla o de la escritura para llevarse a cabo.

4. CONTEXTO DE LA SOLUCIÓN PROPUESTA

Para coadyuvar en la solución de la problemática descrita en la sección anterior, en el año 2019 se liberó un sistema de software con una interfaz interactiva (Cruz-González, 2019) y (Cruz-González et al., 2019), para el tipo de usuario descrito anteriormente. Las características principales de esa interfaz son: dispone de un conjunto de 59 palabras agrupadas en grupos semánticos. El papel de profesor o de instructor lo tiene un avatar animado en 3D que muestra a los niños cómo mover el cuerpo para realizar señas de la LSM. La velocidad de la animación, ángulo de visión y la distancia relativa entre el usuario y el avatar son parámetros que se definen en tiempo de ejecución de acuerdo con las necesidades del usuario.

La ventaja de esta aplicación es que es interactiva y configurable de acuerdo con las necesidades o gustos del usuario, sin embargo, al considerar únicamente sustantivos, no es posible formar frases y practicar los diálogos en LSM. En la Figura 2 y Figura 3, se puede ver al avatar haciendo la seña de fruta, pero con la distancia y ángulo modificados. Por lo anterior, se propone incrementar la funcionalidad del sistema de software con el fin de que integre las señas para decir pronombres personales, estados de ánimo y a manifestar malestares físicos.



5. VENTAJAS DE LA SOLUCIÓN PROPUESTA

Las ventajas de la solución propuesta son:

1. La interfaz del sistema de software es configurable de acuerdo con los gustos o necesidades del usuario.

2. No es indispensable la presencia de un maestro de LSM.

3. En el diseño de la interfaz se aplicarán heurísticas de diseño para PCDA y NCDA.

4. El usuario podrá practicar pronombres personales, sentimientos, estados de ánimo y manifestar malestares físicos. Esto le permitirá al usuario decir frases como “me duele el estómago”, “me siento mal”, “estoy lastimado”, “ella está triste”, etc.

5. La copia de la aplicación es económica y rápida.

6. El usuario tendrá la oportunidad de practicar el vocabulario incluido en la versión actual.

Se considera que estas características son un diferenciador importante respecto de las aplicaciones que solamente enseñan dactilología y/o vocabulario de palabras aisladas.

6. ARQUITECTURA DE LA SOLUCIÓN PROPUESTA

Internamente, la aplicación se compone de tres módulos (actividades) interrelacionados mostrados en la Figura 4, la cual muestra la navegabilidad propuesta para la aplicación. El primer módulo corresponde a la actividad Elegir Personaje [EP]. Estando en ese módulo, el usuario puede elegir uno de ocho personajes disponibles y continuar para elegir el grupo de palabras o de frases que desea practicar. También el usuario puede salir de la aplicación.


El segundo módulo corresponde a la actividad Elegir vocabulario o frases a practicar [EVoFP]. En él, el usuario podrá seleccionar el grupo semántico o el grupo de frases en el que desea ejercitarse y avanzar al módulo Practicar LSM [PLSM]. También puede retroceder para cambiar de personaje o salir del programa.

El tercer módulo corresponde a la actividad Practicar LSM [PLSM]. Estando en él, el usuario podrá observar cómo es que el personaje ejecuta las señas. Las señas estarán acompañadas de una imagen o de un video que muestre el objeto o la idea de la seña ejecutada. Estando en este módulo, el usuario tendrá la facilidad de cambiar la velocidad de animación, rotar el personaje 45 grados a la izquierda o derecha, y acercar a alejar el personaje para apreciar los movimientos a distancias diferentes. Si el usuario lo desea, podrá regresar al primer o segundo módulo o dar por terminada la ejecución de la interfaz.

7. ETAPAS DEL PROYECTO DE INVESTIGACIÓN

Este proyecto consta de las etapas que se describen a continuación:

1. Estudio contextual: si bien en 2017 se aplicó un estudio contextual a los NCDA que asisten al CAM-4 de la localidad, se considera que es prudente realizar otro: algunos niños ya han concluido su estancia en la escuela, han ingresado nuevos niños y los maestros también han cambiado. Además, es necesario saber si la legislación, las reglas y los métodos de enseñanza permanecen o han sido modificados.

2. Desarrollo y pruebas de usabilidad: Para el desarrollo de la aplicación se utilizará UCD, lo que implica que las propuestas y avances deberán ser validadas por los usuarios. Las validaciones serán por medio de pruebas de usabilidad realizadas por los niños y maestras del CAM-4. Las pruebas de las maestras se considerarán como evaluaciones expertas ya que ellas conocen a los niños, son especialistas en problemas de lenguaje, enseñan LSM y utilizan diferentes aplicaciones de software para impartir sus clases.

3. Captura de movimiento y programación de la animación: Para la captura de movimiento se debe considerar un dispositivo capaz de detectar el movimiento de los brazos, codos, muñeca, palma de la mano y dedos ya que los movimientos combinados de estos elementos son esenciales para la LSM. También es importante que el sistema sensor detecte la expresión de la cara porque los gestos enfatizan o invierten (ironía) el significado de lo que se está diciendo. Con los datos del sensor es posible generar la animación e incorporarla a los personajes que formarán parte de la interfaz.

8. FASES DE DESARROLLO DEL SISTEMA DE SOFTWARE

El desarrollo del sistema estará guiado por la metodología UCD (Figura 5), definida tanto en (International Organization for Standardization, 1999b) como en (International Organization for Standardization, 2010a). UCD es un enfoque para el diseño y desarrollo de sistemas que tiene como objetivo hacer sistemas interactivos más útiles y usables. UCD se centra en las necesidades y requerimientos de los usuarios aplicando factores humanos y ergonómicos, así como principios de usabilidad. De acuerdo con Hassan y Montero (Montero y Santamaría, 2009), el proceso UCD se divide en entender y especificar el contexto de uso; especificar las necesidades o requisitos de los usuarios; producir soluciones de diseño que satisfagan las necesidades de esos usuarios y evaluar los diseños en función de los requerimientos o necesidades de los usuarios.


Para entender y especificar el contexto de uso se hará un estudio contextual en el CAM-4 de la localidad, ya que a esa escuela asisten NCDA que son atendidos por maestras de LSM que tienen posgrados en problemas de lenguaje. Del análisis de resultados del estudio contextual se definirán las necesidades y los requisitos de los usuarios y se estará en condiciones de proponer y desarrollar una solución que satisfaga las necesidades de los NCDA. El desarrollo del sistema será incremental y sometido por lo menos a tres pruebas de usabilidad con objeto de garantizar que el sistema cumpla con los requisitos de usuario.

9. CONCLUSIONES

Se deben desarrollar sistemas de software con interfaces que apoyen a las PCDA a entender la LSM ya que, aunque la información se difunde traducida a LSM, si la persona con discapacidad auditiva no la entiende la información que se le proporciona, ésta no será de utilidad. Para el desarrollo de este tipo de sistemas es importante conocer y aplicar las heurísticas de diseño enfocadas en las PCDA. Además, con la masificación de los dispositivos móviles es posible desarrollar aplicaciones que les permitan a los alumnos continuar su adquisición de conocimientos sin salir de casa. Se debe promover que la comunidad sorda se pueda comunicar mediante la LSM, ya que esta lengua forma parte de la lengua nacional mexicana y por lo tanto es un medio estandarizado por las autoridades de nuestro país.

REFERENCIAS

Berger, A., y Maly, F. (2018). Prototype of a Smart Google Glass Solution for Deaf (and Hearing Impaired) People. En M. Younas, I. Awan, G. Ghinea y M. Catalan Cid (Eds.), Mobile Web and Intelligent Information Systems (Vol. 10995, pp. 38-47). Springer International Publishing. https://doi.org/10.1007/978-3-319-97163-6_4

Chnt Co. (2020). Diccionario LSM. Android. Chnt Co. Descargado de https://play.google.com/store/apps/details?id=com.lsm.dicc.chnt&hl=es_419

Cruz-González, G. (2019). Desarrollo de una interfaz basada en la metodología de diseño centrada en el usuario para la práctica de la lengua de señas mexicana (Tesis de maestría). Universidad Tecnológica de la Mixteca.

Cruz-González, G., Fernández-Fernández, C. A., y Trujillo-Romero, F. (2018). Estudio contextual y propuesta de interfaz para la práctica de la lengua de señas mexicana en la mixteca oaxaqueña. Abstraction & application, 20, 12-23. 2007-2635.

Cruz-González, G., Fernández-Fernández, C. A. y Trujillo-Romero, F. (2019). Hacia una propuesta de heurísticas de usabilidad para pruebas de HCI y de UX para niños con discapacidad auditiva: Caso de estudio. ReCIBE, Revista electrónica de Computación, Informática, Biomédica y Electrónica, 8(1), 3. http://recibe.cucei.udg.mx/ojs/index.php/ReCIBE/article/view/127

D’Artigues, K. (marzo 17, 2020). Comunidad sorda logra orden para tener datos de COVID-19. Animal Político. Recuperado de https://www.animalpolitico.com/2020/03/comunidad-sorda-gana-amparo- gobierno-covid-19/

Franco, D. (2013). Dímelo Pro for Android. Android, APKPure.com. Descargado de https://apkpure.com/es/dimelo-pro/com.lionteamsoft.dimelo

García Gutiérrez, R. y Monsiváis González, J. G. (2015). Dilo en señas. Android. Descargado de https://play.google.com/store/apps/details?id=com.jaguarlabs.lsm&hl=es_419

Instituto Nacional de Estadística y Geografía (INEGI), (2013). Las personas con discapacidad en México: Una visión al 2010. Instituto Nacional de Estadística y Geografía (México). Recuperado de https://www.ipomex.org.mx/recursos/ipo/files_ipo3/2018/44257/4/b202c98e9a2106f4c0f427b64f542c 93.pdf

International Organization for Standardization (ISO). (1999b). ISO 13407-1999, Human-centred design processes for interactive systems. Recuperado de https://www.iso.o.g/obp/ui/#iso:std:iso:13407:ed- 1:v1:en

International Organization for Standardization (ISO). (2010a). ISO 9241-210:2010(en), Ergonomics of human-system interaction—Part 210: Human-centred design for interactive systems. Recuperado de https://www.iso.org/obp/ui/#iso:std:iso:9241:-210:ed-1:v1:en

Jabar, S. A., y Ahmad, A. C. (2018). The Design of Multimedia Interactive Courseware for Teaching Reading to Hearing Impaired Students. International Journal of Academic Research in Progressive Education and Development, 7(4), 223–230.

Jeyalakshmi, C. y Revathi, A. (2018). Efficient speech recognition system for hearing impaired children in classical Tamil language. International Journal of Biomedical Engineering and Technology, 26, 84. https://doi.org/10.1504/IJBET.2018.089261

Kularia, P., Bhutkar, G., Jadhav, S. y Jadhav, D. (2020). Prototype Design of Alert Device for Hearing Impaired Users. 133-138 en: Loizides, F. et al(eds.), Human Computer Interaction and Emerging Technologies. Cardiff: Cardiff. https://doi.org/10.18573/book3.p

Martins M., Borges J., Justino E., Rocha T., Barroso J., Reis A. (2018). A Proposal for a Remote Interactive Class System with Sign Language Interpretation. In: Antona M., Step hanidis C. (eds) Universal Access in Human-Computer Interaction. Virtual, Augmented, and Intelligent Environments. UAHCI 2018. Lecture Notes en Computer Science, vol 10908. Springer, Cham. https://doi.org/10.1007/978-3-319-92052-8_42

Meliones, A. y Duta, C. (2019). SeeSpeech: An Android application for the hearing impaired. En PETRA '19: Proceedings of the 12th ACM International Conference on PErvasive Technologies Related to Assistive Environments, 509-516. https://doi.org/10.1145/3316782.3324013

Montero, Y. H. y Santamaría, S. O. (2009). Informe APEI sobre usabilidad. Informes APEI, 3, 1. ISBN 978-84-692-3782-3. https://dialnet.unirioja.es/servlet/articulo?codigo=3101458

Moreno Robles, M. (2018). Aprende señas: Lengua de Señas Mexicana. Android. Descargado de https://play.google.com/store/apps/details?id=rodolfo.com.systemsolutionanddevelopment.aprendiend olsm&hl=es_419

Murtaza, Z., Akmal, H., Afzal, W., Gelani, H., Abdin, Z. y Gulzar, M. (2019). Human Computer Interaction Based on Gestural Cues Recognition/Sign Language to Text Conversion. 2019 International Conference on Engineering and Emerging Technologies (ICEET), Lahore, Pakistan, 2019, pp. 1-6, doi: https://10.1109/CEET1.2019.8711835.

Nathan, S., Hussain, A. y Hashim, N. L. (2018). Usability evaluation of DEAF mobile application interface: A systematic review. Journal of Engineering and Applied Sciences, 13: 291-297. ISSN: 1816- 949x. http://repo.uum.edu.my/25662/

Razalli, A., Thomas, R., Mamat, N. y Yusuf, N. (2018). Using Text with Pictures in Primary School to Improve Reading Comprehension for Hearing Impaired Students. Journal of ICSAR, 2, 19-27. jan. 2018. ISSN 25488600. https://doi.org/10.17977/um005v2i12018p019

Risald, R., Suyoto, S. y Santoso, A. (2018). Mobile Application Design Emergency Medical Call for the Deaf using UCD Method Mobile Application Design Emergency Medical Call for the Deaf using UCD Method. International Journal of Interactive Mobile Technologies (iJIM), Vol. 12. N. 3, p. pp 168-177, jul. 2018. ISSN 1865-7923. https://doi.org/10.3991/ijim.v12i3.8754

Syukri, S. y Humaera, I. (2019). Gaining Motivation on English Learning for Special Need Students Using Flashcards, Foldable Books and Posters in EFL Context. Langkawi: Journal of The Association for Arabic and English, 5(2), 91-101. https://doi.org/10.31332/lkw.v5i2.1303

Takala, M. y Sume, H. (2018). Hearing-impaired pupils in mainstream education in Finland: Teachers’ experiences of inclusion and support. European Journal of Special Needs Education, 33(1), 134-147. https://doi.org/10.1080/08856257.2017.1306965

Teófilo, M., Lourenço, A., Postal, J. y Lucena Jr, V. (2018). Exploring Virtual Reality to Enable Deaf or Hard of Hearing Accessibility in Live Theaters: A Case Study. En: Antona M., Stephanidis C. (eds) Universal Access in Human-Computer Interaction. Virtual, Augmented, and Intelligent Environments. UAHCI 2018. Lecture Notes in Computer Science, vol 10908. Springer, Cham. pp. 132-148. https://doi.org/10.1007/978-3-319-92052-8_11

World Health Organization (WHO). (2020a). Coronavirus. Coronavirus Disease (COVID-19) Pandemic. Recuperado de https://www.who.int/emergencies/diseases/novel-coronavirus-2019

World Health Organization (WHO). (2020b). Deafness and hearing loss. Recuperado de https://www.who.int/news-room/fact-sheets/detail/deafness-and-hearing-loss

Yañez, L. (23 de septiembre, 2019). Aprender Lengua de Señas Mexicana, un paso más a la inclusión. Milenio. Recuperado de https://www.milenio.com/aula/lengua-de-senas-mexicana-el-idioma-que-se- debe-aprender

Yeratziotis, A. y Zaphiris, P. (2018). A Heuristic Evaluation for Deaf Web User Experience (HE4DWUX). International Journal of Human–Computer Interaction, 34(3), 195-217.

https://doi.org/10.1080/10447318.2017.1339940

HTML generado a partir de XML-JATS4R por