Resumo: As pessoas cegas, geralmente, ficam limitadas a tarefas rotineiras que dependem exclusivamente da percepção da luz, como a escolha de uma vestimenta, cor ou estilo específico, entre muitas outras atividades relacionadas. As pessoas cegas conseguem, por meio do tato, ter informações sobre textura e forma da vestimenta. Entretanto, detalhes como cores, desenhos e estilo, tornam-se difíceis de serem identificados sem o auxílio de uma pessoa que tenha visão. Neste contexto, este artigo apresenta um protótipo de um aplicativo mobile que permite que as pessoas cegas possam identificar suas vestimentas. A metodologia empregada foi a dissertação-projeto. A identificação da vestimenta é realizada por meio do reconhecimento de padrões, com o uso da biblioteca OpenCV. O aplicativo permite o cadastro de imagens das vestimentas, bem como de uma áudio-descrição. O aplicativo possibilita que pessoas cegas possam ter mais autonomia na atividade de escolher vestimentas, podendo combinar padrões de cores. O cadastro de vestimentas com a áudio-descrição pode ser realizado pelo círculo de amigos das pessoas cegas, as quais poderão acompanhar todas as mudanças de moda e ir alterando essas informações conforme houver necessidade, tendo em vista que a moda, estilos e tendências estão sempre mudando. Por meio do aplicativo, a pessoa cega poderá ter autonomia de escolha em relação a suas vestimentas, possibilitando que possam escolhê-las sozinha, podendo usar o aplicativo em qualquer hora ou lugar por sua portabilidade. Este trabalho mostrou, também, como pessoas cegas podem ter uma melhor qualidade de vida por meio de um aplicativo de identificação de vestimentas. A tecnologia empodera pessoas com deficiência e representa um mercado em expansão.
Palavras-chave:Acessibilidade DigitalAcessibilidade Digital, Cegos Cegos, Dispositivos Móveis Dispositivos Móveis.
Abstract: Blind people are usually limited to routine tasks that depend exclusively on the perception of light, such as choosing a specific dress, color or style, among many other related activities. Blind people can, through touch, have information about texture and shape of clothing. However, details such as colors, designs, and style become difficult to identify without the help of a person who has vision. In this context, this paper presents a prototype of a mobile application that allows blind people to identify their clothing. The methodology used was the dissertation-project.The identification of the clothing is accomplished by means of the recognition of standards, with the use of the OpenCV library. The application allows the registration of images of the clothes, as well as an audio description. The application allows blind people to have more autonomy in the activity of choosing clothes, being able to combine patterns of colors. The dress register with the audio description can be made by the circle of friends of the blind people, who will be able to follow all the changes of fashion and go changing this information as needed, since fashion, styles and trends are always changing Through the application, the blind person can have autonomy of choice regarding their clothes, allowing them to choose them alone, and can use the application at any time or place for portability. This paper has also shown how blind people can have a better quality of life through a clothing identification application. Technology empowers people with disabilities and represents an expanding market.
Keywords: Digital Accessibility, Blindness, Mobile Devices.
Resumen: Las personas ciegas, generalmente, se limitan a tareas rutinarias que dependen exclusivamente de la percepción de la luz, como la elección de una vestimenta, color o estilo específico, entre muchas otras actividades relacionadas. Las personas ciegas logran, por medio del tacto, tener informaciones sobre textura y forma de la vestimenta. Sin embargo, detalles como colores, diseños y estilo, se vuelven difíciles de identificar sin la ayuda de una persona que tenga visión. En este contexto, este artículo presenta un prototipo de una aplicación móvil que permite que las personas ciegas puedan identificar sus vestimentas. La metodología empleada fue la disertación- proyecto. La identificación de la vestimenta se realiza por medio del reconocimiento de patrones, con el uso de la biblioteca OpenCV. La aplicación permite el registro de imágenes de las vestimentas, así como de una audio-descripción. La aplicación posibilita que las personas ciegas puedan tener más autonomía en la actividad de elegir vestimentas, pudiendo combinar patrones de colores. El registro de vestimentas con la audio-descripción puede ser realizado por el círculo de amigos de las personas ciegas, las cuales podrán acompañar todos los cambios de moda e ir alterando esas informaciones según sea necesario, teniendo en vista que la moda, estilos y tendencias están siempre cambiante. Por medio de la aplicación, la persona ciega podrá tener autonomía de elección en relación a sus vestimentas, posibilitando que puedan escogerlas solas, pudiendo usar la aplicación en cualquier momento o lugar por su portabilidad. Este trabajo mostró, también, cómo las personas ciegas pueden tener una mejor calidad de vida a través de una aplicación de identificación de vestimentas. La tecnología empodera a las personas con discapacidad y representa un mercado en expansión.
Palabras clave: Accesibilidad Digital, Ciegos, Dispositivos Móviles.
Protótipo de um Aplicativo Mobile para Reconhecimento de Vestimenta para Pessoas Cegas
Garment Recognition Prototype of Mobile Application for Blind People
Aplicación de Reconocimiento de Vestimentas para Personas Ciegas
Recepção: 08 Maio 2018
Aprovação: 05 Novembro 2018
Segundo uma pesquisa realizada pelo IBGE (Instituto Brasileiro de Geografia e Estatística), por meio dos dados do Censo Demográfico, entre as deficiências investigadas, a deficiência visual apresenta a maior incidência, sendo declarada por 18,8% da população do Brasil (IBGE, 2010). Segundo critérios estabelecidos pela Organização Mundial da Saúde (OMS) os diferentes graus de deficiência visual podem ser classificados em: 1) Baixa visão (leve, moderada ou profunda, compensada com o uso de lentes de aumento, lupas, telescópios, com o auxílio de bengalas e de treinamentos de orientação); 2) próximo à cegueira (quando a pessoa ainda é capaz de distinguir luz e sombra, mas já emprega o sistema braile para ler e escrever, utiliza recursos de voz para acessar programas de computador, locomove-se com a bengala e precisa de treinamentos de orientação e de mobilidade) e 3) cegueira (quando não existe qualquer percepção de luz. O sistema braile, a bengala e os treinamentos de orientação e de mobilidade, nesse caso, são fundamentais) (AMPUDIA, 2011).
As pessoas cegas, geralmente, ficam limitadas a tarefas rotineiras que dependem exclusivamente da percepção da luz, como a escolha de uma vestimenta, cor ou estilo específico, entre muitas outras atividades relacionadas. As pessoas cegas conseguem, por meio do tato, ter informações sobre textura e forma da vestimenta. Entretanto, detalhes como cores, desenhos e estilo, tornam-se difíceis de serem identificados sem o auxílio de uma pessoa que tenha visão. Tais tarefas ficam comprometidas, devido a sua limitação visual, limitação esta, que, muitas vezes, é causada pela falta de acessibilidade. Esta necessidade pode ser solucionada por intermédio do uso da áudio-descrição, que é uma forma de tradução do que é possível visualizar aos olhos de quem enxerga. As imagems são transformadas em palavras por intermédio da escrita em braile, escrita eletrônica, ou a áudio-descrição propriamente dita, visando possibilitar que pessoas cegas possam ter acesso a tais informaões por meio da tradução visual.
Segundo dados do IDC(International Data Corporation) o Android está presente em quase 85% dos smartphones em mais de 190 países ao redor do mundo. A partir da quarta versão do sistema operacional da Google, os aparelhos, especialmente os fabricados pela Samsung, oferecem recursos de acessibilidade com o uso do TalkBack, o qual apresenta respostas por voz aos usuários cegos, bastando somente habilitá-lo em suas configurações (IDC, 2017).
Neste contexto, este artigo apresenta o desenvolvimento de um protótipo de aplicativo mobile, que permite o cadastro de vestimentas com a áudio-descrição realizada pelo círculo de amigos das pessoas cegas, as quais poderão acompanhar todas as mudanças de moda e ir alterando essas informações conforme houver necessidade, tendo em vista que a moda, estilos e tendências estão sempre mudando. Por meio do aplicativo, a pessoa cega poderá ter autonomia de escolha em relação a suas vestimentas, possibilitando que possam escolhê-las sozinha, podendo usar o aplicativo em qualquer hora ou lugar por sua portabilidade.
A deficiência visual (DV) talvez seja a que mais vem conquistando seu espaço, no sentido de acesso com autonomia e defesa de direitos. Reconhece-se que há um longo caminho para percorrer, pois ainda se encontram barreiras difíceis de transpor, seja por entraves políticos, econômicos, sociais e familiares. Sendo assim, quanto mais o tema for abordado, maiores serão as chances de a teoria ser esclarecida e, assim, o que são incertezas poderão se tornar desafios e atitudes proativas com soluções viáveis para a participação efetiva e autônoma da pessoa com deficiência visual (PEREIRA; CARVALHO, 2018, p. 263).
A acessibilidade digital é a capacidade de um produto ser flexível o suficiente para
atender às necessidades e preferências do maior número possível de pessoas, além de ser compatível com tecnologias assistivas, usadas por pessoas com deficiência (Silveira et al., 2007). Para Santos (Santos et al., 2018), a tecnologia assistiva é composta por: recursos, serviços e estratégias que contribuem para proporcionar ou ampliar habilidades funcionais de pessoas com deficiência ou mobilidade reduzida, com o propósito de promover inclusão e independência (RAMIRES et al., 2013 citados por SANTOS et al., 2018, p. 633).
Segundo o Censo Demográfico de 2010, no Brasil existem aproximadamente 45 milhões de pessoas que apresentam pelo menos um tipo de deficiência, o que representa 23,9% da população brasileira. A deficiência visual representa 18,8%, 7% diz respeito à deficiência motora, 5,10% à deficiência auditiva e 1,4% à deficiência mental ou intelectual (IBGE, 2010).
O termo áudio-descrição existe desde 1964, quando Chet Avery, funcionário do Departamento de Educação dos Estados Unidos, sugeriu que fossem feitas descrições de filmes para pessoas cegas e incentivou organizações de consumidores a requisitar a áudio-descrição dos mesmos (Synder, 2005).
Pessoas com deficiência visual não conseguem ter acesso às informações contidas em imagens. Tendo em vista esta dificuldade, surge o conceito da áudio-descrição. A áudio-descrição simbolizou um novo entendimento sobre o direito à informação e à comunicação, por exigir uma descrição regrada, plena de sentidos, uma “ponte entre a imagem não vista e a imagem construída na mente de quem ouve a descrição” (Lima, 2009).
Os aparelhos celulares têm uma participação expressiva como instrumento de comunicabilidade entre os deficientes visuais, permitindo uma maior independência destes, contribuindo para uma melhor qualidade de vida por meio do sentimento de autonomia e participação social (Campêlo et al., 2011).
O Modelo de Acessibilidade em Governo Eletrônico (eMAG) tem o compromisso de ser o norteador no desenvolvimento e na adaptação de conteúdos digitais do governo federal, garantindo o acesso a todos. As recomendações do eMAG permitem que a implementação da acessibilidade digital seja conduzida de forma padronizada, de fácil implementação, coerente com as necessidades brasileiras e em conformidade com os padrões internacionais. O eMAG trata de uma versão especializada do documento internacional WCAG (Web Content Accessibility Guidelines: Recomendações de Acessibilidade para Conteúdo Web) voltado para o governo brasileiro, porém o eMAG não exclui qualquer boa prática de acessibilidade do WCAG (eMAG, 2011).
Machado (Machado et al., 2014) diz que os quatro princípios elencados nas recomendações de acessibilidade apontadas no guia W3C/WCAG 2.0 são: perceptível, operável, compreensível e robusto. Apesar de terem sido concebidas para a web, são, também, aplicadas às plataformas móveis.
A análise automática de imagens é um processo de descobrimento de identificação e de um entendimento de padrões que sejam relevantes à performance de uma tarefa baseada em imagens (Gonzalez, 2000). Uma das principais metas da análise de imagens é a de aproximar a sua capacidade à capacidade de analisar imagens dos seres humanos (Gonzalez, 2000).
Os elementos de análise de imagem são mostrados na Figura 1.
Segundo Gonzalez (2000), o processamento de baixo nível trata de funções que podem ser vistas como reações automáticas, sem o uso de qualquer inteligência, sendo representado pela aquisição e o pré-processamento de imagens como redução de ruídos ou do borramento da imagem. O processamento de nível intermediário trata da extração e caracterização de componentes, por exemplo regiões, em uma imagem resultante do processo de baixo nível, incluindo a segmentação. O processamento de alto nível envolve o reconhecimento e a interpretação, onde são aplicadas técnicas inteligentes, resultando em uma tarefa complexa.
Um padrão se define como uma descrição quantitativa ou estrutural de um objeto. Geralmente, um padrão é um arranjo de descritores e uma classe de padrões é uma família de padrões que compartilham algumas propriedades comuns. Essas são denotadas como: W1;W2 ...WM, em que M é o número de classes. O reconhecimento de padrões por máquina envolve técnicas para atribuição dos padrões e suas respectivas classes para atribuição aos padrões e suas respectivas classes automaticamente, com a mínima intervenção humana possível. Os três arranjos usados na prática são os vetores (para descrições quantitativas), cadeias e érvores (para descrições estruturais) (Gonzalez, 2000).
A Biblioteca OpenCV (Open Source Computer Vision) pode ser usada tanto para o uso acadêmico como, também, para uso comercial. Esta biblioteca possui interfaces nas linguagens de programação C++, C, Python e Java e suporta diferentes Sistemas Operacionais, tais como Windows, Linux, Mac OS, iOS e Android. A biblioteca OpenCV foi projetada para eficiência computacional e com um forte foco em aplicações em tempo real. Escrita em C/C++ otimizado, a biblioteca pode aproveitar o processamento multicore. Habilitada com OpenCL, ela pode aproveitar a aceleração de hardware da plataforma de computação heterogênea subjacente. O uso varia de arte interativa à inspeção de minas, construção de mapas na web e robótica avançada (OpenCV, 2018).
Melo (Melo et al., 2014) apresentaram um trabalho com o objetivo de reconhecer automaticamente os níveis de severidade do oídio da soja. Foram analisadas folhas com e sem a doença. As folhas foram fotografadas e passaram por filtros, tendo suas características de cor e textura extraídas via Processamento Digital de Imagens (PDI). Tais características foram utilizadas como dados de treinamento e teste de uma Rede Neural Artificial (RNA), que classificou os níveis. A plataforma de tecnologia móvel foi um smartphone com o Sistema Operacional Android. Os autores observaram a melhora na taxa de acertos da predição de acordo com as combinações de características, para a mesma estrutura de RNA, concluindo que, comparando os dois níveis de conjuntos de dados, que o conjunto com características de textura obteve melhor assertividade. Para o treinamento da RNA,o algoritmo backpropagation foi escolhido, por já se obter a saída desejada, tratando-se de um aprendizado supervisionado. A ferramenta empregada como simulador para RNA foi a Weka, que é uma ferramenta de mineração de dados, que suporta simulação para o algoritmo backpropagation e, também, é capaz de extrair regras a partir de uma rede neural já treinada.
No trabalho foi utilizada a biblioteca OpenCv SDK (Software Development Kit) integrada ao ambiente de desenvolvimento para execução no Android (Android Developer Tools para a ferramenta de desenvolvimento Java Eclipse) usando a versão 11 do Android e a versão 2.4.5 da OpenCv, a qual fornece a infraestrutura adequada para o tratamento e análise de imagens (Melo et al., 2014).
Miranda (2014) desenvolveu um trabalho com foco em uma aplicação capaz de reconhecer frutas e vegetais por meio de uma câmera. A aplicação foi embarcada em uma BeagleBone e a classificação foi feita usando Lógica Fuzzy. As Imagens foram capturadas e processadas em um Single Board Computer (SBC). Após processadas, as imagens tiveram algumas características extraídas, que serviram de entrada para um classificador Fuzzy, responsável por separar as diversas classes de frutas e vegetais por meio da informação recebida. O classificador Fuzzy gera uma saída, que pode ser mostrada em um monitor, outro computador, ou por meio de um código de leds do próprio SBC.
O padrão de representação de cor escolhido para identificar o padrão de cores das frutas foi o RGB (Red Green Blue). A técnica é composta de 2 passos: o primeiro é responsável por capturar uma imagem com apenas o fundo estático. Após o estudo do fundo e suas características, uma segunda imagem é capturada com algum objeto que se deseja identificar. Então, uma técnica é utilizada para detectar as diferenças entre ambas, gerando uma saída apenas com as informações do objeto, descartando o fundo (Miranda, 2014).
A técnica utilizada foi implementada por meio das médias dos canais RGB por toda a imagem. Inicialmente, foi capturada a imagem apenas do fundo onde o fruto será exposto. As médias dos canais RGB são extraídas dessa imagem e servem como padrão para o processo de reconhecimento dos frutos. Em seguida são capturadas as imagens com os frutos. O algoritmo, então, ignora os blocos de pixels da imagem que se assemelham às médias do fundo, utilizando apenas as médias dos frutos (Miranda, 2014).
A Figura 2 mostra a subtração de fundo, para uma imagem estática (sem a presença de pessoas), comparando essa imagem com a imagem contendo pessoas. O resultado dessa comparação elimina o fundo, deixando apenas os objetos de interesse que se diferenciaram do mesmo. Antes da apresentação do resultado final, um filtro ainda é utilizado, para retirar falsos positivos (manchas brancas restantes na imagem devido a diferenças de iluminação) (Miranda, 2014).
Tendo obtida uma imagem contendo apenas o fruto, o próximo passo envolve a classificação segundo padrões pré-definidos. A técnica escolhida para esta tarefa foi a Lógica Fuzzy. Os testes realizados em fundo branco obtiveram melhor resultado do que em fundo preto. Algumas frutas que se aproximaram de coloração e formato acabaram sendo confundidas. Por outro lado, os erros obtidos com fundo branco foram devido às médias obtidas de cores semelhantes serem muito próximas quando contrastadas com este fundo (Miranda, 2014).
A iniciativa para o desenvolvimento do aplicativo se deu inicialmente junto ao grupo de pesquisa de Tecnologia e Acessibilidade da Universidade Federal de Santa Maria – Campus Frederico Westphalen – RS. Inicialmente foi feito um planejamento para dar início ao desenvolvimento propriamente dito do aplicativo para identificação de vestimentas para pessoas cegas. O planejamento foi dividido em 5 etapas:
1) Realização de estudos nas áreas envolvidas com o projeto: padrões de desenvolvimento de aplicativos acessíveis; funcionamento de aplicativos móveis para pessoas cegas; conceitos e técnicas de Inteligência Artificial com foco em RNAs; processamento e padrões de imagens;
2) Tecnologias empregadas: definição de linguagem de programação, Sistema Gerenciador de Bancos de Dados e IDE (Integrated Development Environment) para desenvolvimento;
3) Análise de requisitos: levantamento de requisitos para o aplicativo;
4) Desenvolvimento: criação de um protótipo do aplicativo para captura de imagens das vestimentas e cadastro das mesmas com áudio-descrição; criação do layout e estrutura do aplicativo;
5) Testes: testes realizados com o aplicativo, com o apoio do Núcleo de Acessibilidade da UFSM e contribuições de pessoas cegas.
A metodologia de pesquisa adotada para o desenvolvimento deste aplicativo foi a dissertação-projeto, pois desenvolveu-se um protótipo de aplicativo mobile para auxiliar as pessoas com deficiência visual a escolherem suas vestimentas. Segundo Ribeiro e Zabadal (2010), na metodologia de dissertação-projeto, “...o pesquisador caracteriza determinado problema de algum aspecto técnico. Destaca a relevância de resolver esse problema. Desenvolve, então, um programa sistema ou mesmo um protótipo – para apresentar como prova de conceito da solução desse problema” (p. 96).
Foi realizado um estudo envolvendo as diretrizes de acessibilidade para Android, para a customização da interface de navegação do usuário cego no aplicativo. Para garantir que esses dispositivos configurem-se como acessíveis e, assim, possam cumprir seu papel social, é preciso que essa configuração tecnológica revele-se ajustada ao ambiente e ao usuário, possibilitando uma interação segura e eficiente (Machado et al., 2014). Para o desenvolvimento do aplicativo, a biblioteca OpenCV foi integrada ao ambiente de desenvolvimento Android Studio com a versão 2.2.2 do Android e a versão 3.0 da OpenCV.
Para o desenvolvimento do protótipo do aplicativo o código foi desenvolvido em linguagem de programação Java e a IDE Android Studio. Para testar a aplicação foi utilizado um smartphone com o Sistema Operacional Android.
A construção das telas do aplicativo seguiram as recomendações de acessibilidade propostas pela W3C e as estabelecidas pela Google (Machado et al., 2014). Os testes de acessibilidade foram feitos com o uso do talkback. Este serviço foi ativado como mostra a Figura 3.
Para as pessoas cegas terem acesso às informações do smartphone por meio de sons é preciso habilitar o serviço TalkBack. Ao acioná-lo, serão descritos os componentes (listas, botões, spinners, textos, imagens, etc) por meio de sons, falando as ações do usuário e quaisquer notificações recebidas. Dentre as configurações que podem ser ativadas e desativadas estão o volume de fala; agitar o dispositivo para ligar a leitura contínua; alterar as funções dos gestos; toque na tela para escutar o que está sob o dedo e redução de outros sons quando o TalkBack é falado (Android, 2018).
Para explorar por toque, deve-se arrastar lentamente o dedo ao redor da tela. O TalkBack anuncia os ícones, botões e outros itens conforme se arrasta o dedo sobre eles. Quando o foco estiver no item que se deseja selecionar, deve-se dar dois toques em qualquer lugar da tela para selecionar o item em destaque (Android, 2018).
Para explorar um item por vez na tela, deve-se deslizar o dedo para a esquerda ou direita para percorrer os itens em sequência. Depois de um atraso de um segundo, o TalkBack fornece uma dica sobre ações disponíveis (a partir da versão 4.3.1).
Para fazer a edição de um texto, um tecla virtual é exibida na parte inferior da tela. A pessoa cega explora esse teclado pelo toque, da mesma forma que faz com outras telas, mas a ativação funciona de forma diferente, ou seja, para digitar uma letra desliza-se o dedo sobre o teclado até ouvir o caractere que se deseja digitar (Android, 2018).
A tela inicial é composta por dois botões, sendo o primeiro botão para identificar vestimentas e, o segundo, para cadastrar vestimentas. Este segundo botão deve ser utilizado pelo circulo de amigos ou familiares da pessoa cega. A Figura 4 mostra como foi organizada a tela inicial do aplicativo.
Na Tela Inicial (Figura 4), o botão com o texto ”Identificar Vestimenta” direciona à tela “Identificação de vestimentas”. Foi adicionada a descrição ”tela de identificação de vestimentas”, por meio da propriedade content description. Com a implementação dessa recomendação, quando o usuário passa o dedo sobre o botão, o TalkBack passa a ler ”botão tela de identificação de vestimentas” como mostra a Figura 5. O content description foi aplicado, também, aos demais elementos de todas as telas.
Quando a pessoa cega pressiona o botão "Identificar vestimenta” ela é direcionada para a tela de identificação. Nesta tela, automaticamente é acionada a câmera do dispositivo. Então, a pessoa cega deverá pressionar o botão identificar vestimenta, para o aplicativo fazer a análise dos padrões da foto e comparar com os padrões armazenados na base de dados. Assim, o aplicativo poderá verificar se a vestimenta existe na base de dados. Em caso afirmativo o usuário ouvirá a áudio-descrição desta vestimenta. Caso contrário, o aplicativo irá informar que a vestimenta ainda não foi cadastrada pelo seu círculo de amigos.
A tela de cadastro de vestimentas é acionada ao clicar no botão "Cadastrar Vestimentas”. Por meio desta tela, o círculo de amigos ou familiares da pessoa cega poderá a escolher a categoria da vestimenta. Caso a categoria não exista, poderá ser cadastrada uma nova, clicando no botão "Nova” como mostra a Figura 6, tela de cadastro de categoria.
Para o cadastro de uma nova categoria, coloca-se o nome da categoria e clica-se no botão nova (Figura 6). Para gravar a áudio-descrição, deve-se clicar no botão de gravar áudio (botão com o ícone de um microfone, mostrado na Figura 6), que ir´a direcionar para o gravador de áudio do smartphone, como mostra a Figura 7. Deve-se, então, informar cor, estilo e detalhes da vestimenta.
Ao fazer a gravação da áudio-descrição da vestimenta, deve-se clicar no botão de capturar vestimenta (botão com o ícone de uma câmera fotográfica, mostrado na Figura 6), que irá direcionar o usuário para a tela de captura de imagem do smartphone, como mostra a Figura 8 (exemplo da captura de uma vestimenta).
Após fazer a captura da vestimenta, deve-se clicar no botão cadastrar (Figura 6), e o registro é salvo na Base de dados no SQLlite do Android. O áudio e a imagem são armazenados no diretório externo do aplicativo, sendo gravado na base de dados somente o endereço dos mesmos.
Foram realizados testes com a biblioteca OpenCV, sendo inseridas vestimentas para o treinamento e reconhecimento das mesmas. Inicialmente foram capturadas vestimentas em diferentes posições e em diferentes tipos e cores de fundo. Foram geradas imagens positivas e negativas, sendo as positivas as imagens sem fundo e, as negativas, somente com os fundos. Também foram realizados testes em relação à utilização de processamento de imagem e reconhecimento das mesmas com funções da biblioteca OpenCV que serão abordados em trabalhos futuros.
Este artigo apresentou o desenvolvimento de um protótipo de aplicativo mobile para identificação de vestimentas, com o intuito de ajudar as pessoas cegas a terem uma maior independência em suas atividades diárias, relacionadas a vestimentas. O protótipo envolveu o desenvolvimento das questões de acessibilidade nas telas e o cadastro e armazenamento de dados. O aplicativo foi desenvolvido pelo Grupo de Pesquisa DIRTA (Desenvolvimento e Inovação em Reabilitação e Tecnologia Assistiva) da UFSM-FW (Universidade Federal de Santa Maria, campus Frederico Westphalen – RS). O uso da biblioteca OpenCV deu-se pelo fato de que a mesma é totalmente livre para uso acadêmico, visando o desenvolvimento de aplicativos na área de visão computacional.
As pessoas, no geral, são muito visuais, ou seja, observam e entendem o mundo por meio da visão. Pessoas cegas, apesar de desenvolverem outros sentidos de forma mais aguçada, precisam se adaptar a situações cotidianas, onde a visão é fundamental. Observamos, com o desenvolvimento desse projeto, que as cores representam um papel fundamental na sociedade. Por exemplo, em determinadas situações, preferimos estar vestidos com cores mais neutras e, em outras, com cores mais alegres. Desta forma, cegos também precisam se sentir mais integrados à sociedade, e assim, o aplicativo desenvolvido neste trabalho é, também, uma ferramenta de inclusão.
Por fim, este trabalho traz inciativas de acessibilidade voltadas para pessoas cegas. Questões simples para a maioria das pessoas podem ser desafios para quem tem alguma deficiência. Este trabalho mostrou, também, como pessoas cegas podem ter uma melhor qualidade de vida por meio de um aplicativo de identificação de vestimentas. A tecnologia empodera pessoas com deficiência e representa um mercado em expansão. Segundo Pereira e Carvalho (2018), “para as pessoas com deficiência, as Tecnologias Assistivas adquirem relevância à medida que permitem executar tarefas cotidianas com autonomia” (p. 264).
Como trabalhos futuros será implantado o processamento de imagem para o tratamento das mesmas de forma automática, com o auxílio da biblioteca OpenCV e, também, a utilização de RNAs com o algoritmo backpropagation, para identificação de padrões das vestimentas. Assim que estes aspectos estiverem implementados, será possível realizar o teste do aplicativo com pessoas cegas, visando validá-lo.