Use este identificador para citar ou linkar para este item:
http://www.monografias.ufop.br/handle/35400000/6934
Título: | Aplicação de técnicas de reconhecimento de imagens na classificação de sinais em LIBRAS (linguagem brasileira de sinais) para tradução em texto. |
Autor(es): | Grossi, Victor Silva Ferreira Filho, Balbino Soares |
Orientador(es): | Haddad, Matheus Nohra |
Membros da banca: | Munhoz, Pablo Luiz Araujo Leite, Harlei Miguel de Arruda Haddad, Matheus Nohra |
Palavras-chave: | Classificação - sinais e símbolos Estatística matemática Língua de sinais Redes neurais - computação Deep learning |
Data do documento: | 2024 |
Referência: | FERREIRA, Balbino Soares; GROSSI, Victor Silva. Aplicação de técnicas de reconhecimento de imagens na classificação de sinais em LIBRAS (linguagem brasileira de sinais) para tradução em texto. 2024. 88 f. Monografia (Especialização em Ciências de Dados) - Instituto de Ciências Exatas e Aplicadas, Universidade Federal de Ouro Preto, João Monlevade, 2024. |
Resumo: | O reconhecimento de sinais em Libras é um processo que apresenta grandes desafios, não somente com relação ao problema da classificação de imagens e vídeos, mas como uma lingua de natureza visual-gestual, apresentando os mesmos dificuldades de problemas envolvendo linguagem natural . Neste contexto, temos ainda agregado o fato que a lingua brasileira de sinais possuir poucos estudos de pesquisa. Este trabalho possui como proposta avaliar modelos de classificação de vídeos que possam ser aplicadas no processo de classificação de sinais em libras e determinar o modelo que apresente melhor performance. Foi utilizada uma base de dados com vinte sinais de libras, gravada por 12 sinalizadores 5 vezes cada para o processo de treinamento. Por fim avaliamos os principais modelos de extração de características utilizando modelos pré-treinados e uma técnica de Deep Learning para classificar os sinais baseado nos acertos de predição realizada por uma rede Neural Convulacional. Foi avaliada os modelos CNN+RNN e Transformers, onde foi possível comparar os resultados alçados entre eles, de forma a validar o modelo com melhor resultados na base treinada. |
Resumo em outra língua: | Recognizing signs in Libras is a process that presents significant challenges, not only concerning the problem of image and video classification but also because it is a visually-gestural language, presenting the same difficulties as problems involving natural language. In this context, we also face the fact that there are few research studies on Brazilian Sign Language. This work aims to evaluate video classification models that can be applied to the process of classifying Libras signs and determine the model that shows the best performance. A dataset with twenty Libras signs, recorded by 12 signers, each five times, was used for the training process. Finally, we evaluated the main feature extraction models using pre-trained models and a Deep Learning technique to classify the signs based on the prediction accuracy achieved by a Convolutional Neural Network. The CNN+RNN and Transformers models were evaluated, allowing us to compare the results obtained between them, in order to validate the model with the best results on the trained dataset. |
URI: | http://www.monografias.ufop.br/handle/35400000/6934 |
Licença: | Este trabalho está sob uma licença Creative Commons BY-NC-ND 4.0 (https://creativecommons.org/licenses/by-nc-nd/4.0/?ref=chooser-v1). |
Aparece nas coleções: | Especialização - Ciência dos Dados |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
MONOGRAFIA_AplicaçãoTécnicasReconhecimento.pdf | 4,76 MB | Adobe PDF | Visualizar/Abrir |
Os itens na BDTCC estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.