Use este identificador para citar ou linkar para este item: http://www.monografias.ufop.br/handle/35400000/6934
Título: Aplicação de técnicas de reconhecimento de imagens na classificação de sinais em LIBRAS (linguagem brasileira de sinais) para tradução em texto.
Autor(es): Grossi, Victor Silva
Ferreira Filho, Balbino Soares
Orientador(es): Haddad, Matheus Nohra
Membros da banca: Munhoz, Pablo Luiz Araujo
Leite, Harlei Miguel de Arruda
Haddad, Matheus Nohra
Palavras-chave: Classificação - sinais e símbolos
Estatística matemática
Língua de sinais
Redes neurais - computação
Deep learning
Data do documento: 2024
Referência: FERREIRA, Balbino Soares; GROSSI, Victor Silva. Aplicação de técnicas de reconhecimento de imagens na classificação de sinais em LIBRAS (linguagem brasileira de sinais) para tradução em texto. 2024. 88 f. Monografia (Especialização em Ciências de Dados) - Instituto de Ciências Exatas e Aplicadas, Universidade Federal de Ouro Preto, João Monlevade, 2024.
Resumo: O reconhecimento de sinais em Libras é um processo que apresenta grandes desafios, não somente com relação ao problema da classificação de imagens e vídeos, mas como uma lingua de natureza visual-gestual, apresentando os mesmos dificuldades de problemas envolvendo linguagem natural . Neste contexto, temos ainda agregado o fato que a lingua brasileira de sinais possuir poucos estudos de pesquisa. Este trabalho possui como proposta avaliar modelos de classificação de vídeos que possam ser aplicadas no processo de classificação de sinais em libras e determinar o modelo que apresente melhor performance. Foi utilizada uma base de dados com vinte sinais de libras, gravada por 12 sinalizadores 5 vezes cada para o processo de treinamento. Por fim avaliamos os principais modelos de extração de características utilizando modelos pré-treinados e uma técnica de Deep Learning para classificar os sinais baseado nos acertos de predição realizada por uma rede Neural Convulacional. Foi avaliada os modelos CNN+RNN e Transformers, onde foi possível comparar os resultados alçados entre eles, de forma a validar o modelo com melhor resultados na base treinada.
Resumo em outra língua: Recognizing signs in Libras is a process that presents significant challenges, not only concerning the problem of image and video classification but also because it is a visually-gestural language, presenting the same difficulties as problems involving natural language. In this context, we also face the fact that there are few research studies on Brazilian Sign Language. This work aims to evaluate video classification models that can be applied to the process of classifying Libras signs and determine the model that shows the best performance. A dataset with twenty Libras signs, recorded by 12 signers, each five times, was used for the training process. Finally, we evaluated the main feature extraction models using pre-trained models and a Deep Learning technique to classify the signs based on the prediction accuracy achieved by a Convolutional Neural Network. The CNN+RNN and Transformers models were evaluated, allowing us to compare the results obtained between them, in order to validate the model with the best results on the trained dataset.
URI: http://www.monografias.ufop.br/handle/35400000/6934
Licença: Este trabalho está sob uma licença Creative Commons BY-NC-ND 4.0 (https://creativecommons.org/licenses/by-nc-nd/4.0/?ref=chooser-v1).
Aparece nas coleções:Especialização - Ciência dos Dados

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
MONOGRAFIA_AplicaçãoTécnicasReconhecimento.pdf1,6 MBAdobe PDFVisualizar/Abrir


Os itens na BDTCC estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.