Por favor, use este identificador para citar o enlazar este ítem: http://www.monografias.ufop.br/handle/35400000/6934
Título : Aplicação de técnicas de reconhecimento de imagens na classificação de sinais em LIBRAS (linguagem brasileira de sinais) para tradução em texto.
Autor : Grossi, Victor Silva
Ferreira Filho, Balbino Soares
metadata.dc.contributor.advisor: Haddad, Matheus Nohra
metadata.dc.contributor.referee: Munhoz, Pablo Luiz Araujo
Leite, Harlei Miguel de Arruda
Haddad, Matheus Nohra
Palabras clave : Classificação - sinais e símbolos
Estatística matemática
Língua de sinais
Redes neurais - computação
Deep learning
Fecha de publicación : 2024
Citación : FERREIRA, Balbino Soares; GROSSI, Victor Silva. Aplicação de técnicas de reconhecimento de imagens na classificação de sinais em LIBRAS (linguagem brasileira de sinais) para tradução em texto. 2024. 88 f. Monografia (Especialização em Ciências de Dados) - Instituto de Ciências Exatas e Aplicadas, Universidade Federal de Ouro Preto, João Monlevade, 2024.
Resumen : O reconhecimento de sinais em Libras é um processo que apresenta grandes desafios, não somente com relação ao problema da classificação de imagens e vídeos, mas como uma lingua de natureza visual-gestual, apresentando os mesmos dificuldades de problemas envolvendo linguagem natural . Neste contexto, temos ainda agregado o fato que a lingua brasileira de sinais possuir poucos estudos de pesquisa. Este trabalho possui como proposta avaliar modelos de classificação de vídeos que possam ser aplicadas no processo de classificação de sinais em libras e determinar o modelo que apresente melhor performance. Foi utilizada uma base de dados com vinte sinais de libras, gravada por 12 sinalizadores 5 vezes cada para o processo de treinamento. Por fim avaliamos os principais modelos de extração de características utilizando modelos pré-treinados e uma técnica de Deep Learning para classificar os sinais baseado nos acertos de predição realizada por uma rede Neural Convulacional. Foi avaliada os modelos CNN+RNN e Transformers, onde foi possível comparar os resultados alçados entre eles, de forma a validar o modelo com melhor resultados na base treinada.
metadata.dc.description.abstracten: Recognizing signs in Libras is a process that presents significant challenges, not only concerning the problem of image and video classification but also because it is a visually-gestural language, presenting the same difficulties as problems involving natural language. In this context, we also face the fact that there are few research studies on Brazilian Sign Language. This work aims to evaluate video classification models that can be applied to the process of classifying Libras signs and determine the model that shows the best performance. A dataset with twenty Libras signs, recorded by 12 signers, each five times, was used for the training process. Finally, we evaluated the main feature extraction models using pre-trained models and a Deep Learning technique to classify the signs based on the prediction accuracy achieved by a Convolutional Neural Network. The CNN+RNN and Transformers models were evaluated, allowing us to compare the results obtained between them, in order to validate the model with the best results on the trained dataset.
URI : http://www.monografias.ufop.br/handle/35400000/6934
metadata.dc.rights.license: Este trabalho está sob uma licença Creative Commons BY-NC-ND 4.0 (https://creativecommons.org/licenses/by-nc-nd/4.0/?ref=chooser-v1).
Aparece en las colecciones: Especialização - Ciência dos Dados

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
MONOGRAFIA_AplicaçãoTécnicasReconhecimento.pdf4,76 MBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.