Use este identificador para citar ou linkar para este item: http://www.monografias.ufop.br/handle/35400000/3941
Registro completo de metadados
Campo Dublin CoreValorIdioma
dc.contributor.advisorCámara Chávez, Guillermopt_BR
dc.contributor.advisorReis, Agnaldo José da Rochapt_BR
dc.contributor.authorAlmeida, Luciano Ermelindo-
dc.date.accessioned2022-02-12T22:56:54Z-
dc.date.available2022-02-12T22:56:54Z-
dc.date.issued2022pt_BR
dc.identifier.citationALMEIDA, Luciano Ermelindo. Estratégia multimodelo de redes neurais convolucionais para classificação de expressões faciais. 2022. 44 f. Monografia (Graduação em Engenharia de controle e automação) - Escola de Minas, Universidade Federal de Ouro Preto, Ouro Preto, 2022.pt_BR
dc.identifier.urihttp://www.monografias.ufop.br/handle/35400000/3941-
dc.description.abstractO reconhecimento de emoções desempenha um papel promissor no sistema de interação homem máquina. Diferentes técnicas tem sido desenvolvidas para a solução deste desafio, dentre elas as arquiteturas de redes neurais convolucionais estão entre as mais eficientes. Este trabalho apresenta uma solução multimodelo, onde diferentes redes neurais convolucionais são treinadas de forma individual e a fusão das redes acontece no nível de decisão utilizando um sistema de votação que garante a diminuição dos erros das classificações de cada rede. Ao todo quatro CNN’s foram treinadas na base de dados FER2013+, que é uma base de dados bem diversificada, as quatro redes utilizaram a técnica de fine tuning cada uma com seu respectivo modelo base, a saber, VGG16, VGG19, Xception e o InceptionV3, desta maneira cada uma das redes adquire capacidades diferentes de reconhecer as expressões, garantindo a eficiência da fusão. Cada uma das quatro redes obtiveram acurácias individuais de 81,4%, 81,1%, 79,8% e 80,5%, para as oito expressões de emoções faciais universais, felicidade, surpresa, tristeza, raiva, nojo, medo, desprezo e neutro, fazendo a fusão dos quatro modelos a acurácia atinge 84,2%, para a fusão contendo três modelos a acurácia é de 83,8% e o sistema multimodelo com duas arquiteturas o resultado é de 82,4%.pt_BR
dc.language.isopt_BRpt_BR
dc.rightsAn error occurred on the license name.*
dc.rights.uriAn error occurred getting the license - uri.*
dc.subjectExpressão facialpt_BR
dc.subjectRede neural convolucionaispt_BR
dc.subjectFusão - sistema de votação suavept_BR
dc.subjectRedes neurais - computaçãopt_BR
dc.titleEstratégia multimodelo de redes neurais convolucionais para classificação de expressões faciais.pt_BR
dc.typeTCC-Graduaçãopt_BR
dc.contributor.refereeCámara Chávez, Guillermopt_BR
dc.contributor.refereeReis, Agnaldo José da Rochapt_BR
dc.contributor.refereeSilva, Rodrigo César Pedrosapt_BR
dc.contributor.refereeSilva, Pedro Henrique Lopespt_BR
dc.description.abstractenEmotion recognition plays a promising role in the human-machine interaction system. Different techniques have been developed to solve this challenge, among them the convolutional neural network architectures are among the most efficient. This work presents a multi-model solution, where different convolutional neural networks are individually trained and the fusion of networks takes place at the decision level using a voting system that guarantees the reduction of errors in the classifications of each network. Altogether four CNNs were trained in the FER2013+ database, which is a well-diversified database, the four networks used the technique defines tuning each one with its respective base model, namely, VGG16, VGG19, Xception, and InceptionV3, in this way each of the networks acquires different capabilities to recognize expressions, ensuring the efficiency of fusion. Each of the four networks had individual accuracies of 81.4%, 81.1%, 79.8%, and 80.5% for the eight expressions of universal facial emotions, happiness, surprise, sadness, anger, disgust, fear, contempt, and neutral, making the fusion of the four models the accuracy reaches 84.2%, for the fusion containing three models the accuracy is 83.8% and the multi-model system with two architectures the result is 82.4%.pt_BR
dc.contributor.authorID19.1.1069pt_BR
Aparece nas coleções:Engenharia de Controle e Automação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
MONOGRAFIA_EstratégiaMultimodeloRedes.pdf2,59 MBAdobe PDFVisualizar/Abrir


Os itens na BDTCC estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.