Please use this identifier to cite or link to this item: http://www.monografias.ufop.br/handle/35400000/3941
Title: Estratégia multimodelo de redes neurais convolucionais para classificação de expressões faciais.
Authors: Almeida, Luciano Ermelindo
metadata.dc.contributor.advisor: Cámara Chávez, Guillermo
Reis, Agnaldo José da Rocha
metadata.dc.contributor.referee: Cámara Chávez, Guillermo
Reis, Agnaldo José da Rocha
Silva, Rodrigo César Pedrosa
Silva, Pedro Henrique Lopes
Keywords: Expressão facial
Rede neural convolucionais
Fusão - sistema de votação suave
Redes neurais - computação
Issue Date: 2022
Citation: ALMEIDA, Luciano Ermelindo. Estratégia multimodelo de redes neurais convolucionais para classificação de expressões faciais. 2022. 44 f. Monografia (Graduação em Engenharia de controle e automação) - Escola de Minas, Universidade Federal de Ouro Preto, Ouro Preto, 2022.
Abstract: O reconhecimento de emoções desempenha um papel promissor no sistema de interação homem máquina. Diferentes técnicas tem sido desenvolvidas para a solução deste desafio, dentre elas as arquiteturas de redes neurais convolucionais estão entre as mais eficientes. Este trabalho apresenta uma solução multimodelo, onde diferentes redes neurais convolucionais são treinadas de forma individual e a fusão das redes acontece no nível de decisão utilizando um sistema de votação que garante a diminuição dos erros das classificações de cada rede. Ao todo quatro CNN’s foram treinadas na base de dados FER2013+, que é uma base de dados bem diversificada, as quatro redes utilizaram a técnica de fine tuning cada uma com seu respectivo modelo base, a saber, VGG16, VGG19, Xception e o InceptionV3, desta maneira cada uma das redes adquire capacidades diferentes de reconhecer as expressões, garantindo a eficiência da fusão. Cada uma das quatro redes obtiveram acurácias individuais de 81,4%, 81,1%, 79,8% e 80,5%, para as oito expressões de emoções faciais universais, felicidade, surpresa, tristeza, raiva, nojo, medo, desprezo e neutro, fazendo a fusão dos quatro modelos a acurácia atinge 84,2%, para a fusão contendo três modelos a acurácia é de 83,8% e o sistema multimodelo com duas arquiteturas o resultado é de 82,4%.
metadata.dc.description.abstracten: Emotion recognition plays a promising role in the human-machine interaction system. Different techniques have been developed to solve this challenge, among them the convolutional neural network architectures are among the most efficient. This work presents a multi-model solution, where different convolutional neural networks are individually trained and the fusion of networks takes place at the decision level using a voting system that guarantees the reduction of errors in the classifications of each network. Altogether four CNNs were trained in the FER2013+ database, which is a well-diversified database, the four networks used the technique defines tuning each one with its respective base model, namely, VGG16, VGG19, Xception, and InceptionV3, in this way each of the networks acquires different capabilities to recognize expressions, ensuring the efficiency of fusion. Each of the four networks had individual accuracies of 81.4%, 81.1%, 79.8%, and 80.5% for the eight expressions of universal facial emotions, happiness, surprise, sadness, anger, disgust, fear, contempt, and neutral, making the fusion of the four models the accuracy reaches 84.2%, for the fusion containing three models the accuracy is 83.8% and the multi-model system with two architectures the result is 82.4%.
URI: http://www.monografias.ufop.br/handle/35400000/3941
Appears in Collections:Engenharia de Controle e Automação

Files in This Item:
File Description SizeFormat 
MONOGRAFIA_EstratégiaMultimodeloRedes.pdf2,59 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.