Use este identificador para citar ou linkar para este item: http://www.monografias.ufop.br/handle/35400000/3940
Título: Otimização multiobjetivo baseada em modelos substitutos para compressão de redes neurais artificiais.
Autor(es): Ferreira, Antonio de Barros Naddeo Meirelles
Orientador(es): Silva, Rodrigo César Pedrosa
Reis, Agnaldo José da Rocha
Membros da banca: Silva, Rodrigo César Pedrosa
Reis, Agnaldo José da Rocha
Rezende, Tamires Martins
Souza, Gabriel Lima de
Palavras-chave: Redes neurais -computação
Redes neurais - compressão
Otimização
Data do documento: 2022
Referência: FERREIRA, Antonio de Barros Naddeo Meirelles. Otimização multiobjetivo baseada em modelos substitutos para compressão de redes neurais artificiais. 2022. 43 f. Monografia (Graduação em Engenharia de Controle e Automação) - Escola de Minas, Universidade Federal de Ouro Preto, Ouro Preto, 2022
Resumo: Nos últimos anos surgiram novos trabalhos visando a redução do custo computacional das redes neurais artificiais, mantendo a eficácia dos modelos. A redução deste custo pode permitir a aplicação de redes neurais artificiais em sistemas com restrições de hardware ou a redução de latência entre serviços da nuvem. Entre os métodos criados, existem aqueles que buscam reduzir o custo de uma rede existente, como a poda de parâmetros ou quantização de pesos. Estes métodos transformam a arquitetura de uma rede, de forma a torná-la mais leve. Entretanto, estes métodos requerem configurações e hiper-parâmetros próprios para serem aplicados, configurações estas que normalmente são pouco discutidas na literatura. Aproveitando desta consideração, propõe-se neste trabalho uma metodologia para a otimização da escolha dos parâmetros envolvidos na compressão de uma rede neural artificial através de modelos substitutos. Esta técnica de otimização já se mostrou promissora em outros problemas semelhantes e pode ser uma alternativa interessante para a análise do problema de compressão.
Resumo em outra língua: In recent years, new studies have emerged with the aim of reducing the computational cost of artificial neural networks, while maintaining the efficiency of the models. Reducing this cost allow the application of artificial neural networks in systems with hardware restrictions or the reduction of latency between cloud services. Among the methods created, there are those that seek to reduce the cost of an existing network, such as pruning parameters or quantizing weights. These methods transform the architecture of a network in order to make it lighter. However, these methods require their own configurations and hyper-parameters, configurations that are usually little discussed in the literature. Taking advantage of this consideration, this work proposes an algorithm for optimizing the choice of parameters involved in the compression of an artificial neural network through surrogate models. This optimization technique has already shown good results in similar problems and can be an interesting alternative for analyzing the compression problem.
URI: http://www.monografias.ufop.br/handle/35400000/3940
Aparece nas coleções:Engenharia de Controle e Automação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
MONOGRAFIA_OtimizacaoMultiobjetivoBaseada.pdf3,1 MBAdobe PDFVisualizar/Abrir


Este item está licenciado sob uma Licença Creative Commons Creative Commons