Use este identificador para citar ou linkar para este item: http://www.monografias.ufop.br/handle/35400000/5358
Título: Introdução à interpretabilidade de redes neurais convolucionais.
Autor(es): Souza, Vinicius Samy Santana
Orientador(es): Queiroz, Rafael Alves Bonfim de
Bianchi, Andrea Gomes Campos
Membros da banca: Silva, Pedro Henrique Lopes
Luz, Eduardo José da Silva
Queiroz, Rafael Alves Bonfim de
Bianchi, Andrea Gomes Campos
Palavras-chave: Explicabilidade da inteligência artificial
Rede neural convolucional
Data do documento: 2023
Referência: SOUZA, Vinicius Samy Santana. Introdução à interpretabilidade de redes neurais convolucionais. 2023. 48 f. Monografia (Graduação em Ciência da Computação) - Monografia (Graduação em Ciência da Computação) - Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto, Ouro Preto, 2023.
Resumo: Nas últimas décadas, observamos um aumento significativo de estudos e aplicações que envolvem Inteligência Artificial (IA) nas mais diversas áreas. Entre as tecnologias mais difundidas da IA, citam-se os modelos de Redes Neurais Convolucionais (ou Convolutional Neural Networks - CNN). Esses modelos vêm sendo utilizados com êxito em problemas que envolvem o processamento de imagens e sinais. Com a popularização das CNNs, torna-se cada vez mais relevante entender e validar as decisões desses modelos, principalmente quando considera-se que muitos destes modelos estão sendo aplicados em problemas críticos. Na literatura, encontram-se métodos de interpretabilidade que nos permitem entender seu processo de tomada de decisão e produzir evidências que corroboram para a confiabilidade do modelo. Sendo assim, o objetivo deste trabalho é investigar a aplicação de métodos de interpretação presentes na literatura em modelos de CNNs. Utilizou-se como modelo de estudo uma CNN treinada para realizar a classificação de frutas. Na monografia, descrevem-se a arquitetura do modelo e a base de dados adotada e, em seguida, aplicam-se os métodos de interpretação. Inicialmente, realiza-se uma análise a partir da matriz de confusão e métricas tradicionais. Em seguida, é aplicado o método de ativações intermediárias, que nos permite visualizar as ativações dos filtros do modelo para uma determinada entrada. Por último, é aplicado o método de maximização de ativações, que é capaz de gerar entradas sintéticas que maximizam os níveis de ativação de um determinado filtro. Características importantes nas imagens foram identificados pelo modelo para sua classificação. Essas características podem justificar os erros e acertos do modelo. Essa compreensão mais profunda da tomada de decisão do modelo pode levar a melhorias na sua estrutura e aprimoramentos na sua aplicação em problemas reais.
Resumo em outra língua: In recent decades, we have observed a significant increase in studies and applications involving Artificial Intelligence (AI) in the most diverse areas. Among the most widespread AI technologies, we can mention the models of Convolutional Neural Networks (or Convolutional Neural NetworksCNN). These models have been successfully used in problems involving image and signal processing. With the popularization of CNNs, it becomes increasingly relevant to understand and validate the decisions of these models, especially when considering that many of these models are being applied to critical problems. In the literature, interpretability methods allow us to understand their decision-making process and produce evidence that corroborates the model’s reliability. Therefore, this work aims to investigate the application of interpretation methods present in the literature in CNN models. A CNN trained to perform fruit classification was used as a study model. In the monograph, the architecture of the model and the adopted database are described, and then the interpretation methods are applied. First, an analysis is performed based on the confusion matrix and traditional metrics. Next, the intermediate activations method is used to visualize the activations of the model’s filters for a given input. Finally, the activation maximization method is applied, capable of generating synthetic inputs that maximize the activation levels of a given filter. Important characteristics were identified in the images used by the model for its classification. These characteristics can justify the errors and successes of the model. This more profound understanding of model decision-making can lead to improvements in structure and application to real problems.
URI: http://www.monografias.ufop.br/handle/35400000/5358
Aparece nas coleções:Ciência da Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
MONOGRAFIA_IntroduçãoInterpretabilidadeRedes.pdf11,85 MBAdobe PDFVisualizar/Abrir


Este item está licenciado sob uma Licença Creative Commons Creative Commons