Use este identificador para citar ou linkar para este item: http://www.monografias.ufop.br/handle/35400000/4992
Registro completo de metadados
Campo Dublin CoreValorIdioma
dc.contributor.advisorBianchi, Andrea Gomes Campospt_BR
dc.contributor.advisorQueiroz, Rafael Alves Bonfim dept_BR
dc.contributor.authorEuzebio, Pedro Alves-
dc.date.accessioned2022-12-20T18:14:14Z-
dc.date.available2022-12-20T18:14:14Z-
dc.date.issued2022pt_BR
dc.identifier.citationEUZEBIO, Pedro Alves. Interpretabilidade de modelos de aprendizagem de máquina para classificação automática de células cervicais. 2022. 48 f. Monografia (Graduação em Ciência da Computação) - Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto, Ouro Preto, 2022.pt_BR
dc.identifier.urihttp://www.monografias.ufop.br/handle/35400000/4992-
dc.description.abstractA utilização de modelos de aprendizado de máquina e profundo para automatização de processos de tomada de decisões obtém sucesso em diferentes contextos. Devido a difusão desses algoritmos, se torna importante que eles sejam interpretáveis para que se mostrem confiáveis ao serem adotados por humanos. Embora o aprendizado alcance resultados de ponta em aplicações do mundo real, seu número excessivo de parâmetros não é bem compreendido pelos humanos. Nesta monografia apresentamos uma investigação da interpretabilidade de métodos de aprendizado de maquina utilizando o método Local interpretable model agnostic explanations (LIME) para prover explicações. Os modelos sobre os quais as estratégias de interpretabilidade serão aplicados são de florestas aleatórias, usados no contexto de classificação de imagens de células cervicais. Os resultados para modelos de árvore de decisão foram explicações individuais das instâncias mais representativas da base dados, seguido de uma análise de ocorrências das características em meio as explicações geradas, além do calculo da permutation importances para fins de comparação.pt_BR
dc.language.isopt_BRpt_BR
dc.subjectInterpretabilidadept_BR
dc.subjectAprendizagem de máquinapt_BR
dc.subjectRede neural convolucionalpt_BR
dc.subjectFloresta aleatóriapt_BR
dc.subjectCenter for Recognition and Inspection of Cells Cervixpt_BR
dc.titleInterpretabilidade de modelos de aprendizagem de máquina para classificação automática de células cervicais.pt_BR
dc.typeTCC-Graduaçãopt_BR
dc.contributor.refereeTerra, Daniela Costapt_BR
dc.contributor.refereeLuz, Eduardo José da Silvapt_BR
dc.contributor.refereeBianchi, Andrea Gomes Campospt_BR
dc.contributor.refereeQueiroz, Rafael Alves Bonfim dept_BR
dc.description.abstractenUsing machine and deep learning models for automated decision-making processes is successful in different contexts. Due to the dissemination of these algorithms, it becomes important that they are interpretable to be reliable when adopted by humans. Although learning achieves cutting-edge results in real-world applications, its excessive number of parameters is not well understood by humans. We present an interpretability investigation of machine learning methods using the Local interpretable model agnostic explanations (LIME). The interpretability strategies will be applied at Random Forests, used in the context of cervical cell image classification.The results for decision tree models were individual explanations of the most representative instances of the database, followed by an analysis of occurrences of the characteristics among the generated explanations, in addition to the calculation of permutation importances for comparison purposes.pt_BR
dc.contributor.authorID17.1.4024pt_BR
Aparece nas coleções:Ciência da Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
MONOGRAFIA_InterpretabilidadeModelosAprendizagem.pdf2,09 MBAdobe PDFVisualizar/Abrir


Este item está licenciado sob uma Licença Creative Commons Creative Commons