Por favor, use este identificador para citar o enlazar este ítem:
http://www.monografias.ufop.br/handle/35400000/4992
Título : | Interpretabilidade de modelos de aprendizagem de máquina para classificação automática de células cervicais. |
Autor : | Euzebio, Pedro Alves |
metadata.dc.contributor.advisor: | Bianchi, Andrea Gomes Campos Queiroz, Rafael Alves Bonfim de |
metadata.dc.contributor.referee: | Terra, Daniela Costa Luz, Eduardo José da Silva Bianchi, Andrea Gomes Campos Queiroz, Rafael Alves Bonfim de |
Palabras clave : | Interpretabilidade Aprendizagem de máquina Rede neural convolucional Floresta aleatória Center for Recognition and Inspection of Cells Cervix |
Fecha de publicación : | 2022 |
Citación : | EUZEBIO, Pedro Alves. Interpretabilidade de modelos de aprendizagem de máquina para classificação automática de células cervicais. 2022. 48 f. Monografia (Graduação em Ciência da Computação) - Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto, Ouro Preto, 2022. |
Resumen : | A utilização de modelos de aprendizado de máquina e profundo para automatização de processos de tomada de decisões obtém sucesso em diferentes contextos. Devido a difusão desses algoritmos, se torna importante que eles sejam interpretáveis para que se mostrem confiáveis ao serem adotados por humanos. Embora o aprendizado alcance resultados de ponta em aplicações do mundo real, seu número excessivo de parâmetros não é bem compreendido pelos humanos. Nesta monografia apresentamos uma investigação da interpretabilidade de métodos de aprendizado de maquina utilizando o método Local interpretable model agnostic explanations (LIME) para prover explicações. Os modelos sobre os quais as estratégias de interpretabilidade serão aplicados são de florestas aleatórias, usados no contexto de classificação de imagens de células cervicais. Os resultados para modelos de árvore de decisão foram explicações individuais das instâncias mais representativas da base dados, seguido de uma análise de ocorrências das características em meio as explicações geradas, além do calculo da permutation importances para fins de comparação. |
metadata.dc.description.abstracten: | Using machine and deep learning models for automated decision-making processes is successful in different contexts. Due to the dissemination of these algorithms, it becomes important that they are interpretable to be reliable when adopted by humans. Although learning achieves cutting-edge results in real-world applications, its excessive number of parameters is not well understood by humans. We present an interpretability investigation of machine learning methods using the Local interpretable model agnostic explanations (LIME). The interpretability strategies will be applied at Random Forests, used in the context of cervical cell image classification.The results for decision tree models were individual explanations of the most representative instances of the database, followed by an analysis of occurrences of the characteristics among the generated explanations, in addition to the calculation of permutation importances for comparison purposes. |
URI : | http://www.monografias.ufop.br/handle/35400000/4992 |
Aparece en las colecciones: | Ciência da Computação |
Ficheros en este ítem:
Fichero | Descripción | Tamaño | Formato | |
---|---|---|---|---|
MONOGRAFIA_InterpretabilidadeModelosAprendizagem.pdf | 2,09 MB | Adobe PDF | Visualizar/Abrir |
Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons