Use este identificador para citar ou linkar para este item:
http://www.monografias.ufop.br/handle/35400000/8229
Título: | Aplicação de florestas aleatórias e técnicas de interpretabilidade na análise de dados biológicos e clínicos. |
Autor(es): | Taveira, Ulisses Viana |
Orientador(es): | Queiroz, Rafael Alves Bonfim de |
Membros da banca: | Queiroz, Rafael Alves Bonfim de Almeida, Danielle Emely de Souza Matta, Cristiano Amaro da |
Palavras-chave: | Aprendizado de máquina Floresta aleatória Local interpretable model-agnostic explanations Shapley additive explanations |
Data do documento: | 2024 |
Referência: | TAVEIRA, Ulisses Viana. Aplicação de florestas aleatórias e técnicas de interpretabilidade na análise de dados biológicos e clínicos. 2024. 53 f. Monografia (Graduação em Ciência da Computação) - Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto, Ouro Preto, 2024. |
Resumo: | O aprendizado de máquina está presente em muitas áreas do conhecimento, como a Biologia e a Medicina. Apesar da ampla aplicação de modelos de aprendizado para previsões existe a questão de interpretar os modelos de modo que seja possível a um ser humano compreender seu funcionamento, uma vez que muitos modelos são "caixas pretas". A falta de conhecimento acerca do funcionamento da tomada de decisões de um modelo pode suscitar a replicação de erros, falta de aceitação social e problemas éticos e morais, que são fruto da sua aplicação em produtos para a sociedade. Dois interpretadores agnósticos ao modelo, LIME (Local Interpretable Model-Agnostic Explanations) e SHAP (Shapley Additive Explanations), oferecem interpretação a modelos de aprendizado. O objetivo central deste trabalho consiste em aplicar os métodos LIME e SHAP para interpretação de modelos de aprendizado gerados com o algoritmo Floresta Aleatória para casos de classificação em uma base de dados de botânica (Iris) e uma base de dados médica (Diabetes), e apresentar um panorama do funcionamento dos modelos, dos interpretadores e comparar os resultados de ambos os métodos de interpretabilidade. |
Resumo em outra língua: | Machine learning is present in many areas of knowledge, such as Biology and Medicine. Despite the wide application of learning models for predictions, there is the issue of interpreting the models so that it is possible for a human being to understand how they work since many models are "black boxes." The lack of knowledge about how a model’s decision-making works can lead to the replication of errors, lack of social acceptance, and ethical and moral problems resulting from its application in products for society. Two model-agnostic interpreters, LIME (Local Interpretable Model-Agnostic Explanations) and SHAP (Shapley Additive Explanations), provide interpretation for learning models. The central objective of this work is to apply the LIME and SHAP methods to learning models generated with the Random Forest algorithm for classification cases in a botanical database (Iris) and a medical database (Diabetes) and present an overview of the functioning of the models and interpreters and compare the results of both interpretability methods. |
URI: | http://www.monografias.ufop.br/handle/35400000/8229 |
Aparece nas coleções: | Ciência da Computação |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
MONOGRAFIA_AplicaçãoFlorestasAleatórias.pdf | 2,61 MB | Adobe PDF | Visualizar/Abrir |
Os itens na BDTCC estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.