Por favor, use este identificador para citar o enlazar este ítem: http://www.monografias.ufop.br/handle/35400000/8229
Título : Aplicação de florestas aleatórias e técnicas de interpretabilidade na análise de dados biológicos e clínicos.
Autor : Taveira, Ulisses Viana
metadata.dc.contributor.advisor: Queiroz, Rafael Alves Bonfim de
metadata.dc.contributor.referee: Queiroz, Rafael Alves Bonfim de
Almeida, Danielle Emely de Souza
Matta, Cristiano Amaro da
Palabras clave : Aprendizado de máquina
Floresta aleatória
Local interpretable model-agnostic explanations
Shapley additive explanations
Fecha de publicación : 2024
Citación : TAVEIRA, Ulisses Viana. Aplicação de florestas aleatórias e técnicas de interpretabilidade na análise de dados biológicos e clínicos. 2024. 53 f. Monografia (Graduação em Ciência da Computação) - Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto, Ouro Preto, 2024.
Resumen : O aprendizado de máquina está presente em muitas áreas do conhecimento, como a Biologia e a Medicina. Apesar da ampla aplicação de modelos de aprendizado para previsões existe a questão de interpretar os modelos de modo que seja possível a um ser humano compreender seu funcionamento, uma vez que muitos modelos são "caixas pretas". A falta de conhecimento acerca do funcionamento da tomada de decisões de um modelo pode suscitar a replicação de erros, falta de aceitação social e problemas éticos e morais, que são fruto da sua aplicação em produtos para a sociedade. Dois interpretadores agnósticos ao modelo, LIME (Local Interpretable Model-Agnostic Explanations) e SHAP (Shapley Additive Explanations), oferecem interpretação a modelos de aprendizado. O objetivo central deste trabalho consiste em aplicar os métodos LIME e SHAP para interpretação de modelos de aprendizado gerados com o algoritmo Floresta Aleatória para casos de classificação em uma base de dados de botânica (Iris) e uma base de dados médica (Diabetes), e apresentar um panorama do funcionamento dos modelos, dos interpretadores e comparar os resultados de ambos os métodos de interpretabilidade.
metadata.dc.description.abstracten: Machine learning is present in many areas of knowledge, such as Biology and Medicine. Despite the wide application of learning models for predictions, there is the issue of interpreting the models so that it is possible for a human being to understand how they work since many models are "black boxes." The lack of knowledge about how a model’s decision-making works can lead to the replication of errors, lack of social acceptance, and ethical and moral problems resulting from its application in products for society. Two model-agnostic interpreters, LIME (Local Interpretable Model-Agnostic Explanations) and SHAP (Shapley Additive Explanations), provide interpretation for learning models. The central objective of this work is to apply the LIME and SHAP methods to learning models generated with the Random Forest algorithm for classification cases in a botanical database (Iris) and a medical database (Diabetes) and present an overview of the functioning of the models and interpreters and compare the results of both interpretability methods.
URI : http://www.monografias.ufop.br/handle/35400000/8229
Aparece en las colecciones: Ciência da Computação

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
MONOGRAFIA_AplicaçãoFlorestasAleatórias.pdf2,61 MBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.