Use este identificador para citar ou linkar para este item: http://www.monografias.ufop.br/handle/35400000/7062
Registro completo de metadados
Campo Dublin CoreValorIdioma
dc.contributor.advisorSilva, Pedro Henrique Lopespt_BR
dc.contributor.authorPaixao, Igor Santiago Almeida-
dc.date.accessioned2024-10-18T12:38:07Z-
dc.date.available2024-10-18T12:38:07Z-
dc.date.issued2024pt_BR
dc.identifier.citationPAIXAO, Igor Santiago Almeida. Um estudo sobre aataset Ddstillation. 2024. 82 f. Monografia (Graduação em Ciência da Computação) - Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto, Ouro Preto, 2024.pt_BR
dc.identifier.urihttp://www.monografias.ufop.br/handle/35400000/7062-
dc.description.abstractDataset Distilation (DD) é uma técnica utilizada para gerar um conjunto de dados sintéticos, condensado e informativo, capaz de substituir o conjunto de dados original no treinamento de modelos de aprendizado de máquina. Este estudo explora a aplicação de técnicas de DD em um novo domínio, utilizando o conjunto de dados PathMNIST para avaliar o desempenho desses métodos. Nossa abordagem foca na comparação de duas técnicas consolidadas, Dataset Distillation by Gradient Matching (DD-GM) e Dataset Distillation by Automatic Training Trajectories (ATT) aplicadas à esse conjunto de dados. Os resultados demonstram a viabilidade das técnicas de DD em tarefas complexas de imagens médicas, fornecendo insights sobre a eficácia dessas abordagens em novos contextos. Além disso, este trabalho apresenta uma avaliação abrangente de ambos os métodos, destacando seus pontos fortes e limitações, e contribuindo com descobertas importantes para a aplicação de DD em conjuntos de dados mais desafiadores e específicos.pt_BR
dc.language.isopt_BRpt_BR
dc.subjectRedes neuraispt_BR
dc.subjectAprendizado profundopt_BR
dc.subjectClassificação de dadospt_BR
dc.titleUm estudo sobre dataset distillationpt_BR
dc.title.alternativeUm estudo sobre destilação do conjunto de dadospt_BR
dc.typeTCC-Graduaçãopt_BR
dc.contributor.refereeSilva, Guilherme Augusto Lopespt_BR
dc.contributor.refereePinto, Luan Patrik Silvapt_BR
dc.contributor.refereeSilva, Pedro Henrique Lopespt_BR
dc.description.abstractenDataset Distilation (DD) is a technique used to generate a synthetic, condensed and informative dataset capable of replacing the original dataset when training machine learning models. This study explores the application of DD techniques in a new domain, using the PathMNIST dataset to evaluate the performance of these methods. Our approach focuses on comparing two consolidated techniques, Dataset Distillation by Gradient Matching (DD-GM) and Dataset Distillation by Automatic Training Trajectories (ATT) applied to this dataset. The results demonstrate the applicability of Dataset Distilation (DD) techniques to complex medical imaging tasks, providing insights into the efficiency of these approaches in new contexts. In addition, this paper presents a comprehensive evaluation of both methods, highlighting their strengths and limitations, and contributing important findings for the application of DD to more challenging and specific datasetspt_BR
dc.contributor.authorID19.1.4033pt_BR
Aparece nas coleções:Ciência da Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
MONOGRAFIA_EstudoDatasetDistillation.pdf4,56 MBAdobe PDFVisualizar/Abrir


Os itens na BDTCC estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.