Use este identificador para citar ou linkar para este item:
http://www.monografias.ufop.br/handle/35400000/7062
Registro completo de metadados
Campo Dublin Core | Valor | Idioma |
---|---|---|
dc.contributor.advisor | Silva, Pedro Henrique Lopes | pt_BR |
dc.contributor.author | Paixao, Igor Santiago Almeida | - |
dc.date.accessioned | 2024-10-18T12:38:07Z | - |
dc.date.available | 2024-10-18T12:38:07Z | - |
dc.date.issued | 2024 | pt_BR |
dc.identifier.citation | PAIXAO, Igor Santiago Almeida. Um estudo sobre aataset Ddstillation. 2024. 82 f. Monografia (Graduação em Ciência da Computação) - Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto, Ouro Preto, 2024. | pt_BR |
dc.identifier.uri | http://www.monografias.ufop.br/handle/35400000/7062 | - |
dc.description.abstract | Dataset Distilation (DD) é uma técnica utilizada para gerar um conjunto de dados sintéticos, condensado e informativo, capaz de substituir o conjunto de dados original no treinamento de modelos de aprendizado de máquina. Este estudo explora a aplicação de técnicas de DD em um novo domínio, utilizando o conjunto de dados PathMNIST para avaliar o desempenho desses métodos. Nossa abordagem foca na comparação de duas técnicas consolidadas, Dataset Distillation by Gradient Matching (DD-GM) e Dataset Distillation by Automatic Training Trajectories (ATT) aplicadas à esse conjunto de dados. Os resultados demonstram a viabilidade das técnicas de DD em tarefas complexas de imagens médicas, fornecendo insights sobre a eficácia dessas abordagens em novos contextos. Além disso, este trabalho apresenta uma avaliação abrangente de ambos os métodos, destacando seus pontos fortes e limitações, e contribuindo com descobertas importantes para a aplicação de DD em conjuntos de dados mais desafiadores e específicos. | pt_BR |
dc.language.iso | pt_BR | pt_BR |
dc.subject | Redes neurais | pt_BR |
dc.subject | Aprendizado profundo | pt_BR |
dc.subject | Classificação de dados | pt_BR |
dc.title | Um estudo sobre dataset distillation | pt_BR |
dc.title.alternative | Um estudo sobre destilação do conjunto de dados | pt_BR |
dc.type | TCC-Graduação | pt_BR |
dc.contributor.referee | Silva, Guilherme Augusto Lopes | pt_BR |
dc.contributor.referee | Pinto, Luan Patrik Silva | pt_BR |
dc.contributor.referee | Silva, Pedro Henrique Lopes | pt_BR |
dc.description.abstracten | Dataset Distilation (DD) is a technique used to generate a synthetic, condensed and informative dataset capable of replacing the original dataset when training machine learning models. This study explores the application of DD techniques in a new domain, using the PathMNIST dataset to evaluate the performance of these methods. Our approach focuses on comparing two consolidated techniques, Dataset Distillation by Gradient Matching (DD-GM) and Dataset Distillation by Automatic Training Trajectories (ATT) applied to this dataset. The results demonstrate the applicability of Dataset Distilation (DD) techniques to complex medical imaging tasks, providing insights into the efficiency of these approaches in new contexts. In addition, this paper presents a comprehensive evaluation of both methods, highlighting their strengths and limitations, and contributing important findings for the application of DD to more challenging and specific datasets | pt_BR |
dc.contributor.authorID | 19.1.4033 | pt_BR |
Aparece nas coleções: | Ciência da Computação |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
MONOGRAFIA_EstudoDatasetDistillation.pdf | 4,56 MB | Adobe PDF | Visualizar/Abrir |
Os itens na BDTCC estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.