Use este identificador para citar ou linkar para este item: http://www.monografias.ufop.br/handle/35400000/8901
Título: Predição zero-shot do h-index de pesquisadores via foundation models.
Autor(es): Silva Filho, Sélio Guilherme da
Orientador(es): Freitas, Vander Luis de Souza
Membros da banca: Freitas, Vander Luis de Souza
Luz, Eduardo José da Silva
Gertrudes, Jadson Castro
Palavras-chave: H-index
Time series foundation models
Moirai-moe
Previsão de séries temporais
Data do documento: 2026
Referência: SILVA FILHO, Sélio Guilherme da. Predição zero-shot do h-index de pesquisadores via foundation models. 2026. 73 f. Monografia (Graduação em Ciência da Computação) - Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto, Ouro Preto, 2026.
Resumo: A previsão do h-index, métrica fundamental para avaliar o impacto científico, apresenta desafios complexos devido à sua natureza multifatorial e não-estacionária. Esta monografia investiga a aplicação de modelos de fundação para séries temporais (do inglês Time Series Foundation Models - TSFMs) operando em regime Zero-Shot para esta tarefa, contrastando sua capacidade de generalização com modelos especialistas supervisionados. Utilizando dados históricos de pesquisadores brasileiros da Ciência da Computação, avaliou-se o desempenho dos modelos de fundação MOIRAI-MoE e TimesFM em comparação com uma rede neural LSTM (treinada especificamente no domínio) e um modelo de persistência (Toy Model). Para lidar com a não estacionariedade do h-index, é proposta uma transformação dos dados, substituindo o valor do h-index de um ano pela sua derivada correspondente, resultando em uma série temporal que não é monotonicamente crescente. A metodologia incluiu a transformação dos dados para garantir estacionariedade e uma validação rigorosa sobre um conjunto de teste de 295 pesquisadores feito a partir de um dataset completo com 1472 pesquisadores. O modelo baseado em LSTM atingiu um RMSE global de 2, 3156, enquanto o MOIRAI-MoE e o TimesFM tiveram RMSE de 2, 6582 e 3, 1323, respectivamente. Os resultados globais demonstraram a superioridade do modelo especialista LSTM, confirmando a importância do ajuste fino para capturar tendências de longo prazo. Entretanto, o MOIRAI-MoE apresentou desempenho notável, superando o TimesFM e alcançando paridade estatística com o LSTM em cenários de curto prazo e contextos históricos limitados. O estudo conclui que, embora modelos especialistas ofereçam maior precisão absoluta, os modelos de fundação baseados em mistura de especialistas (do inglês Mixture of Experts - MoE), como o MOIRAI-MoE, representam uma alternativa robusta e eficiente, capazes de prever trajetórias acadêmicas com alta competência sem a necessidade de treinamento específico.
Resumo em outra língua: The prediction of the h-index, a fundamental metric for assessing scientific impact, presents complex challenges due to its multifactorial and non-stationary nature. This monograph investigates the application of Time Series Foundation Models (TSFMs) operating in a Zero-Shot regime for this task, contrasting their generalization capability with supervised specialist models. Using historical data from Brazilian Computer Science researchers, the performance of the MOIRAI-MoE and TimesFM foundation models was evaluated in comparison with a domain-specific trained LSTM neural network and a persistence model (Toy Model). To address the non-stationarity of the h-index, a data transformation is proposed, replacing the annual h-index value with its corresponding derivative, resulting in a time series that is not monotonically increasing. The methodology included this stationarity transformation and a rigorous validation on a test set of 295 researchers, derived from a complete dataset of 1,472 researchers. The LSTM-based model achieved a global RMSE of 2.3156, while MOIRAI-MoE and TimesFM reached RMSE values of 2.6582 and 3.1323, respectively. The overall results demonstrated the superiority of the specialist LSTM model, confirming the importance of fine-tuning to capture long-term trends. However, MOIRAI-MoE showed remarkable performance, outperforming TimesFM and achieving statistical parity with the LSTM in short-term scenarios and limited historical contexts. This study concludes that while specialist models offer higher absolute precision, Mixture of Experts (MoE) based foundation models, such as MOIRAI-MoE, represent a robust and efficient alternative, capable of predicting academic trajectories with high competence without the need for domain-specific training.
URI: http://www.monografias.ufop.br/handle/35400000/8901
Aparece nas coleções:Ciência da Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
MONOGRAFIA_PredicaoZero-ShotH-index.pdf1,67 MBAdobe PDFVisualizar/Abrir


Os itens na BDTCC estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.