Please use this identifier to cite or link to this item:
http://www.monografias.ufop.br/handle/35400000/8901| Title: | Predição zero-shot do h-index de pesquisadores via foundation models. |
| Authors: | Silva Filho, Sélio Guilherme da |
| metadata.dc.contributor.advisor: | Freitas, Vander Luis de Souza |
| metadata.dc.contributor.referee: | Freitas, Vander Luis de Souza Luz, Eduardo José da Silva Gertrudes, Jadson Castro |
| Keywords: | H-index Time series foundation models Moirai-moe Previsão de séries temporais |
| Issue Date: | 2026 |
| Citation: | SILVA FILHO, Sélio Guilherme da. Predição zero-shot do h-index de pesquisadores via foundation models. 2026. 73 f. Monografia (Graduação em Ciência da Computação) - Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto, Ouro Preto, 2026. |
| Abstract: | A previsão do h-index, métrica fundamental para avaliar o impacto científico, apresenta desafios complexos devido à sua natureza multifatorial e não-estacionária. Esta monografia investiga a aplicação de modelos de fundação para séries temporais (do inglês Time Series Foundation Models - TSFMs) operando em regime Zero-Shot para esta tarefa, contrastando sua capacidade de generalização com modelos especialistas supervisionados. Utilizando dados históricos de pesquisadores brasileiros da Ciência da Computação, avaliou-se o desempenho dos modelos de fundação MOIRAI-MoE e TimesFM em comparação com uma rede neural LSTM (treinada especificamente no domínio) e um modelo de persistência (Toy Model). Para lidar com a não estacionariedade do h-index, é proposta uma transformação dos dados, substituindo o valor do h-index de um ano pela sua derivada correspondente, resultando em uma série temporal que não é monotonicamente crescente. A metodologia incluiu a transformação dos dados para garantir estacionariedade e uma validação rigorosa sobre um conjunto de teste de 295 pesquisadores feito a partir de um dataset completo com 1472 pesquisadores. O modelo baseado em LSTM atingiu um RMSE global de 2, 3156, enquanto o MOIRAI-MoE e o TimesFM tiveram RMSE de 2, 6582 e 3, 1323, respectivamente. Os resultados globais demonstraram a superioridade do modelo especialista LSTM, confirmando a importância do ajuste fino para capturar tendências de longo prazo. Entretanto, o MOIRAI-MoE apresentou desempenho notável, superando o TimesFM e alcançando paridade estatística com o LSTM em cenários de curto prazo e contextos históricos limitados. O estudo conclui que, embora modelos especialistas ofereçam maior precisão absoluta, os modelos de fundação baseados em mistura de especialistas (do inglês Mixture of Experts - MoE), como o MOIRAI-MoE, representam uma alternativa robusta e eficiente, capazes de prever trajetórias acadêmicas com alta competência sem a necessidade de treinamento específico. |
| metadata.dc.description.abstracten: | The prediction of the h-index, a fundamental metric for assessing scientific impact, presents complex challenges due to its multifactorial and non-stationary nature. This monograph investigates the application of Time Series Foundation Models (TSFMs) operating in a Zero-Shot regime for this task, contrasting their generalization capability with supervised specialist models. Using historical data from Brazilian Computer Science researchers, the performance of the MOIRAI-MoE and TimesFM foundation models was evaluated in comparison with a domain-specific trained LSTM neural network and a persistence model (Toy Model). To address the non-stationarity of the h-index, a data transformation is proposed, replacing the annual h-index value with its corresponding derivative, resulting in a time series that is not monotonically increasing. The methodology included this stationarity transformation and a rigorous validation on a test set of 295 researchers, derived from a complete dataset of 1,472 researchers. The LSTM-based model achieved a global RMSE of 2.3156, while MOIRAI-MoE and TimesFM reached RMSE values of 2.6582 and 3.1323, respectively. The overall results demonstrated the superiority of the specialist LSTM model, confirming the importance of fine-tuning to capture long-term trends. However, MOIRAI-MoE showed remarkable performance, outperforming TimesFM and achieving statistical parity with the LSTM in short-term scenarios and limited historical contexts. This study concludes that while specialist models offer higher absolute precision, Mixture of Experts (MoE) based foundation models, such as MOIRAI-MoE, represent a robust and efficient alternative, capable of predicting academic trajectories with high competence without the need for domain-specific training. |
| URI: | http://www.monografias.ufop.br/handle/35400000/8901 |
| Appears in Collections: | Ciência da Computação |
Files in This Item:
| File | Description | Size | Format | |
|---|---|---|---|---|
| MONOGRAFIA_PredicaoZero-ShotH-index.pdf | 1,67 MB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.
