Use este identificador para citar ou linkar para este item:
http://www.monografias.ufop.br/handle/35400000/8901| Título: | Predição zero-shot do h-index de pesquisadores via foundation models. |
| Autor(es): | Silva Filho, Sélio Guilherme da |
| Orientador(es): | Freitas, Vander Luis de Souza |
| Membros da banca: | Freitas, Vander Luis de Souza Luz, Eduardo José da Silva Gertrudes, Jadson Castro |
| Palavras-chave: | H-index Time series foundation models Moirai-moe Previsão de séries temporais |
| Data do documento: | 2026 |
| Referência: | SILVA FILHO, Sélio Guilherme da. Predição zero-shot do h-index de pesquisadores via foundation models. 2026. 73 f. Monografia (Graduação em Ciência da Computação) - Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto, Ouro Preto, 2026. |
| Resumo: | A previsão do h-index, métrica fundamental para avaliar o impacto científico, apresenta desafios complexos devido à sua natureza multifatorial e não-estacionária. Esta monografia investiga a aplicação de modelos de fundação para séries temporais (do inglês Time Series Foundation Models - TSFMs) operando em regime Zero-Shot para esta tarefa, contrastando sua capacidade de generalização com modelos especialistas supervisionados. Utilizando dados históricos de pesquisadores brasileiros da Ciência da Computação, avaliou-se o desempenho dos modelos de fundação MOIRAI-MoE e TimesFM em comparação com uma rede neural LSTM (treinada especificamente no domínio) e um modelo de persistência (Toy Model). Para lidar com a não estacionariedade do h-index, é proposta uma transformação dos dados, substituindo o valor do h-index de um ano pela sua derivada correspondente, resultando em uma série temporal que não é monotonicamente crescente. A metodologia incluiu a transformação dos dados para garantir estacionariedade e uma validação rigorosa sobre um conjunto de teste de 295 pesquisadores feito a partir de um dataset completo com 1472 pesquisadores. O modelo baseado em LSTM atingiu um RMSE global de 2, 3156, enquanto o MOIRAI-MoE e o TimesFM tiveram RMSE de 2, 6582 e 3, 1323, respectivamente. Os resultados globais demonstraram a superioridade do modelo especialista LSTM, confirmando a importância do ajuste fino para capturar tendências de longo prazo. Entretanto, o MOIRAI-MoE apresentou desempenho notável, superando o TimesFM e alcançando paridade estatística com o LSTM em cenários de curto prazo e contextos históricos limitados. O estudo conclui que, embora modelos especialistas ofereçam maior precisão absoluta, os modelos de fundação baseados em mistura de especialistas (do inglês Mixture of Experts - MoE), como o MOIRAI-MoE, representam uma alternativa robusta e eficiente, capazes de prever trajetórias acadêmicas com alta competência sem a necessidade de treinamento específico. |
| Resumo em outra língua: | The prediction of the h-index, a fundamental metric for assessing scientific impact, presents complex challenges due to its multifactorial and non-stationary nature. This monograph investigates the application of Time Series Foundation Models (TSFMs) operating in a Zero-Shot regime for this task, contrasting their generalization capability with supervised specialist models. Using historical data from Brazilian Computer Science researchers, the performance of the MOIRAI-MoE and TimesFM foundation models was evaluated in comparison with a domain-specific trained LSTM neural network and a persistence model (Toy Model). To address the non-stationarity of the h-index, a data transformation is proposed, replacing the annual h-index value with its corresponding derivative, resulting in a time series that is not monotonically increasing. The methodology included this stationarity transformation and a rigorous validation on a test set of 295 researchers, derived from a complete dataset of 1,472 researchers. The LSTM-based model achieved a global RMSE of 2.3156, while MOIRAI-MoE and TimesFM reached RMSE values of 2.6582 and 3.1323, respectively. The overall results demonstrated the superiority of the specialist LSTM model, confirming the importance of fine-tuning to capture long-term trends. However, MOIRAI-MoE showed remarkable performance, outperforming TimesFM and achieving statistical parity with the LSTM in short-term scenarios and limited historical contexts. This study concludes that while specialist models offer higher absolute precision, Mixture of Experts (MoE) based foundation models, such as MOIRAI-MoE, represent a robust and efficient alternative, capable of predicting academic trajectories with high competence without the need for domain-specific training. |
| URI: | http://www.monografias.ufop.br/handle/35400000/8901 |
| Aparece nas coleções: | Ciência da Computação |
Arquivos associados a este item:
| Arquivo | Descrição | Tamanho | Formato | |
|---|---|---|---|---|
| MONOGRAFIA_PredicaoZero-ShotH-index.pdf | 1,67 MB | Adobe PDF | Visualizar/Abrir |
Os itens na BDTCC estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.
