Please use this identifier to cite or link to this item: http://www.monografias.ufop.br/handle/35400000/6440
Title: Utilização de Chat Bots baseados em LLMs para automação de testes de software.
Authors: Oliveira, Caio Monteiro de
metadata.dc.contributor.advisor: Silva, Rodrigo Cesar Pedrosa
metadata.dc.contributor.referee: Pereira, Igor Muzetti
Auad, Tassio de Oliveira Silva
Silva, Rodrigo Cesar Pedrosa
Keywords: Testes de software
Qualidade de software
Automação de testes
Cypress
Grandes modelos de linguagem
Issue Date: 2024
Citation: OLIVEIRA, Caio Monteiro de. Utilização de Chat Bots baseados em LLMs para automação de testes de software. 2024. 184 f. Monografia (Graduação em Ciência da Computação) - Monografia (Graduação em Ciência da Computação) - Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto, Ouro Preto, 2024.
Abstract: A qualidade do software desempenha um papel fundamental em setores relacionados à tecnologia, sendo determinada pela capacidade de atender às necessidades dos usuários de maneira confiável e eficiente. Nesse contexto, os testes de software desempenham um papel crucial. Este estudo investiga o potencial de diversos grandes modelos de linguagem (LLM) como ferramentas valiosas para auxiliar engenheiros de software que enfrentam desafios na área de testes, uma vez que esta é uma esfera complexa. A pesquisa utiliza a ferramenta Cypress para conduzir testes automatizados, com códigos gerados por ChatGPT, Google Bard, Aria Opera, Microsoft Bing e Perplexity AI, utilizando abordagens distintas: Modelo Explícito Básico, Modelo Explícito Detalhado e Modelo Explícito BDD/Gherkin. Essas abordagens são aplicadas em dez cenários diferentes relacionados à tela de login do usuário, totalizando 150 testes (30 para cada IA). Os resultados dos experimentos indicam perspectivas promissoras, com uma taxa de eficácia de 93% para o Google Bard, 90% para Aria Opera, 87% para ChatGPT e Microsoft Bing, enquanto a Perplexity AI obteve uma taxa ligeiramente inferior de 73%.
metadata.dc.description.abstracten: The quality of software plays a essential role in technology-related sectors, contingent on its ability to reliably and efficiently meet user needs. Software testing, therefore, assumes a critical function in ensuring such quality. This study explores the potential of various Large Language Models (LLMs) as valuable tools to assist software engineers facing challenges in the testing domain, given its inherent complexity. Utilizing the Cypress tool, the research conducts automated tests with codes generated by ChatGPT, Google Bard, Aria Opera, Microsoft Bing, and Perplexity AI, employing distinct approaches: Basic Explicit Model, Detailed Explicit Model, and Explicit BDD/Gherkin Model. These approaches are applied to ten different scenarios related to the user login screen, totaling 150 tests (30 for each AI). Experimental results indicate promising perspectives, with an efficacy rate of 93% for Google Bard, 90% for Aria Opera, 87% for ChatGPT and Microsoft Bing, while Perplexity AI lags slightly behind with a 73% efficacy rate.
URI: http://www.monografias.ufop.br/handle/35400000/6440
Appears in Collections:Ciência da Computação

Files in This Item:
File Description SizeFormat 
MONOGRAFIA_UtilizaçãoChatsBots.pdf2,72 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.