Use este identificador para citar ou linkar para este item:
http://www.monografias.ufop.br/handle/35400000/6440
Registro completo de metadados
Campo Dublin Core | Valor | Idioma |
---|---|---|
dc.contributor.advisor | Silva, Rodrigo Cesar Pedrosa | pt_BR |
dc.contributor.author | Oliveira, Caio Monteiro de | - |
dc.date.accessioned | 2024-02-16T11:02:24Z | - |
dc.date.available | 2024-02-16T11:02:24Z | - |
dc.date.issued | 2024 | pt_BR |
dc.identifier.citation | OLIVEIRA, Caio Monteiro de. Utilização de Chat Bots baseados em LLMs para automação de testes de software. 2024. 184 f. Monografia (Graduação em Ciência da Computação) - Monografia (Graduação em Ciência da Computação) - Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto, Ouro Preto, 2024. | pt_BR |
dc.identifier.uri | http://www.monografias.ufop.br/handle/35400000/6440 | - |
dc.description.abstract | A qualidade do software desempenha um papel fundamental em setores relacionados à tecnologia, sendo determinada pela capacidade de atender às necessidades dos usuários de maneira confiável e eficiente. Nesse contexto, os testes de software desempenham um papel crucial. Este estudo investiga o potencial de diversos grandes modelos de linguagem (LLM) como ferramentas valiosas para auxiliar engenheiros de software que enfrentam desafios na área de testes, uma vez que esta é uma esfera complexa. A pesquisa utiliza a ferramenta Cypress para conduzir testes automatizados, com códigos gerados por ChatGPT, Google Bard, Aria Opera, Microsoft Bing e Perplexity AI, utilizando abordagens distintas: Modelo Explícito Básico, Modelo Explícito Detalhado e Modelo Explícito BDD/Gherkin. Essas abordagens são aplicadas em dez cenários diferentes relacionados à tela de login do usuário, totalizando 150 testes (30 para cada IA). Os resultados dos experimentos indicam perspectivas promissoras, com uma taxa de eficácia de 93% para o Google Bard, 90% para Aria Opera, 87% para ChatGPT e Microsoft Bing, enquanto a Perplexity AI obteve uma taxa ligeiramente inferior de 73%. | pt_BR |
dc.language.iso | pt_BR | pt_BR |
dc.subject | Testes de software | pt_BR |
dc.subject | Qualidade de software | pt_BR |
dc.subject | Automação de testes | pt_BR |
dc.subject | Cypress | pt_BR |
dc.subject | Grandes modelos de linguagem | pt_BR |
dc.title | Utilização de Chat Bots baseados em LLMs para automação de testes de software. | pt_BR |
dc.type | TCC-Graduação | pt_BR |
dc.contributor.referee | Pereira, Igor Muzetti | pt_BR |
dc.contributor.referee | Auad, Tassio de Oliveira Silva | pt_BR |
dc.contributor.referee | Silva, Rodrigo Cesar Pedrosa | pt_BR |
dc.description.abstracten | The quality of software plays a essential role in technology-related sectors, contingent on its ability to reliably and efficiently meet user needs. Software testing, therefore, assumes a critical function in ensuring such quality. This study explores the potential of various Large Language Models (LLMs) as valuable tools to assist software engineers facing challenges in the testing domain, given its inherent complexity. Utilizing the Cypress tool, the research conducts automated tests with codes generated by ChatGPT, Google Bard, Aria Opera, Microsoft Bing, and Perplexity AI, employing distinct approaches: Basic Explicit Model, Detailed Explicit Model, and Explicit BDD/Gherkin Model. These approaches are applied to ten different scenarios related to the user login screen, totaling 150 tests (30 for each AI). Experimental results indicate promising perspectives, with an efficacy rate of 93% for Google Bard, 90% for Aria Opera, 87% for ChatGPT and Microsoft Bing, while Perplexity AI lags slightly behind with a 73% efficacy rate. | pt_BR |
dc.contributor.authorID | 20.1.4110 | pt_BR |
Aparece nas coleções: | Ciência da Computação |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
MONOGRAFIA_UtilizaçãoChatsBots.pdf | 2,72 MB | Adobe PDF | Visualizar/Abrir |
Os itens na BDTCC estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.