Use este identificador para citar ou linkar para este item: http://www.monografias.ufop.br/handle/35400000/5507
Título: Uma avaliação de usabilidade do corretor de exercícios de introdução à programação opCoders Judge.
Autor(es): Cedraz, Vivyann Fernandes
Orientador(es): Fortes, Reinaldo Silva
Silva, Saul Emanuel Delabrida
Membros da banca: Fortes, Reinaldo Silva
Silva, Saul Emanuel Delabrida
Santos, Valéria de Carvalho
Silva, Marcelo Luiz
Palavras-chave: Usabilidade de software
Programação - computadores
Interação humano-máquina
Data do documento: 2023
Referência: CEDRAZ, Vivyann Fernandes. Uma avaliação de usabilidade do corretor de exercícios de introdução à programação opCoders Judge. 2023. 63 f. Monografia (Graduação em Ciência da Computação) - Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto, Ouro Preto, 2023.
Resumo: Com o crescente avanço tecnológico, ferramentas online com foco educativo se tornaram aliadas no processo de ensino-aprendizagem de diversas disciplinas ao redor do mundo todo. Atualmente, para suporte ao ensino de programação introdutória na UFOP é utilizado o opCoders Judge, um sistema de correção automática de código-fonte. No entanto, é de fundamental importância entender se tal ferramenta oferece aos usuários uma interface fácil de usar e que possibilite que os mesmos concluam as suas tarefas de forma satisfatória e eficiente. Para mensurar a qualidade da interface do sistema é preciso avaliá-la a partir dos critérios de usabilidade, que tem como objetivo garantir a facilidade de uso, eficiência, efetividade e satisfação dos usuários em relação a um determinado produto. Para esse tipo de avaliação existem diversos métodos e regras para qualificar uma interface. Neste contexto, o presente trabalho tem como objetivo avaliar a usabilidade da interface do opCoders Judge. Para esta análise foram utilizados dois métodos conhecidos na literatura de Interação Humano-Computador, a avaliação por inspeção, por meio das 10 Heurísticas de Nielsen (NIELSEN, 1994c), e a avaliação por investigação, a partir da aplicação dos questionários System Usability Scale (SUS) e Self-Assessment Manikin (SAM). Por se tratar de uma pesquisa com seres humanos, o projeto referente a este trabalho foi enviado ao Comitê de Ética em Pesquisa da UFOP (CEP-UFOP) e foi aprovado. Com base na avaliação por inspeção, foi possível identificar problemas graves de usabilidade na interface da ferramenta. Dessa forma, optou-se por realizar as correções dos problemas encontrados através da construção de um protótipo de alta fidelidade e, a partir dele, realizar os testes com os usuários. Com o objetivo de avaliar se a interface proposta permitiria uma boa experiência de uso. Os resultados mostraram que o protótipo proposto apresenta uma boa usabilidade, obtendo 86,02 pontos no SUS. Resultado que, segundo BROOKE et al. (1996) classifica uma interface como excelente. Além disso, o resultado do questionário SAM também apresentou uma avaliação positiva nas três dimensões avaliadas (satisfação, motivação e sentimento de controle). Assim, com base nessas avaliações foram propostas alterações a serem feitas na interface do opCoders Judge, com o objetivo de garantir a boa usabilidade da interface e contribuir ainda mais no processo de ensino-aprendizagem de programação.
Resumo em outra língua: With the growing technological advance, online tools with an educational focus have become allies in the teaching-learning process of various disciplines around the world. Currently, to support introductory computer programming teaching at UFOP an automatic source code correction system is used, the opCoders Judge. However, it is of fundamental importance to understand whether such a tool offers users an easy-to-use interface that allows them to complete their tasks satisfactorily and efficiently. To measure the quality of the system’s interface, it is necessary to evaluate it based on usability criteria, which aim to ensure ease of use, efficiency, effectiveness and user satisfaction in relation to a given product. For this type of evaluation, there are several methods and rules to qualify an interface. In this context, the present work aims to evaluate the usability of the opCoders Judge interface. For this analysis, two methods known in the Human-Computer Interaction literature were used: evaluation by inspection, using Nielsen’s 10 Heuristics (NIELSEN, 1994c), and evaluation by investigation, based on the application of questionnaires System Usability Scale (SUS) and Self-Assessment Manikin (SAM). As it is a research with human beings, the project referring to this work was sent to the Research Ethics Committee of UFOP (CEP-UFOP) and was approved. Based on the evaluation by inspection, it was possible to identify serious usability problems in the tool’s interface. In this way, it was decided to correct the problems found by building a high-fidelity prototype and, based on it, carrying out tests with users. In order to assess whether the proposed interface would allow a good user experience. The results showed that the proposed prototype has good usability, obtaining 86.02 points in the SUS. Result that, according to BROOKE et al. (1996) classifies an interface as excellent. In addition, the result of the SAM questionnaire also showed a positive evaluation in the three evaluated dimensions (satisfaction, motivation and feeling of control). Thus, based on these evaluations, changes were proposed to be made in the opCoders Judge interface, with the objective of guaranteeing good usability of the interface and contributing even more to the programming teaching-learning process.
URI: http://www.monografias.ufop.br/handle/35400000/5507
Aparece nas coleções:Ciência da Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
MONOGRAFIA_AvaliaçãoUsabilidadeCorretor.pdf2,75 MBAdobe PDFVisualizar/Abrir


Este item está licenciado sob uma Licença Creative Commons Creative Commons