Use este identificador para citar ou linkar para este item:
http://www.monografias.ufop.br/handle/35400000/4271
Título: | TINN : uma arquitetura para aceleração de redes neurais em FPGAS de baixa densidade. |
Autor(es): | Silva, Sammuel Ramos da |
Orientador(es): | Martins, Vinicius Antonio de Oliveira |
Membros da banca: | Martins, Vinicius Antonio de Oliveira Sica, Fernando Cortez Cavalcanti, Carlos Frederico Marcelo da Cunha |
Palavras-chave: | Hardware Inteligência artificial Redes neurais - computação |
Data do documento: | 2022 |
Referência: | Silva, Sammuel Ramos da. TINN: uma arquitetura para aceleração de redes neurais em FPGAS de baixa densidade. 2022. 42. Monografia (Graduação em Ciência da Computação) - Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto, Ouro Preto, 2022. |
Resumo: | Os avanços recentes em hardware fizeram com que o uso de Redes Neurais Convolucionais fossem adotadas para solução de problemas em diversos sistemas, como segurança pública ou privada, aviação, carros autônomos e smartphones. Muita dessas aplicações necessitam de acesso a unidades de processamento de alto nível, como Graphic Processing Unit, para realização dos cálculos matemáticos, o que acaba, em muitas vezes, sendo muito custoso em relação ao preço e ao consumo de energia. Avanços recentes na execução de redes neurais em dispositivos reconfiguráveis (FPGAs), obtiveram um bom desempenho, levando em consideração a quantidade de recursos disponíveis, consumo energético, e preço. Assim, este trabalho tem por objetivo implementar uma plataforma para aceleração de redes neurais convolucionais em FPGAs. |
Resumo em outra língua: | Recent advances in hardware have made the use of Convolutional Neural Networks adopted to solve problems in various systems, such as public or private security, aviation, autonomous cars, and smartphones. Many of these applications require access to a high-level processing unit to carry out the mathematical calculations, which ends up being very costly in relation to the price and energy consumption. However, recent advances in the use of reconfigurable devices (FPGAs), aimed at running CNN, have achieved good performance with reduced costs in the area, energy consumption, and price. This work aims to implement, in reconfigurable platforms, experimental research regarding the use of these platforms for the execution of convolution neural networks. |
URI: | http://www.monografias.ufop.br/handle/35400000/4271 |
Aparece nas coleções: | Ciência da Computação |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
MONOGRAFIA_TinnArquiteturaAceleração.pdf | 2,79 MB | Adobe PDF | Visualizar/Abrir |
Este item está licenciado sob uma Licença Creative Commons