Mostrar registro simples

dc.contributor.advisorBaggio, José Eduardo
dc.creatorSilva, Gabriel de Jesus Coelho da
dc.date.accessioned2022-07-06T19:55:16Z
dc.date.available2022-07-06T19:55:16Z
dc.date.issued2019-07-15
dc.date.submitted2019
dc.identifier.urihttp://repositorio.ufsm.br/handle/1/25260
dc.descriptionTrabalho de conclusão de curso (graduação) - Universidade Federal de Santa Maria, Centro de Tecnologia, Curso de Engenharia de Computação, RS, 2019.por
dc.description.abstractThe growing investment in the use of artificial neural networks for end-user services, which require low latency and high responsiveness, make it desirable to have dedicated hardware accelerators for inference. FPGA (Field-Programmable Gate Arrays) programmable devices have the required ideal flexibility for the deployment of artificial neural network accelerators, while being able to support different architectural network models and still keeping performance. A modular artificial neural network design is developed in hardware description language in order to allow inference from reconfigurable devices with desirable performance. The modular design enables it to be easily scaled to support new neural network architectures and different activation functions. The project’s validation is verified by a hardware implementation of a simple and widely known neural network (exclusive-OR (XOR) function).eng
dc.languageporpor
dc.publisherUniversidade Federal de Santa Mariapor
dc.rightsAcesso Abertopor
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 International*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.subjectRedes neurais artificiaispor
dc.subjectHardwareeng
dc.subjectVHDLeng
dc.subjectFPGAeng
dc.subjectInferênciapor
dc.subjectNeural networkseng
dc.subjectInferenceeng
dc.titleImplementação de redes neurais artificiais em hardware para inferênciapor
dc.title.alternativeA hardware implementation of artificial neural networks for inferenceeng
dc.typeTrabalho de Conclusão de Curso de Graduaçãopor
dc.degree.localSanta Maria, RS, Brasil.por
dc.description.resumoO crescente interesse na utilização de redes neurais artificiais em serviços para usuários finais, que exigem baixa latência e alta responsividade, tornam desejável o uso de aceleradores em hardware dedicados para inferência. Dispositivos programáveis do tipo FPGA (Field-Programmable Gate Arrays) apresentam flexibilidade ideal para aceleração de redes neurais com capacidade de suportar diferentes modelos de arquitetura de rede, mantendo a performance desejada. Um modelo de redes neurais artificiais modular é desenvolvido em linguagem de descrição de hardware a fim de permitir inferência em dispositivos reconfiguráveis de forma performática desejável. O desenvolvimento modular permite fácil extensibilidade de forma a suportar novas arquiteturas de redes neurais e diferentes tipos de funções de ativação. A validação do projeto é efetuada através da implementação em hardware de uma rede neural simples e amplamente conhecida (função OU-exclusivo (XOR)).por
dc.publisher.countryBrasilpor
dc.publisher.initialsUFSMpor
dc.subject.cnpqCNPQ::ENGENHARIASpor
dc.publisher.unidadeCentro de Tecnologiapor


Arquivos deste item

Thumbnail
Thumbnail

Este item aparece na(s) seguinte(s) coleção(s)

Mostrar registro simples

Acesso Aberto
Exceto quando indicado o contrário, a licença deste item é descrito como Acesso Aberto