Implementação de redes neurais artificiais em hardware para inferência
Visualizar/ Abrir
Data
2019-07-15Autor
Silva, Gabriel de Jesus Coelho da
Metadata
Mostrar registro completoResumo
O crescente interesse na utilização de redes neurais artificiais em serviços para usuários
finais, que exigem baixa latência e alta responsividade, tornam desejável o uso de aceleradores
em hardware dedicados para inferência. Dispositivos programáveis do tipo FPGA
(Field-Programmable Gate Arrays) apresentam flexibilidade ideal para aceleração de redes
neurais com capacidade de suportar diferentes modelos de arquitetura de rede, mantendo
a performance desejada. Um modelo de redes neurais artificiais modular é desenvolvido
em linguagem de descrição de hardware a fim de permitir inferência em dispositivos reconfiguráveis
de forma performática desejável. O desenvolvimento modular permite fácil
extensibilidade de forma a suportar novas arquiteturas de redes neurais e diferentes tipos
de funções de ativação. A validação do projeto é efetuada através da implementação
em hardware de uma rede neural simples e amplamente conhecida (função OU-exclusivo
(XOR)).
Coleções
Os arquivos de licença a seguir estão associados a este item: