dc.contributor.advisor | Lima, João Vicente Ferreira | |
dc.creator | Trindade, Rafael Gauna | |
dc.date.accessioned | 2021-12-06T12:50:27Z | |
dc.date.available | 2021-12-06T12:50:27Z | |
dc.date.issued | 2017-12-12 | |
dc.date.submitted | 2017 | |
dc.identifier.uri | http://repositorio.ufsm.br/handle/1/23152 | |
dc.description | Trabalho de conclusão de curso (graduação) - Universidade Federal de Santa
Maria, Centro de Tecnologia, Curso de Ciência da Computação, RS, 2017. | por |
dc.description.abstract | Deep Learning is a subcategory of machine learning algorithms and is a subject of relevant
studies in the area of Artificial Intelligence. Characterized in most cases as multi-layered
Artificial Neural Networks, deep learning networks present themselves as a means of achieving
improvements in numerous computational tasks, such as speech recognition, natural
language processing, and object identification in images, item present in the field of computer
vision. Its importance has grown steadily in recent years, and its popularity increases
as vast databases of information and devices with high computational capacity become
accessible. Companies invest in the field of associated research, and new applications
are available to end users, in addition to the strong hope of efficiency in their application
in the health area. This work proposes to analyze the performance and the way that the
loss values evolve until it converge, in a scenario of inevitable overfitting, of two relatively
popular Deep Learning libraries among developers and researchers: Caffe, developed by
the University of Berkley, and TensorFlow, developed by Google. Executions of two known
convolutional networks (AlexNet and GoogLeNet) were conducted as benchmarking in hybrid
architectures that use accelerators and in a cluster, varying hyperparameters of the
networks in a scenario of unavoidable overfitting. The results lead to conclusion that the
TensorFlow library presented a better performance in most cases, and tends to consume
less memory to store network information. However a portion of this performance is due in
part to the use of vectorized instructions, and in a contrary scenario, the Caffe library may
outperform the competitor, despite some technical deficiencies. Besides that, the Caffe library
presents a problem by reaching overfitting with negative values, a fact that should not
happens in a artificial neural network. | eng |
dc.language | por | por |
dc.publisher | Universidade Federal de Santa Maria | por |
dc.rights | Acesso Aberto | por |
dc.rights | Attribution-NonCommercial-NoDerivatives 4.0 International | * |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/4.0/ | * |
dc.subject | Aprendizagem profunda | por |
dc.subject | Redes neurais | por |
dc.subject | Computação heterogênea | por |
dc.subject | Benchmarking | eng |
dc.subject | Caffe | eng |
dc.subject | TensorFlow | por |
dc.title | Análise de desempenho de bibliotecas de deep learning em arquiteturas híbridas com aceleradores | por |
dc.type | Trabalho de Conclusão de Curso de Graduação | por |
dc.degree.local | Santa Maria, RS, Brasil. | por |
dc.description.resumo | Deep Learning, ou Aprendizagem Profunda, é uma subcategoria de algoritmos de aprendizado
de máquina, sendo um tema de estudos relevantes na área de Inteligência Artificial.
Caracterizando-se na maior parte dos casos como Redes Neurais Artificiais de múltiplas
camadas, redes de aprendizagem profunda apresentam-se como um meio de alcançar
melhorias em inúmeras tarefas computacionais, como reconhecimento de fala, processamento
de linguagem natural e identificação de objetos em imagens, item presente no
campo de visão computacional. Sua importância cresce cada vez mais nos últimos anos,
e sua popularidade aumenta conforme se tornam acessíveis bancos de dados vastos em
informações e dispositivos com alta capacidade computacional. Empresas investem no
ramo de pesquisa associado, e novas aplicações ficam disponíveis aos usuários finais,
além da forte esperança de eficiência da sua aplicação na área da saúde. Este trabalho
se propôs a analisar o desempenho e a forma como os valores de perda evoluem até convergirem,
em um cenário de sobreajuste inevitável, de duas bibliotecas de Deep Learning
relativamente populares entre desenvolvedores e pesquisadores do ramo: Caffe, desenvolvida
pela Universidade de Berkley, e TensorFlow, desenvolvida pela Google. Foram
conduzidas execuções de duas redes convolucionais conhecidas (AlexNet e GoogLeNet),
como forma de benchmarking, em arquiteturas híbridas que fazem uso de aceleradores e
em um cluster, variando hiperparâmetros das redes em um cenário de sobreajuste inevitável.
Os resultados levaram a constatação que a biblioteca TensorFlow apresentou um
melhor desempenho na maioria dos casos, e que tende a consumir menos memória para
armazenar as informações da rede. Entretanto, uma porção desse desempenho se deve
em parte ao uso de instruções vetorizadas, e em um cenário contrário a biblioteca Caffe
pode obter mais desempenho que a concorrente, apesar de algumas deficiências técnicas.
Além disso, a biblioteca Caffe apresenta um problema ao atingir o sobreajuste com valores
negativos, fato que não deve acontecer em uma rede neural artificial. | por |
dc.publisher.country | Brasil | por |
dc.publisher.initials | UFSM | por |
dc.subject.cnpq | CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO | por |
dc.publisher.unidade | Centro de Tecnologia | por |