Mostrar registro simples

dc.contributor.advisorLima, João Vicente Ferreira
dc.creatorTrindade, Rafael Gauna
dc.date.accessioned2021-12-06T12:50:27Z
dc.date.available2021-12-06T12:50:27Z
dc.date.issued2017-12-12
dc.date.submitted2017
dc.identifier.urihttp://repositorio.ufsm.br/handle/1/23152
dc.descriptionTrabalho de conclusão de curso (graduação) - Universidade Federal de Santa Maria, Centro de Tecnologia, Curso de Ciência da Computação, RS, 2017.por
dc.description.abstractDeep Learning is a subcategory of machine learning algorithms and is a subject of relevant studies in the area of Artificial Intelligence. Characterized in most cases as multi-layered Artificial Neural Networks, deep learning networks present themselves as a means of achieving improvements in numerous computational tasks, such as speech recognition, natural language processing, and object identification in images, item present in the field of computer vision. Its importance has grown steadily in recent years, and its popularity increases as vast databases of information and devices with high computational capacity become accessible. Companies invest in the field of associated research, and new applications are available to end users, in addition to the strong hope of efficiency in their application in the health area. This work proposes to analyze the performance and the way that the loss values evolve until it converge, in a scenario of inevitable overfitting, of two relatively popular Deep Learning libraries among developers and researchers: Caffe, developed by the University of Berkley, and TensorFlow, developed by Google. Executions of two known convolutional networks (AlexNet and GoogLeNet) were conducted as benchmarking in hybrid architectures that use accelerators and in a cluster, varying hyperparameters of the networks in a scenario of unavoidable overfitting. The results lead to conclusion that the TensorFlow library presented a better performance in most cases, and tends to consume less memory to store network information. However a portion of this performance is due in part to the use of vectorized instructions, and in a contrary scenario, the Caffe library may outperform the competitor, despite some technical deficiencies. Besides that, the Caffe library presents a problem by reaching overfitting with negative values, a fact that should not happens in a artificial neural network.eng
dc.languageporpor
dc.publisherUniversidade Federal de Santa Mariapor
dc.rightsAcesso Abertopor
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 International*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.subjectAprendizagem profundapor
dc.subjectRedes neuraispor
dc.subjectComputação heterogêneapor
dc.subjectBenchmarkingeng
dc.subjectCaffeeng
dc.subjectTensorFlowpor
dc.titleAnálise de desempenho de bibliotecas de deep learning em arquiteturas híbridas com aceleradorespor
dc.typeTrabalho de Conclusão de Curso de Graduaçãopor
dc.degree.localSanta Maria, RS, Brasil.por
dc.description.resumoDeep Learning, ou Aprendizagem Profunda, é uma subcategoria de algoritmos de aprendizado de máquina, sendo um tema de estudos relevantes na área de Inteligência Artificial. Caracterizando-se na maior parte dos casos como Redes Neurais Artificiais de múltiplas camadas, redes de aprendizagem profunda apresentam-se como um meio de alcançar melhorias em inúmeras tarefas computacionais, como reconhecimento de fala, processamento de linguagem natural e identificação de objetos em imagens, item presente no campo de visão computacional. Sua importância cresce cada vez mais nos últimos anos, e sua popularidade aumenta conforme se tornam acessíveis bancos de dados vastos em informações e dispositivos com alta capacidade computacional. Empresas investem no ramo de pesquisa associado, e novas aplicações ficam disponíveis aos usuários finais, além da forte esperança de eficiência da sua aplicação na área da saúde. Este trabalho se propôs a analisar o desempenho e a forma como os valores de perda evoluem até convergirem, em um cenário de sobreajuste inevitável, de duas bibliotecas de Deep Learning relativamente populares entre desenvolvedores e pesquisadores do ramo: Caffe, desenvolvida pela Universidade de Berkley, e TensorFlow, desenvolvida pela Google. Foram conduzidas execuções de duas redes convolucionais conhecidas (AlexNet e GoogLeNet), como forma de benchmarking, em arquiteturas híbridas que fazem uso de aceleradores e em um cluster, variando hiperparâmetros das redes em um cenário de sobreajuste inevitável. Os resultados levaram a constatação que a biblioteca TensorFlow apresentou um melhor desempenho na maioria dos casos, e que tende a consumir menos memória para armazenar as informações da rede. Entretanto, uma porção desse desempenho se deve em parte ao uso de instruções vetorizadas, e em um cenário contrário a biblioteca Caffe pode obter mais desempenho que a concorrente, apesar de algumas deficiências técnicas. Além disso, a biblioteca Caffe apresenta um problema ao atingir o sobreajuste com valores negativos, fato que não deve acontecer em uma rede neural artificial.por
dc.publisher.countryBrasilpor
dc.publisher.initialsUFSMpor
dc.subject.cnpqCNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAOpor
dc.publisher.unidadeCentro de Tecnologiapor


Arquivos deste item

Thumbnail
Thumbnail

Este item aparece na(s) seguinte(s) coleção(s)

Mostrar registro simples

Acesso Aberto
Exceto quando indicado o contrário, a licença deste item é descrito como Acesso Aberto