Mostrar registro simples

dc.contributor.advisorCharao, Andrea Schwertner
dc.creatorScheid, Éder John
dc.date.accessioned2022-06-15T12:56:15Z
dc.date.available2022-06-15T12:56:15Z
dc.date.issued2014-12-09
dc.date.submitted2014
dc.identifier.urihttp://repositorio.ufsm.br/handle/1/24858
dc.descriptionTrabalho de conclusão de curso (graduação) - Universidade Federal de Santa Maria, Centro de Tecnologia, Curso de Ciência da Computação, RS, 2014.por
dc.description.abstractThe act of processing large volumes of data has always been an obstacle in computing. The emergence of the paradigm of parallel computing combined with the idea of distributing the computation across multiple computers helped to solve a considerable part of this obstacle. Many frameworks have been created based on this premise, one of them is the Apache Hadoop framework. Aiming environments where the data is distributed among several computers, the Apache Hadoop provides an optimal solution for processing big data, but the literature on how this framework behaves in an environment where the data is allocated on a single machine is still small. The focus of this work is to analyze and optimize this framework in a paralel architecture where the data is not distributed, and thus achieving results that demonstrates what is its efficiency under those circumstances.eng
dc.languageporpor
dc.publisherUniversidade Federal de Santa Mariapor
dc.rightsAcesso Abertopor
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 International*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.subjectApache Hadooppor
dc.subjectMemória compartilhadapor
dc.subjectMáquina NUMApor
dc.titleAnálise e otimização do Apache Hadoop em arquiteturas paralelas com memória compartilhadapor
dc.typeTrabalho de Conclusão de Curso de Graduaçãopor
dc.degree.localSanta Maria, RS, Brasil.por
dc.description.resumoO processamento de grande volumes de dados foi sempre um obstáculo na computação. O surgimento do paradigma da computação paralela aliado com a ideia de distribuir a computação em diversos computadores ajudou a resolver uma parte considerável deste obstáculo. Muitos frameworks foram criados baseados nessa premissa, um deles é o framework Apache Hadoop. Voltado para ambientes onde os dados estão distribuídos entre vários computadores, o Apache Hadoop, oferece uma ótima solução para o processamento de big data, mas a literatura sobre como este framework se comporta em um ambiente onde os dados estão alocados em um único local ainda é pequena. O foco deste trabalho é analisar e otimizar este framework em uma arquitetura paralela onde os dados não estão distribuídos, podendo assim conseguir resultados que demonstrem qual sua eficiência neste ambiente.por
dc.publisher.countryBrasilpor
dc.publisher.initialsUFSMpor
dc.subject.cnpqCNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAOpor
dc.publisher.unidadeCentro de Tecnologiapor


Arquivos deste item

Thumbnail
Thumbnail

Este item aparece na(s) seguinte(s) coleção(s)

Mostrar registro simples

Acesso Aberto
Exceto quando indicado o contrário, a licença deste item é descrito como Acesso Aberto