dc.contributor.advisor | Charao, Andrea Schwertner | |
dc.creator | Scheid, Éder John | |
dc.date.accessioned | 2022-06-15T12:56:15Z | |
dc.date.available | 2022-06-15T12:56:15Z | |
dc.date.issued | 2014-12-09 | |
dc.date.submitted | 2014 | |
dc.identifier.uri | http://repositorio.ufsm.br/handle/1/24858 | |
dc.description | Trabalho de conclusão de curso (graduação) - Universidade Federal de Santa
Maria, Centro de Tecnologia, Curso de Ciência da Computação, RS, 2014. | por |
dc.description.abstract | The act of processing large volumes of data has always been an obstacle in computing.
The emergence of the paradigm of parallel computing combined with the idea of distributing
the computation across multiple computers helped to solve a considerable part of this obstacle.
Many frameworks have been created based on this premise, one of them is the Apache Hadoop
framework. Aiming environments where the data is distributed among several computers, the
Apache Hadoop provides an optimal solution for processing big data, but the literature on how
this framework behaves in an environment where the data is allocated on a single machine
is still small. The focus of this work is to analyze and optimize this framework in a paralel
architecture where the data is not distributed, and thus achieving results that demonstrates what
is its efficiency under those circumstances. | eng |
dc.language | por | por |
dc.publisher | Universidade Federal de Santa Maria | por |
dc.rights | Acesso Aberto | por |
dc.rights | Attribution-NonCommercial-NoDerivatives 4.0 International | * |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/4.0/ | * |
dc.subject | Apache Hadoop | por |
dc.subject | Memória compartilhada | por |
dc.subject | Máquina NUMA | por |
dc.title | Análise e otimização do Apache Hadoop em arquiteturas paralelas com memória compartilhada | por |
dc.type | Trabalho de Conclusão de Curso de Graduação | por |
dc.degree.local | Santa Maria, RS, Brasil. | por |
dc.description.resumo | O processamento de grande volumes de dados foi sempre um obstáculo na computação.
O surgimento do paradigma da computação paralela aliado com a ideia de distribuir a computação
em diversos computadores ajudou a resolver uma parte considerável deste obstáculo.
Muitos frameworks foram criados baseados nessa premissa, um deles é o framework Apache
Hadoop. Voltado para ambientes onde os dados estão distribuídos entre vários computadores, o
Apache Hadoop, oferece uma ótima solução para o processamento de big data, mas a literatura
sobre como este framework se comporta em um ambiente onde os dados estão alocados em um
único local ainda é pequena. O foco deste trabalho é analisar e otimizar este framework em uma
arquitetura paralela onde os dados não estão distribuídos, podendo assim conseguir resultados
que demonstrem qual sua eficiência neste ambiente. | por |
dc.publisher.country | Brasil | por |
dc.publisher.initials | UFSM | por |
dc.subject.cnpq | CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO | por |
dc.publisher.unidade | Centro de Tecnologia | por |