Análise e otimização do Apache Hadoop em arquiteturas paralelas com memória compartilhada
Resumo
O processamento de grande volumes de dados foi sempre um obstáculo na computação.
O surgimento do paradigma da computação paralela aliado com a ideia de distribuir a computação
em diversos computadores ajudou a resolver uma parte considerável deste obstáculo.
Muitos frameworks foram criados baseados nessa premissa, um deles é o framework Apache
Hadoop. Voltado para ambientes onde os dados estão distribuídos entre vários computadores, o
Apache Hadoop, oferece uma ótima solução para o processamento de big data, mas a literatura
sobre como este framework se comporta em um ambiente onde os dados estão alocados em um
único local ainda é pequena. O foco deste trabalho é analisar e otimizar este framework em uma
arquitetura paralela onde os dados não estão distribuídos, podendo assim conseguir resultados
que demonstrem qual sua eficiência neste ambiente.
Coleções
Os arquivos de licença a seguir estão associados a este item: