Análise e otimização do Apache Hadoop em arquiteturas paralelas com memória compartilhada
Resumen
O processamento de grande volumes de dados foi sempre um obstáculo na computação.
O surgimento do paradigma da computação paralela aliado com a ideia de distribuir a computação
em diversos computadores ajudou a resolver uma parte considerável deste obstáculo.
Muitos frameworks foram criados baseados nessa premissa, um deles é o framework Apache
Hadoop. Voltado para ambientes onde os dados estão distribuídos entre vários computadores, o
Apache Hadoop, oferece uma ótima solução para o processamento de big data, mas a literatura
sobre como este framework se comporta em um ambiente onde os dados estão alocados em um
único local ainda é pequena. O foco deste trabalho é analisar e otimizar este framework em uma
arquitetura paralela onde os dados não estão distribuídos, podendo assim conseguir resultados
que demonstrem qual sua eficiência neste ambiente.
Colecciones
El ítem tiene asociados los siguientes ficheros de licencia: