dc.creator | Souza, Renan Lirio de | |
dc.date.accessioned | 2020-01-28T15:37:54Z | |
dc.date.available | 2020-01-28T15:37:54Z | |
dc.date.issued | 2019-08-21 | |
dc.identifier.uri | http://repositorio.ufsm.br/handle/1/19445 | |
dc.description.abstract | Machine Learning as a Service (MLaaS) platforms are allowing the application of Machine
Learning (ML) techniques from anywhere, and at any time. These platforms, in general, are
hosted in the cloud and have a scalable infrastructure with high processing power; however, they
have some disadvantages, such as the need to send data to the cloud. ML on the Edge (Edge
Computing) is emerging as an option to tackle some limitations imposed by these platforms,
reducing the latency and bandwidth usage; furthermore, it avoids data privacy and security
issues by keeping the data on the local network. However, the application of ML on the edge
still presents research challenges, such as the orchestration of ML functions considering the
network state and the computational capabilities of the nodes. In this sense, network-aware
orchestration services, provided by Network Function Virtualization (NFV) platforms can be
a promising approach to manage the ML tasks placement. This work proposes the MLFV
(Machine Learning Function Virtualization), a network-aware approach that explores the NFV
environment to orchestrate the execution of ML function chains; these chains represent the
execution flow of the ML functions that can be grouped as sequential and/or parallel activities.
The MLFV implements a model for placing chains of ML, considering constraints on CPU,
memory, required libraries and the network overload aiming to reduce the overall execution time
of all functions in a chain. This model distributes the functions in order to reduce the network
overload, the execution time, especially in cases where the network presents some instability.
To evaluate the MLFV proposal a case study in the geotechnical area was conducted, using
soil data to reproduce the soil classification process through two ML function chains; these
chains, implemented by MLFV, were created based on the Knowledge Discovery in Databases
process (KDD). The results showed that MLFV achieved, on average, a 25% reduction in the
execution time compared to cloud (MLaaS) and edge approaches in a stable network connection
scenario. When some computational nodes had bandwidth constraints, MLFV was able to
identify these limitations, allocating the ML tasks on hosts with stable connections. The other
approaches were unable to detect these instabilities, resulting in a 400% increase in the overall
chain execution time. | eng |
dc.language | por | por |
dc.publisher | Universidade Federal de Santa Maria | por |
dc.rights | Attribution-NonCommercial-NoDerivatives 4.0 International | * |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/4.0/ | * |
dc.subject | Aprendizado de máquina | por |
dc.subject | Virtualização de funções de rede | por |
dc.subject | Encadeamento de funções | por |
dc.subject | Computação na borda | por |
dc.subject | Machine learning | eng |
dc.subject | Network function virtualization | eng |
dc.subject | Function chaining | eng |
dc.subject | Edge computing | eng |
dc.title | MLFV: uma abordagem consciente do estado da rede para orquestração de cadeias de funções de aprendizado de máquina | por |
dc.title.alternative | MLFV: a network-aware approach for machine learning function chain orquestration | eng |
dc.type | Dissertação | por |
dc.description.resumo | As plataformas de Aprendizado de Máquina como Serviço (MLaaS) vem possibilitando a aplicação
de técnicas de Aprendizado de Máquina (ML) de qualquer lugar e a qualquer momento.
Essas plataformas, em geral, são hospedadas na nuvem e possuem infraestruturas escaláveis
com um alto poder de processamento; no entanto, apresentam algumas desvantagens como a
necessidade de realizar a transferência dos dados para a nuvem. A aplicação de ML na borda
da rede (Edge Computing) está surgindo como uma opção para reduzir algumas das limitações
impostas por essas plataformas, diminuindo, por exemplo, a latência e o uso da rede; além
disso, evita problemas com relação a privacidade e segurança dos dados por mantê-los na rede
interna. No entanto, a aplicação de ML na borda ainda apresenta desafios de pesquisa, como,
por exemplo, a orquestração de funções de ML levando em consideração o atual estado da rede
e as capacidades computacionais dos nodos. Neste sentido, serviços de orquestração de funções
conscientes do estado da rede, como os fornecidos por plataformas de Virtualização de
Funções de Rede (NFV), podem ser uma abordagem promissora para gerenciar a distribuição
das tarefas de ML. Este trabalho propõe o MLFV (Machine Learning Function Virtualization),
uma abordagem consciente do estado da rede que explora um ambiente de NFV para orquestrar
a execução de cadeias de funções de ML; essas cadeias representam o fluxo de execução das
funções, podendo ser agrupadas de forma sequencial e/ou paralela. A abordagem de MLFV
implementa um modelo matemático para colocação de cadeias de ML que, considerando restrições
de CPU, memória, bibliotecas necessárias e sobrecarga de rede, objetiva reduzir o tempo
total de execução de todas as funções de uma cadeia. O modelo distribui as funções de forma a
reduzir a sobrecarga na rede, o que acarreta na redução no tempo total de execução, principalmente
em casos em que a rede apresenta instabilidade. Para avaliar a abordagem de MLFV foi
realizado um estudo de caso na área de geotecnia, utilizando dados de sensores para reproduzir
o processo de classificação de solos através de duas cadeias de funções de ML; essas cadeias,
implementadas pelo MLFV, foram criadas com base no processo de Descoberta de Conhecimento
em Base de Dados (KDD). Os experimentos demonstraram que o MLFV obteve, em
média, uma redução no tempo de execução de 25% em comparação às abordagens de ML na
nuvem (MLaaS) e na borda (Edge) em um cenário com conexão de rede estável. Em um cenário
onde os nodos computacionais apresentavam restrições de largura de banda, o MLFV foi
capaz de identificar essas limitações, alocando as tarefas de ML nos hosts com conexão estável.
As outras abordagens não foram capazes de detectar essas instabilidades, acarretando em um
aumento de 400% no tempo de execução das cadeias de funções. | por |
dc.contributor.advisor1 | Machado, Alencar | |
dc.contributor.advisor1Lattes | http://lattes.cnpq.br/5538050121450638 | por |
dc.contributor.referee1 | Rizzetti, Tiago Antonio | |
dc.contributor.referee1Lattes | http://lattes.cnpq.br/4831665039238635 | por |
dc.contributor.referee2 | Villaca, Rodolfo da Silva | |
dc.contributor.referee2Lattes | http://lattes.cnpq.br/3755692723547807 | por |
dc.creator.Lattes | http://lattes.cnpq.br/8847441544365269 | por |
dc.publisher.country | Brasil | por |
dc.publisher.department | Ciência da Computação | por |
dc.publisher.initials | UFSM | por |
dc.publisher.program | Programa de Pós-Graduação em Ciência da Computação | por |
dc.subject.cnpq | CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO | por |
dc.publisher.unidade | Centro de Tecnologia | por |