dc.contributor.advisor | Gamarra, Daniel Fernando Tello | |
dc.creator | Jesus, Junior Costa de | |
dc.date.accessioned | 2022-10-21T16:44:18Z | |
dc.date.available | 2022-10-21T16:44:18Z | |
dc.date.issued | 2019-12-11 | |
dc.date.submitted | 2019 | |
dc.identifier.citation | JESUS, J. C. de. Aprendizado por reforço profundo para navegação de robôs móveis. 2019. 79 p. Trabalho de Conclusão de Curso (Graduação em Engenharia de Controle e Automação)- Universidade Federal de Santa Maria, Santa Maria, RS, 2019. | por |
dc.identifier.uri | http://repositorio.ufsm.br/handle/1/26618 | |
dc.description | Trabalho de conclusão de curso (graduação) - Universidade Federal de Santa Maria, Centro de Tecnologia, Curso de Engenharia de Controle e Automação, RS, 2019. | por |
dc.description.abstract | This work presents a study of deep reinforcement learning techniques that uses the Deep Deterministic
Policy Gradient network and the Soft Actor-Critic network for application in navigation
of mobile robots. In order for the robot to arrive to a target on a map, the networks have as input:
10 laser range findings, the previous linear and angular velocity, and relative position and
angle of the mobile robot to the target. As output, the network has the linear and angular velocity.
From the results analysis, it is possible to conclude that the deep reinforcement learning
algorithms, with continuous actions, are effective for the decision-making of robotic vehicles
and the Soft Actor-Critic networks present superior results, in less episodes, than the Deep Deterministic
Policy Gradient. However, it is necessary to create a good reward function for the
intelligent agent to accomplish its objectives. In order to show the performance of the Deep
Reinforcement Learning Algorithms, they were applied in experiments with a simulated robot
in three different environments and in a real robot in two environments. | eng |
dc.language | por | por |
dc.publisher | Universidade Federal de Santa Maria | por |
dc.rights | Acesso Aberto | por |
dc.rights | Attribution-NonCommercial-NoDerivatives 4.0 International | * |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/4.0/ | * |
dc.subject | Política de Gradiente Determinística Profunda | por |
dc.subject | Ator-Crítica Suave | por |
dc.subject | Aprendizado por Reforço Profundo | por |
dc.subject | Navegação de Robôs | por |
dc.subject | Deep Deterministic Policy Gradient | eng |
dc.subject | Soft Actor-Critic | eng |
dc.subject | Deep Reinforcement Learning | eng |
dc.subject | Robot’s Navigation | eng |
dc.title | Aprendizado por reforço profundo para navegação de robôs móveis | por |
dc.title.alternative | Deep reinforcement learning for navigation of mobile robots | eng |
dc.type | Trabalho de Conclusão de Curso de Graduação | por |
dc.degree.local | Santa Maria, RS, Brasil. | por |
dc.degree.graduation | Engenharia de Controle e Automação | por |
dc.description.resumo | Este trabalho apresenta um estudo de técnicas de aprendizado profundo usando a rede de Política
de Gradiente Determinística Profunda e a rede de Ator-Crítica Suave para a aplicação na
navegação de robô móveis. Para que o robô consiga chegar até um determinado alvo em um
mapa, as redes têm como entrada: 10 leituras do sensor laser, a velocidade linear e angular
anterior do robô, e a posição relativa e ângulo do robô móvel até o alvo. Como saída, as redes
têm a velocidade linear e angular. Dos resultados analisados, é possível concluir que os algoritmos
de aprendizado por reforço profundo, com ações contínuas, são efetivos para a tomada
de decisão de um veículo robótico, e que as redes de Ator-Crítica Suave apresentam resultados
superiores, em menos episódios, que as redes de Política de Gradiente Determinística Profunda.
Contudo, é necessário criar uma boa função de recompensa para que o agente inteligente consiga
realizar seus objetivos. Para mostrar o desempenho dos algoritmos de Aprendizado por
Reforço Profundo, foram aplicados os algoritmos nos experimentos com um robô simulado em
três ambientes diferentes e um robô real em dois ambientes. | por |
dc.publisher.country | Brasil | por |
dc.publisher.initials | UFSM | por |
dc.subject.cnpq | CNPQ::ENGENHARIAS | por |
dc.publisher.unidade | Centro de Tecnologia | por |