dc.contributor.advisor | Gamarra, Daniel Fernando Tello | |
dc.creator | Moraes, Linda Dotto de | |
dc.date.accessioned | 2022-12-12T17:51:14Z | |
dc.date.available | 2022-12-12T17:51:14Z | |
dc.date.issued | 2022-09-23 | |
dc.date.submitted | 2022 | |
dc.identifier.citation | MORAES, L. D. de. Comparação de algoritmos de aprendizagem por reforço profundo na navegação do robô móvel e desvio de trajetória. 2022. 69 p. Trabalho de Conclusão de Curso (Graduação em Engenharia de Controle e Automação) - Universidade Federal de Santa Maria, Santa Maria, RS, 2022. | por |
dc.identifier.uri | http://repositorio.ufsm.br/handle/1/27302 | |
dc.description | Trabalho de conclusão de curso (graduação) - Universidade Federal de Santa Maria, Centro de Tecnologia, Curso de Engenharia de Controle e Automação, RS, 2022. | por |
dc.description.abstract | This work presents two Deep Reinforcement Learning (Deep-RL) approaches to enhance the problem of mapless navigation for a terrestrial mobile robot. The methodology focus on comparing a Deep-RL technique based on the Deep Q-Network (DQN) algorithm with a second one based on the Double Deep Q-Network (DDQN) algorithm. As sensor, 24 laser range findings samples were used and the relative position and angle of the agent to the target were used as information for the agent, which provide the actions as velocities for the robot. By using a low-dimensional sensing structure of learning such as the one proposed, it is shown that it is possible to successfully train an agent to perform navigation-related tasks and obstacle avoidance without the use of complex sensing information, like in image-based approaches. The proposed methodology was successfully used in three distinct real and simulated environments. Overall, it was shown that Double Deep structures further enhance the problem for the navigation of mobile robots when compared to the ones with simple Q structures. | eng |
dc.description.abstract | This work presents two Deep Reinforcement Learning (Deep-RL) approaches to enhance the problem of mapless navigation for a terrestrial mobile robot. The methodology focus on comparing a Deep-RL technique based on the Deep Q-Network (DQN) algorithm with a second one based on the Double Deep Q-Network (DDQN) algorithm. As sensor, 24 laser range findings samples were used and the relative position and angle of the agent to the target were used as information for the agent, which provide the actions as velocities for the robot. By using a low-dimensional sensing structure of learning such as the one proposed, it is shown that it is possible to successfully train an agent to perform navigation-related tasks and obstacle avoidance without the use of complex sensing information, like in image-based approaches. The proposed methodology was successfully used in three distinct real and simulated environments. Overall, it was shown that Double Deep structures further enhance the problem for the navigation of mobile robots when compared to the ones with simple Q structures. | eng |
dc.language | por | por |
dc.publisher | Universidade Federal de Santa Maria | por |
dc.rights | Acesso Aberto | por |
dc.rights | Attribution-NonCommercial-NoDerivatives 4.0 International | * |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/4.0/ | * |
dc.subject | Robótica | por |
dc.subject | Aprendizagem Profunda | por |
dc.subject | Aprendizagem por Reforço Profundo | por |
dc.subject | Robotics | eng |
dc.subject | Deep Learning | eng |
dc.subject | Deep Reinforcement Learning | eng |
dc.title | Comparação de algoritmos de aprendizagem por reforço profundo na navegação do robô móvel e desvio de trajetória | por |
dc.title.alternative | Robot navigation and obstacle avoidance using deep reinforcement learning | eng |
dc.type | Trabalho de Conclusão de Curso de Graduação | por |
dc.degree.local | Santa Maria, RS, Brasil. | por |
dc.degree.graduation | Engenharia de Controle e Automação | por |
dc.description.resumo | Este trabalho apresenta um estudo de duas abordagens de Deep Reinforcement Learning (Deep-RL) para melhorar o problema de navegação sem mapa para um robô móvel terrestre. A metodologia foca na comparação de uma técnica Deep-RL baseada no algoritmo Deep Q-Network (DQN) com uma segunda baseada no algoritmo Double Deep Q-Network (DDQN). Foram utilizadas 24 leituras do laser, a posição relativa e o ângulo do agente em relação ao alvo como informações para o agente, que fornecem as ações como velo- cidades para o robô. Ao usar uma estrutura de aprendizado de sensoriamento de baixa dimensão como a proposta, mostra-se que é possível treinar um agente com sucesso para realizar tarefas relacionadas à navegação e evitar obstáculos sem o uso de informações de sensoriamento complexas, como em abordagens baseadas em imagens. A metodologia proposta foi utilizada com sucesso em três ambientes distintos reais e simulados. Assim, foi mostrado que as estruturas Double Deep melhoram ainda mais o problema para a navegação de robôs móveis quando comparados aos de estruturas Q simples. | por |
dc.publisher.country | Brasil | por |
dc.publisher.initials | UFSM | por |
dc.subject.cnpq | CNPQ::ENGENHARIAS | por |
dc.publisher.unidade | Centro de Tecnologia | por |