Mostrar registro simples

dc.contributor.advisorGamarra, Daniel Fernando Tello
dc.creatorMoraes, Linda Dotto de
dc.date.accessioned2022-12-12T17:51:14Z
dc.date.available2022-12-12T17:51:14Z
dc.date.issued2022-09-23
dc.date.submitted2022
dc.identifier.citationMORAES, L. D. de. Comparação de algoritmos de aprendizagem por reforço profundo na navegação do robô móvel e desvio de trajetória. 2022. 69 p. Trabalho de Conclusão de Curso (Graduação em Engenharia de Controle e Automação) - Universidade Federal de Santa Maria, Santa Maria, RS, 2022.por
dc.identifier.urihttp://repositorio.ufsm.br/handle/1/27302
dc.descriptionTrabalho de conclusão de curso (graduação) - Universidade Federal de Santa Maria, Centro de Tecnologia, Curso de Engenharia de Controle e Automação, RS, 2022.por
dc.description.abstractThis work presents two Deep Reinforcement Learning (Deep-RL) approaches to enhance the problem of mapless navigation for a terrestrial mobile robot. The methodology focus on comparing a Deep-RL technique based on the Deep Q-Network (DQN) algorithm with a second one based on the Double Deep Q-Network (DDQN) algorithm. As sensor, 24 laser range findings samples were used and the relative position and angle of the agent to the target were used as information for the agent, which provide the actions as velocities for the robot. By using a low-dimensional sensing structure of learning such as the one proposed, it is shown that it is possible to successfully train an agent to perform navigation-related tasks and obstacle avoidance without the use of complex sensing information, like in image-based approaches. The proposed methodology was successfully used in three distinct real and simulated environments. Overall, it was shown that Double Deep structures further enhance the problem for the navigation of mobile robots when compared to the ones with simple Q structures.eng
dc.description.abstractThis work presents two Deep Reinforcement Learning (Deep-RL) approaches to enhance the problem of mapless navigation for a terrestrial mobile robot. The methodology focus on comparing a Deep-RL technique based on the Deep Q-Network (DQN) algorithm with a second one based on the Double Deep Q-Network (DDQN) algorithm. As sensor, 24 laser range findings samples were used and the relative position and angle of the agent to the target were used as information for the agent, which provide the actions as velocities for the robot. By using a low-dimensional sensing structure of learning such as the one proposed, it is shown that it is possible to successfully train an agent to perform navigation-related tasks and obstacle avoidance without the use of complex sensing information, like in image-based approaches. The proposed methodology was successfully used in three distinct real and simulated environments. Overall, it was shown that Double Deep structures further enhance the problem for the navigation of mobile robots when compared to the ones with simple Q structures.eng
dc.languageporpor
dc.publisherUniversidade Federal de Santa Mariapor
dc.rightsAcesso Abertopor
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 International*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.subjectRobóticapor
dc.subjectAprendizagem Profundapor
dc.subjectAprendizagem por Reforço Profundopor
dc.subjectRoboticseng
dc.subjectDeep Learningeng
dc.subjectDeep Reinforcement Learningeng
dc.titleComparação de algoritmos de aprendizagem por reforço profundo na navegação do robô móvel e desvio de trajetóriapor
dc.title.alternativeRobot navigation and obstacle avoidance using deep reinforcement learningeng
dc.typeTrabalho de Conclusão de Curso de Graduaçãopor
dc.degree.localSanta Maria, RS, Brasil.por
dc.degree.graduationEngenharia de Controle e Automaçãopor
dc.description.resumoEste trabalho apresenta um estudo de duas abordagens de Deep Reinforcement Learning (Deep-RL) para melhorar o problema de navegação sem mapa para um robô móvel terrestre. A metodologia foca na comparação de uma técnica Deep-RL baseada no algoritmo Deep Q-Network (DQN) com uma segunda baseada no algoritmo Double Deep Q-Network (DDQN). Foram utilizadas 24 leituras do laser, a posição relativa e o ângulo do agente em relação ao alvo como informações para o agente, que fornecem as ações como velo- cidades para o robô. Ao usar uma estrutura de aprendizado de sensoriamento de baixa dimensão como a proposta, mostra-se que é possível treinar um agente com sucesso para realizar tarefas relacionadas à navegação e evitar obstáculos sem o uso de informações de sensoriamento complexas, como em abordagens baseadas em imagens. A metodologia proposta foi utilizada com sucesso em três ambientes distintos reais e simulados. Assim, foi mostrado que as estruturas Double Deep melhoram ainda mais o problema para a navegação de robôs móveis quando comparados aos de estruturas Q simples.por
dc.publisher.countryBrasilpor
dc.publisher.initialsUFSMpor
dc.subject.cnpqCNPQ::ENGENHARIASpor
dc.publisher.unidadeCentro de Tecnologiapor


Arquivos deste item

Thumbnail
Thumbnail

Este item aparece na(s) seguinte(s) coleção(s)

Mostrar registro simples

Acesso Aberto
Exceto quando indicado o contrário, a licença deste item é descrito como Acesso Aberto