Mostrar registro simples

dc.contributor.advisorGamarra, Daniel Fernando Tello
dc.creatorJesus, Junior Costa de
dc.date.accessioned2022-10-21T16:44:18Z
dc.date.available2022-10-21T16:44:18Z
dc.date.issued2019-12-11
dc.date.submitted2019
dc.identifier.citationJESUS, J. C. de. Aprendizado por reforço profundo para navegação de robôs móveis. 2019. 79 p. Trabalho de Conclusão de Curso (Graduação em Engenharia de Controle e Automação)- Universidade Federal de Santa Maria, Santa Maria, RS, 2019.por
dc.identifier.urihttp://repositorio.ufsm.br/handle/1/26618
dc.descriptionTrabalho de conclusão de curso (graduação) - Universidade Federal de Santa Maria, Centro de Tecnologia, Curso de Engenharia de Controle e Automação, RS, 2019.por
dc.description.abstractThis work presents a study of deep reinforcement learning techniques that uses the Deep Deterministic Policy Gradient network and the Soft Actor-Critic network for application in navigation of mobile robots. In order for the robot to arrive to a target on a map, the networks have as input: 10 laser range findings, the previous linear and angular velocity, and relative position and angle of the mobile robot to the target. As output, the network has the linear and angular velocity. From the results analysis, it is possible to conclude that the deep reinforcement learning algorithms, with continuous actions, are effective for the decision-making of robotic vehicles and the Soft Actor-Critic networks present superior results, in less episodes, than the Deep Deterministic Policy Gradient. However, it is necessary to create a good reward function for the intelligent agent to accomplish its objectives. In order to show the performance of the Deep Reinforcement Learning Algorithms, they were applied in experiments with a simulated robot in three different environments and in a real robot in two environments.eng
dc.languageporpor
dc.publisherUniversidade Federal de Santa Mariapor
dc.rightsAcesso Abertopor
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 International*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.subjectPolítica de Gradiente Determinística Profundapor
dc.subjectAtor-Crítica Suavepor
dc.subjectAprendizado por Reforço Profundopor
dc.subjectNavegação de Robôspor
dc.subjectDeep Deterministic Policy Gradienteng
dc.subjectSoft Actor-Criticeng
dc.subjectDeep Reinforcement Learningeng
dc.subjectRobot’s Navigationeng
dc.titleAprendizado por reforço profundo para navegação de robôs móveispor
dc.title.alternativeDeep reinforcement learning for navigation of mobile robotseng
dc.typeTrabalho de Conclusão de Curso de Graduaçãopor
dc.degree.localSanta Maria, RS, Brasil.por
dc.degree.graduationEngenharia de Controle e Automaçãopor
dc.description.resumoEste trabalho apresenta um estudo de técnicas de aprendizado profundo usando a rede de Política de Gradiente Determinística Profunda e a rede de Ator-Crítica Suave para a aplicação na navegação de robô móveis. Para que o robô consiga chegar até um determinado alvo em um mapa, as redes têm como entrada: 10 leituras do sensor laser, a velocidade linear e angular anterior do robô, e a posição relativa e ângulo do robô móvel até o alvo. Como saída, as redes têm a velocidade linear e angular. Dos resultados analisados, é possível concluir que os algoritmos de aprendizado por reforço profundo, com ações contínuas, são efetivos para a tomada de decisão de um veículo robótico, e que as redes de Ator-Crítica Suave apresentam resultados superiores, em menos episódios, que as redes de Política de Gradiente Determinística Profunda. Contudo, é necessário criar uma boa função de recompensa para que o agente inteligente consiga realizar seus objetivos. Para mostrar o desempenho dos algoritmos de Aprendizado por Reforço Profundo, foram aplicados os algoritmos nos experimentos com um robô simulado em três ambientes diferentes e um robô real em dois ambientes.por
dc.publisher.countryBrasilpor
dc.publisher.initialsUFSMpor
dc.subject.cnpqCNPQ::ENGENHARIASpor
dc.publisher.unidadeCentro de Tecnologiapor


Arquivos deste item

Thumbnail
Thumbnail

Este item aparece na(s) seguinte(s) coleção(s)

Mostrar registro simples

Acesso Aberto
Exceto quando indicado o contrário, a licença deste item é descrito como Acesso Aberto