Sistema de localização, mapeamento e registro 3D para robótica móvel baseado em técnicas de visão computacional

Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Automação e Sistemas, Florianópolis, 2017. === Made available in DSpace on 2017-06-27T04:19:23Z (GMT). No. of bitstreams: 1 346667.pdf: 9358541 bytes, checksum: 033a82eaa1a...

Full description

Bibliographic Details
Main Author: Barbosa, Flávio Gabriel Oliveira
Other Authors: Universidade Federal de Santa Catarina
Format: Others
Language:Portuguese
Published: 2017
Subjects:
Online Access:https://repositorio.ufsc.br/xmlui/handle/123456789/176762
id ndltd-IBICT-oai-repositorio.ufsc.br-123456789-176762
record_format oai_dc
collection NDLTD
language Portuguese
format Others
sources NDLTD
topic Engenharia de sistemas
Robótica
Visao de robo
Visão por computador
spellingShingle Engenharia de sistemas
Robótica
Visao de robo
Visão por computador
Barbosa, Flávio Gabriel Oliveira
Sistema de localização, mapeamento e registro 3D para robótica móvel baseado em técnicas de visão computacional
description Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Automação e Sistemas, Florianópolis, 2017. === Made available in DSpace on 2017-06-27T04:19:23Z (GMT). No. of bitstreams: 1 346667.pdf: 9358541 bytes, checksum: 033a82eaa1a2438bea3ff3c054363e4a (MD5) Previous issue date: 2017 === A introdução de sistemas de visão computacional em robôs móveis se traduz em um significativo aumento de suas habilidades sensoriais, o que implica em uma maior versatilidade e segurança nas operações do robô. Armazenar e manipular todas as imagens percebidas por um robô durante sua tarefa de localização e mapeamento visual é tipicamente intratável para cenários reais. A alternativa adotada por este trabalho é representar o ambiente de forma topológica, onde alguns quadros são selecionados, chamados keyframes, e representam locais visualmente distintos do ambiente. Assim, cada nó do mapa proposto corresponde a um quadro-chave, descrito por um conjuntos de características locais obtidas pelos descritores SIFT, SURF, ORB, BRIEF e BRISK. A seleção destes descritores baseou-se nas avaliações anteriores encontradas na literatura e em uma série de testes que verificaram habilidades importantes no contexto proposto. Ao navegar em determinado ambiente, adquirir modelos 3D, que proporcionam uma compreensão muito mais abrangente do que mapas 2D, são de particular interesse para usuários remotos interessados no interior do ambiente que o robô percorre. O sistema proposto é baseado em registro de nuvens de pontos. Um Kinect acoplado ao robô captura imagens RGB e de profundidade, usadas para gerar nuvens de pontos que posteriormente são alinhadas na forma de registro, utilizando o alinhamento inicial SAC-IA com os descritores PFH e FPFH, e alinhadas através do algoritmo ICP. As métricas de avaliação demonstraram que os sistemas propostos são capazes de localizar o robô com precisão, encontrando a localização global ao longo de toda a trajetória, sendo capaz de resolver os problemas do robô sequestrado e do robô despertado. O algoritmo de alinhamento mostrou bons resultados quanto a capacidade de criar modelos compreensíveis, porém demanda um alto custo computacional. Desta forma, o presente trabalho propõe uma solução para que um robô acoplado com um Kinect percorra sua trajetória de forma autônoma, localizando-se e coletando nuvens de pontos que são usadas para criar um modelo 3D de seu ambiente de trabalho.<br> === Abstract : The introduction of computer vision systems in mobile robots translates into a significant increase in their sensory habilities, which implies greater versatility and security in robot operations. Storing and manipulating all the images perceived by a robot during its visual localization and mapping task is typically intractable for real scenarios. The alternative adopted by this work is to represent the environment in a topological form, where some frames are selected, called keyframes, and represent visually distinct locations from the environment. Thus, each proposed map node corresponds to a keyframe, described by a set of local characteristics obtained by SIFT, SURF, ORB, BRIEF and BRISK descriptors. The selection of these descriptors was based on previous evaluations found in the literature and on a series of tests that verified important skills in the proposed context. When navigating through a particular environment, acquiring 3D models, which provide a much more comprehensive understanding than 2D maps, are of particular interest to remote users interested in the interior of the environment that the robot traverses. The proposed system is based on 3D point cloud registration. A Kinect is coupled to the robot and captures RGB and depth images, which are used to generate point clouds, aligned in the registration form, using the SAC-IA initial alignment with the descriptors PFH and FPFH, and fully aligned through the ICP algorithm. The evaluation metrics demonstrated that the proposed systems are able to locate the robot with precision, being able to cope with the global localization problem throughout the whole trajectory, including the classic kidnapped robot and wake-up problems. The alignment algorithm showed good results in respect of creating comprehensive models, although it demands a high computational cost. Therefore, the present work proposes a solution for a robot coupled with a Kinect to traverse its path autonomously, locating itself and collecting point clouds that are used to create a 3D model of its work environment.
author2 Universidade Federal de Santa Catarina
author_facet Universidade Federal de Santa Catarina
Barbosa, Flávio Gabriel Oliveira
author Barbosa, Flávio Gabriel Oliveira
author_sort Barbosa, Flávio Gabriel Oliveira
title Sistema de localização, mapeamento e registro 3D para robótica móvel baseado em técnicas de visão computacional
title_short Sistema de localização, mapeamento e registro 3D para robótica móvel baseado em técnicas de visão computacional
title_full Sistema de localização, mapeamento e registro 3D para robótica móvel baseado em técnicas de visão computacional
title_fullStr Sistema de localização, mapeamento e registro 3D para robótica móvel baseado em técnicas de visão computacional
title_full_unstemmed Sistema de localização, mapeamento e registro 3D para robótica móvel baseado em técnicas de visão computacional
title_sort sistema de localização, mapeamento e registro 3d para robótica móvel baseado em técnicas de visão computacional
publishDate 2017
url https://repositorio.ufsc.br/xmlui/handle/123456789/176762
work_keys_str_mv AT barbosaflaviogabrieloliveira sistemadelocalizacaomapeamentoeregistro3dpararoboticamovelbaseadoemtecnicasdevisaocomputacional
_version_ 1718827542426681344
spelling ndltd-IBICT-oai-repositorio.ufsc.br-123456789-1767622019-01-21T16:38:36Z Sistema de localização, mapeamento e registro 3D para robótica móvel baseado em técnicas de visão computacional Barbosa, Flávio Gabriel Oliveira Universidade Federal de Santa Catarina Stemmer, Marcelo Ricardo Engenharia de sistemas Robótica Visao de robo Visão por computador Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Automação e Sistemas, Florianópolis, 2017. Made available in DSpace on 2017-06-27T04:19:23Z (GMT). No. of bitstreams: 1 346667.pdf: 9358541 bytes, checksum: 033a82eaa1a2438bea3ff3c054363e4a (MD5) Previous issue date: 2017 A introdução de sistemas de visão computacional em robôs móveis se traduz em um significativo aumento de suas habilidades sensoriais, o que implica em uma maior versatilidade e segurança nas operações do robô. Armazenar e manipular todas as imagens percebidas por um robô durante sua tarefa de localização e mapeamento visual é tipicamente intratável para cenários reais. A alternativa adotada por este trabalho é representar o ambiente de forma topológica, onde alguns quadros são selecionados, chamados keyframes, e representam locais visualmente distintos do ambiente. Assim, cada nó do mapa proposto corresponde a um quadro-chave, descrito por um conjuntos de características locais obtidas pelos descritores SIFT, SURF, ORB, BRIEF e BRISK. A seleção destes descritores baseou-se nas avaliações anteriores encontradas na literatura e em uma série de testes que verificaram habilidades importantes no contexto proposto. Ao navegar em determinado ambiente, adquirir modelos 3D, que proporcionam uma compreensão muito mais abrangente do que mapas 2D, são de particular interesse para usuários remotos interessados no interior do ambiente que o robô percorre. O sistema proposto é baseado em registro de nuvens de pontos. Um Kinect acoplado ao robô captura imagens RGB e de profundidade, usadas para gerar nuvens de pontos que posteriormente são alinhadas na forma de registro, utilizando o alinhamento inicial SAC-IA com os descritores PFH e FPFH, e alinhadas através do algoritmo ICP. As métricas de avaliação demonstraram que os sistemas propostos são capazes de localizar o robô com precisão, encontrando a localização global ao longo de toda a trajetória, sendo capaz de resolver os problemas do robô sequestrado e do robô despertado. O algoritmo de alinhamento mostrou bons resultados quanto a capacidade de criar modelos compreensíveis, porém demanda um alto custo computacional. Desta forma, o presente trabalho propõe uma solução para que um robô acoplado com um Kinect percorra sua trajetória de forma autônoma, localizando-se e coletando nuvens de pontos que são usadas para criar um modelo 3D de seu ambiente de trabalho.<br> Abstract : The introduction of computer vision systems in mobile robots translates into a significant increase in their sensory habilities, which implies greater versatility and security in robot operations. Storing and manipulating all the images perceived by a robot during its visual localization and mapping task is typically intractable for real scenarios. The alternative adopted by this work is to represent the environment in a topological form, where some frames are selected, called keyframes, and represent visually distinct locations from the environment. Thus, each proposed map node corresponds to a keyframe, described by a set of local characteristics obtained by SIFT, SURF, ORB, BRIEF and BRISK descriptors. The selection of these descriptors was based on previous evaluations found in the literature and on a series of tests that verified important skills in the proposed context. When navigating through a particular environment, acquiring 3D models, which provide a much more comprehensive understanding than 2D maps, are of particular interest to remote users interested in the interior of the environment that the robot traverses. The proposed system is based on 3D point cloud registration. A Kinect is coupled to the robot and captures RGB and depth images, which are used to generate point clouds, aligned in the registration form, using the SAC-IA initial alignment with the descriptors PFH and FPFH, and fully aligned through the ICP algorithm. The evaluation metrics demonstrated that the proposed systems are able to locate the robot with precision, being able to cope with the global localization problem throughout the whole trajectory, including the classic kidnapped robot and wake-up problems. The alignment algorithm showed good results in respect of creating comprehensive models, although it demands a high computational cost. Therefore, the present work proposes a solution for a robot coupled with a Kinect to traverse its path autonomously, locating itself and collecting point clouds that are used to create a 3D model of its work environment. 2017-06-27T04:19:23Z 2017-06-27T04:19:23Z 2017 info:eu-repo/semantics/publishedVersion info:eu-repo/semantics/masterThesis https://repositorio.ufsc.br/xmlui/handle/123456789/176762 346667 por info:eu-repo/semantics/openAccess 138 p.| il. reponame:Repositório Institucional da UFSC instname:Universidade Federal de Santa Catarina instacron:UFSC