面向智能移动的RGB-D视觉点云几何空间构建方法研究

 2022-07-20 14:07:07

论文总字数:26282字

摘 要

目前移动智能体发展迅速,基于移动智能体的环境地图构建也受到了国内外广泛的关注。本文利用视觉SLAM技术对室内移动智能体的地图构建进行了研究,主要运用PCL(Point Cloud Library)点云拼接技术重建三维地图。

视觉SLAM,全称同步定位与建图(Simultaneous Localization and Mapping),是目前移动智能体定位技术的主流研究方法。其中基于RGB-D的SLAM技术,由于能够很好地获取深度信息而受到广泛关注。本文从RGB-D相机着手,介绍了其软件环境和实验平台,在此基础上利用棋盘标定法对RGB-D相机的参数进行了标定。随后对RGB-D图像数据展开研究,利用特征点法计算出相机的位姿,并采用局部BA优化进一步对运动结果进行优化。然后利用PCL技术,将图像转换成点云,实现点云的拼接,最终结合相机的位姿,实现地图的构建。

本文的创新性在于将点云拼接和相机的运动相结合,在构建三维地图的同时,也能很好的感知相机的运动,达到了视觉里程计的效果,可以更好地感受到移动智能体周围环境的变化。

关键词:移动智能体,RGB-D视觉SLAM,PCL点云拼接,三维空间构图

Abstract

At present, mobile intelligent body is developing rapidly, and the construction of environmental map based on mobile intelligent body has received wide attention at home and abroad. In this paper, we study the map construction of indoor intelligent mobile body by using visual SLAM technology, and the reconstruction of 3d map is accomplished by using PCL point cloud splicing.

Visual SLAM, known as Simultaneous Localization and Mapping, is the mainstream research method of intelligent mobile positioning technology. Among them, the SLAM technology based on RGB-D is widely concerned because it can get in-depth information very well. In this paper, the software environment and experimental platform of RGB-D camera are introduced, and the parameters of RGB-D camera are calibrated based on the checkerboard calibration method. Then, the RGB-D image was studied, and the position and motion of the camera were calculated by the feature point method, and the motion results was further optimized by BA optimization. Then, using PCL technology, the image is transformed into point cloud to realize the splicing of point cloud. Finally, the construction of the map is realized by combining the motion and posture of the camera.

Innovation of this article is combining point cloud splicing and the movement of the camera, in building a 3 d map at the same time, also can be a very good sense of camera movement, achieved the effect of visual odometer, mobile intelligent body can better feel the change of the surroundings.

KEY WORDS: Mobile Intelligent Body, RGB-D SLAM , PCL Point Cloud Splicing , Three-Dimensional Composition

目 录

摘要 II

Abstract II

第一章 绪论 1

1.1 研究背景 1

1.1.1 RGB-D图像简介 1

1.1.2 PCL概述 1

1.2 国内外研究现状 2

1.3 研究意义 3

1.4 研究内容 3

第二章 实验平台 4

2.1 Linux Ubuntu 4

2.1.1 Linux简介 4

2.1.2 Linux系统架构 4

2.1.3 Linux Ubuntu的搭建 5

2.1.4 Linux Ubuntu常用指令 6

2.2 OpenCV 7

2.2.1 OpenCV简介 7

2.2.2 OpenCV模块库 8

2.2.3 基于Linux的OpenCV搭建 8

2.2.4 OpenCV常用命令 9

2.3 硬件设备Kniect V2 10

2.3.1 Kniect V2简介 10

2.3.2 Kniect V2的工作原理 10

2.3.3 ROS下Kinect V2驱动安装 11

第三章 Kinect V2参数标定 12

3.1 坐标变换 12

3.1.1 世界坐标系到相机坐标系 12

3.1.2 摄像机坐标系到图像坐标系 12

3.1.3 图像坐标系到像素坐标系 13

3.1.4 世界坐标系到像素坐标系 13

3.2 数学原理 14

3.3 参数优化 15

第四章 Kinect V2位姿计算 17

4.1 图像特征的提取与匹配 17

4.1.1 ORB特征提取 17

4.1.2 特征匹配 18

4.2 3D-2D:PnP 19

4.3 BA优化 20

第五章 PCL点云拼接的实现 22

5.1 从图像到点云 22

5.2 拼接点云 23

5.3 构图 23

第六章 实验论证 25

6.1 数据集介绍 25

6.2 实验结果 25

6.2.1 数据集一 25

6.2.2 数据集二 25

6.2.3 数据集三 26

6.2.4 数据集四 27

6.2.5 数据集五 28

6.3 实验总结 28

6.3.1 实验策略 28

6.3.2 实验结果分析 29

第七章 总结与展望 30

致谢 31

参考文献 32

绪论

研究背景

RGB-D图像简介

RGB图像就是指采用RGB颜色空间显示的图像,RGB图像是现在运用最广泛的颜色空间之一,它几乎可以包含人类视觉能够感知到的所有颜色。而RGB-D图像使用了三维扫描仪、激光测距仪等深度成像传感设备来测量出目标物体的深度信息,然后和普通的RGB图像相结合。也就是说RGB-D图像实际上包含了同一物体的一幅RGB图像和一幅深度图像,如图1-1-1。深度图像乍一看就像灰度图像一样,但其包含了其他图像所不具有的信息——深度。深度图像中每个像素点的像素值都代表相机到该点的距离,在深度图像中直观的表现为距离相机越近的地方灰度值越高,距离相机越远的地方灰度值越低。由于深度图像的这些特点,使得它在物体的三维识别、重建、定位等方面比传统的从RGB图像里提取物体的三维几何特征的方式更加简单高效。因此RGB-D图像已经在三维重建,机器人视觉研究,视觉导航等领域有所应用。

剩余内容已隐藏,请支付后下载全文,论文总字数:26282字

您需要先支付 80元 才能查看全部内容!立即支付

该课题毕业论文、开题报告、外文翻译、程序设计、图纸设计等资料可联系客服协助查找;