论文总字数:29949字
摘 要
本文对对三维重建技术进行理论研究,用两种三维重建方法进行应用,获取深度图并进行点云化显示。
在飞行时间三维重建技术部分主要考虑了多径干扰的影响,将传统的函数形式矢量化,简化了计算。利用全局分量在高频调制光照下消失这一现象,进行深度计算。并利用多频照射来解决相位缠绕的影响。
在光场三维重建部分,利用光场重聚焦的特性,光场函数在不同深度重聚焦图像与全聚焦图像进行对比来构造成本量函数。利用引导滤波器来对成本函数进行优化,最后用成本最小来确定最后的深度值。
关键词:飞行时间,深度估计,三维重建,光场
Three Dimensional Reconstruction Based on Time of Flight Imaging
Abstract
In this paper, the theory three dimensional reconstruction has been studied. Two kinds of 3D reconstruction technologies are applied to get the depth map visualized by point cloud.
During the time of flight reconstruction, multipath interaction is considered. Traditional function of signal is expressed by phasors, which clarifies the computing progress. A phenomenon that the global transport component vanished when the scene is illuminated with high frequency modulated light is utilized to conduct depth computing. During the light field reconstruction, the refocus characteristic of light field is used to build the cost volume which is optimized by guided filter. The final depth is defined by the minimum cost.
KEY WORDS: time of flight, depth estimation, 3D reconstruction, light field
目录
第一章 绪 论 4
1.1 研究背景及意义 4
1.2 三维重建相关技术发展历史现状 5
1.3 相关工作总结 6
1.3.1 飞行时间成像相关工作 6
1.3.2光场成像相关工作 6
1.4本文的研究目的和主要研究内容 7
1.4.1 研究目的 7
1.4.2 论文主要内容 7
第二章 ToF与光场的三维重建原理 8
2.1 飞行时间相机(TOF) 8
2.1.1原理简介 8
2.1.2飞行时间深度估计的误差来源 11
2.2 光场 13
2.2.1 从光场中计算图片 14
2.2.2 光场的三种图 14
2.2.3 光场函数数学形式和重聚焦 18
第三章 实验方法与结果 20
3.1 基于飞行时间(ToF)成像的三维重建 20
3.1.1 实验方法 20
3.1.2实验结果 28
3.2基于光场成像的三维重建 30
3.2.1实验方法 30
3.2.2 实验结果 32
3.3点云图三维表示 34
第四章 总结与展望 35
4.1总结 35
4.2研究展望 35
致谢 36
参考文献(References) 37
第一章 绪 论
1.1 研究背景及意义
我们生活在一个三维的世界,相对位置与场景中物体的运动是对我们所生存的环境一个充分的描述。为了满足空间位置的需求,大自然给大多数动物提供了至少两只眼睛。这种立体视觉能力是让我们定性地判断所观测场景的深度信息的基础。对于人类复杂的深度知觉来说,另一个重要的依据是经验与记忆:人类甚至能够不依据立体视觉来识别深度信息。例如,我们可以定性的推断出照片中的三维场景。
获取、存储、处理和比较如此大量的信息需要极大的计算能力。所以作为一项技术应用,人们需要求助于更简单的测量原理。此外,这种定性的视觉预测过程需要被精确的三维测量来替代。大量的方法被应用到图片测量进行三维重建的领域,例如立体视觉、激光扫描等等。持续不断出现的新应用也对深度测量技术提出了更高的的要求:更高的精确度,更短的采集时间,更小的尺寸和成本。
传统的三维重建问题是从一系列2D图片来恢复对应物体的3D形状。其本身作为计算机视觉的一个重要研究方向引起了大量关注。三维重建在其他领域也有许多应用,所以是一个一直很火热的研究领域。目前应用较多的三维重建,是通过一定方式测量或计算出图片各像素点的深度信息来进行三维重建。深度图像包含的是像素点对应场景点距离测量位置的距离信息,在经过相关计算就能转化为场景点的三维位置信息。依据三维位置信息就能进行三维重建。三维重建技术很少用来测量没有对比度的场景。这是因为三维重建是通过提取场景基于对比的相关特征或者比较相同物体在两张图中的位置来进行的
计算摄像学是近年来越来越受到注意的一个新的领域。它是指通过传感、算法技术来加强和扩展数字图像技术。现在已经在应用的计算摄像学技术有:高动态范围(HDR)成像、编码孔径和编码曝光成像、全景拼接、光场成像技术和飞行时间成像技术。其中光场成像和飞行时间成像技术都能获得物体的深度信息。
近年来,随着硬件技术的飞速发展,飞行时间(ToF)成像和光场技术得到了飞速的发展。这两种成像技术能够保存场景的许多信息,其中最重要的就是位置信息。ToF技术是能够实时测量场景中物体各点的深度信息。光场是需要对光场数据进行后期处理。两种技术都给计算较为准确的深度信息提供了可能。在三维重建领域有着越来越广泛应用。
1.2 三维重建相关技术发展历史现状
每个三维重建的应用都有许多需求,这些需求用传统的测量技术是很难被满足的。基于几何学的测量系统,例如立体成像,当传感器视角在场景中被物体遮挡时会面临遮挡问题。激光扫描系统,由于其应用的是机械扫描技术,所以固有的缺点是速度慢。一项新技术的出现图突破了现有测量系统的局限:飞行时间测量系统能够实时提供整个场景的深度获取。与连续扫描不同,飞行时间测量技术通过将照明扩展到整个场景,极大缩短了采集时间,场景中每个点对应的飞行时间,使用平行的接收矩阵同时测量。
飞行时间测量技术在概念上很直接:信号被信源释放,测量信号传播到目标并且被反射到接收器的时间。目标的距离就可以通过信号的传播速度计算得到。这项技术其实最早是出现在自然界:海豚、鲸鱼、蝙蝠等其他动物利用回声定位的飞行时间方法来进行出行和觅食。然而,对于光测量系统光速接近于,较短的距离,测量光线传播过程中的延迟是一个巨大的挑战。例如测量距离1m的传播延迟,就需要测量的分辨率要高于7ns。为了克服测量时间的难题,间接的飞行时间测量技术被提出:物体的距离信息隐藏在幅度、频率或者是相位当中。这大大降低了飞行时间测量系统的硬件要求。一种间接飞行时间系统利用率外差技术,将深度信息编码到低频信号的相位中。达到了厘米级的分偏率(Carnegie 等人, 2005)。这个系统将光源进行幅度调制,并照明整个场景。与之前相似的过程,也是接收从物体表面反射的光信号。由于传播距离会造成光信号的相位延迟,通过测量相位延迟就可以计算出相应像素点对应场景的深度信息。
光场成像技术是另一种新型的成像技术。光场的概念主要起源于计算机图形学在这个领域,基于图片的渲染是一个常用的技术。Adelson和Bergen[19]以及McMillan和Bishop[20]把插值看成是全光函数的重建。这个函数是一个7维函数,描述了从场景中发出光的所有信息。存储了每个点的3维坐标、光强、方向、波长和时间。 1996年Marc Levoy等人提出了光场概念[2],2006 Ren Ng[提出了第一代光场相机的设计理念。至此光场成像技术开始在计算机图形学和视觉领域有了广泛的应用。光场常用的结构是双平面参数结构。光线与两个给定平面的交叉坐标被记录下来。对于光场来说,流明图或许是一个很贴切的描述。流明图是一个近似的几何模型或者说是替代品,在插补过程中,极大的提高了重建的性能。
1.3 相关工作总结
1.3.1 飞行时间成像相关工作
剩余内容已隐藏,请支付后下载全文,论文总字数:29949字
该课题毕业论文、开题报告、外文翻译、程序设计、图纸设计等资料可联系客服协助查找;