论文总字数:21535字
摘 要
本论文旨在探索无人驾驶汽车项目中激光雷达数据、车辆can信息数据、车摄像头高清图像数据三种数据的实时融合渲染的设计与实现。提出了无人驾驶中三种数据的可视化融合渲染方式、渲染组件的样式与状态迁移,以及寻找数据传输、渲染的高性能解决方案。
本文利用web 3D、前端、后台以及web socket技术。其中激光雷达的数据属于3D点云数据,通过ROS系统将Velodyne LiDar多路激光雷达的数据转化为PCD点云文件,再通过Three.js的WebGL技术进行渲染;利用D3.js图形绘制库将can数据渲染为交互性强的图表;降采样车辆多路摄像头照片存储在后台内存中;后台通过web socket在千兆网环境下,分段读取数据文件后实时传输到前端;前端解析数据后分别传递到不同组件中,由统一的状态管理库mobx负责维护数据,包括解析并传递到不同组件中以及数据的增删查操作以维持资源的合理占用,同时结合React框架控制前端状态、渲染数据的播放。
通过对比不同数据的渲染帧率、融合显示时的整体流畅度以及用户操作界面合理性这三大指标,对三种数据的处理方式分别进行了探索、分析、归纳,最终做出播放流畅、交互性定制性强、延迟低的无人驾驶数据实时融合渲染的web可视化播放组件应用。
关键词:数据可视化,融合渲染,无人车 ,web应用
Abstract
This paper aims to explore the design and implementation of real-time fusion rendering of three kinds of data, including laser radar data, vehicle can information data and car camera HD image data.
This paper proposes a visual fusion rendering method for three kinds of data in unmanned driving, the style and state transition of rendering components and a high-performance solution for data transmission and rendering. As an emerging field, automated driving has not found the best solution for the data visualization part of data loopback.
This paper mainly uses web 3D, front-end, back-end and web socket technology. The data of the laser radar is a kind of the 3D point cloud data. In this article, the data of Velodyne LiDar multi-channel laser radar is converted into PCD point cloud file through the ROS system, and then rendered through the WebGL technology of Three.js; the D3.js graphics drawing library is used. The can data is rendered as a highly interactive graph; the downsampling vehicle multi-camera photos are stored in the background memory; the background is read in real time by the web socket in the gigabit network environment and then transmitted to the front end in real time; the front-end parsing data After being passed to different components, the unified state management library mobx is responsible for maintaining data, including parsing and passing to different components and data addition and deletion operations to maintain the reasonable occupation of resources, while controlling the front-end state and rendering data in conjunction with the React framework. Playback.
By comparing the three different indicators such as the rendering frame rate of different data, the overall fluency of the fusion display, and the rationality of the user interface, the three data processing methods were explored, analyzed and summarized respectively, and the playback was smooth and interactive. Definitive, low-delay drone data real-time fusion rendering of web visual playback component applications.
KEY WORDS: Data Visualization, Fusion Rendering,Autonomous Vehicle, Web Applications
目 录
摘要 2
Abstract 3
第一章 绪论 6
1.1 选题背景 6
1.1.1 无人驾驶简介 6
1.1.2 无人驾驶数据分析 6
1.1.3 数据回环 7
1.2 研究现状及发展趋势 8
1.2.1 Uber 8
1.2.2 Apollo Dreamview[4] 9
1.2.3 发展趋势 10
1.3 本文主要工作 11
1.4 论文组织与结构 11
第二章 技术选型及简介 12
2.1 web前端技术及选型 12
2.1.1 前端采用技术简介 12
2.1.2 同类型技术对比与选择 12
2.2 后端技术及选型 13
2.3 数据3D渲染及2D可视化技术 13
第三章 原型系统设计与实现 14
3.1 后端设计 14
3.1.1 数据介绍 14
3.1.2 数据传输存储方案对比 14
3.1.3 数据传输存储方案对比 15
3.2 前端设计 16
3.2.1 界面设计——Gemview 17
3.2.2 交互设计[8] 18
3.2.3 状态管理 22
3.3 激光雷达点云3D渲染实现[9] 23
3.4 can数据2D可视化实现 23
3.5 摄像头数据融合 24
第四章 总结与展望 26
4.1 总结 26
4.2 展望 26
致 谢 27
参考文献 28
绪论
选题背景
基于无人驾驶的数据可视化与无人驾驶领域是密不可分的,而无人驾驶技术正是建立在数据科学、机器学习、计算机视觉等技术上的。业界普遍认为,率先实现数据回环的公司将在无人驾驶领域拉开差距。
无人驾驶简介
自动驾驶汽车(也称无人驾驶汽车,自动驾驶汽车和机器人汽车)是一种能够在没有人力投入的情况下感知其环境和驾驶的汽车。
自主汽车结合了各种技术来感知周围环境,包括雷达,激光,GPS,测距和计算机视觉。先进的控制系统解释传感信息,以确定适当的导航路径,以及障碍物和相关标牌。
剩余内容已隐藏,请支付后下载全文,论文总字数:21535字
该课题毕业论文、开题报告、外文翻译、程序设计、图纸设计等资料可联系客服协助查找;