基于深度卷积神经网络路标语义时空关联的视觉地点识别
这是一篇关于视觉地点识别,路标,同步定位与建图,图卷积,无人车系统的论文, 主要内容为视觉地点识别技术作为视觉同步定位与建图的关键技术之一,成为近年来的研究热点。当前基于单帧图像的卷积神经网络路标(Conv Net路标)的方法因其对视点和外观变化具有良好的鲁棒性受到广泛关注,但是当面临复杂的环境时,基于单帧图像检测出的Conv Net路标的可重复性与实际应用需求存在差距;图像序列能够提供一个目标多时段、多角度的信息,有助于筛选出可重复性更高的Conv Net路标。为了提升复杂环境中视觉地点识别的性能,本文针对Conv Net路标与图像序列相结合问题展开研究,取得如下创新成果:为了应对更为复杂的环境变化,提出了一种基于时空语义关联路标的视觉地点描述算法,将对视点和外观变化稳定的Conv Net路标与具有多视角、多时段信息的图像序列相结合,构建更具有鉴别能力的视觉地点描述子。通过在八个公开数据集上测试,验证了本文提出的基于时空语义关联路标的视觉地点描述算法在应对多种环境和视点变化时都有显著的性能提升。为了提升计算效率保障无人车系统的实时性,提出了一种基于图卷积神经网络的视觉地点匹配算法,将由无序排列的路标特征组合成的图像序列特征通过图卷积神经网络生成一个紧凑的向量,将其用于粗匹配阶段查找N近邻;同时为了进一步提升视觉地点识别在匹配阶段的准确率,提出了一种两阶段融合的视觉地点匹配算法,将基于图卷积神经网络的视觉地点匹配阶段的相似度与基于路标空间信息和几何信息的视觉地点匹配阶段的相似度进行加权求和。通过在公开数据集上测试,验证了基于图卷积神经网络的视觉地点匹配算法在时间效率上的显著提升和两阶段融合的视觉地点匹配算法在准确率上的提升。为了验证本文所提的视觉地点识别相关算法在真实场景的有效性,设计并实现了一套基于纯视觉导航的轻量级无人车系统。该无人车系统由三个功能独立、逻辑分明的简单模块组成。这种功能严格区分的低耦合设计,一方面降低了系统的复杂度,易于二次开发;另一方面能够简化硬件设计,从而大大降低整个系统的硬件成本;除此之外,纯视觉设计便于对视觉算法展开研究。将本文所提视觉地点识别相关算法应用于该系统进行实景测试,验证了本文所提算法的有效性和优越性,也验证了该无人车系统设计合理、适用场景灵活且性能稳定。该无人车系统低成本、简单易实现和易于开发等特性,可为领域内相关人员的研究提供有益的参考和借鉴。
厂区场景下无人车环境感知系统和轨迹跟踪控制系统设计与实现
这是一篇关于激光雷达,障碍物检测,同步定位与建图,模型预测控制,轨迹跟踪的论文, 主要内容为近年来,随着无人驾驶技术的快速发展,无人驾驶车辆匹配了越来越多的使用场景。无人驾驶车辆主要由底盘和无人驾驶系统组成,无人驾驶系统中环境感知是前提,轨迹跟踪控制是实现车辆自主行驶的基础,本文针对厂区场景的预设路径轨迹跟踪行驶任务,设计出相应的环境感知系统和轨迹跟踪控制系统。障碍物检测系统中,针对传统欧氏聚类算法聚类分割小体积障碍物不准确的问题,提出了改进欧氏聚类算法以提高小体积障碍物检测的准确率;定位系统中,由于厂区中房屋、厂房排布较为紧密,GPS信号弱,无人车容易丢失位置信息,所以使用同时定位和建图技术进行优化,利用点云配准算法计算出车辆位姿信息;由于厂区中对车辆有限速要求,为简化轨迹跟踪控制系统的复杂程度,基于车辆运动学单轨模型,设计出模型预测的轨迹跟踪控制算法。具体的研究内容的总结如下:首先,针对厂区场景下欧氏聚类算法检测小体积障碍物不准确的问题,提出了一种基于改进欧氏聚类算法的障碍物检测算法,障碍物检测算法共分为预处理阶段和聚类分割阶段。预处理阶段明确感兴趣区域后,利用随机采样最大似然估计算法准确地分离地面点云和非地面点云,为聚类分割阶段提供丰富的障碍物点云信息。聚类分割阶段,提出利用区域划分策略来改进欧氏聚类算法,以提高聚类分割的准确率,并通过点云远疏近密的特性,建立距离与相邻点云间距关系模型,解决了阈值选择困难问题。最后进行实车试验,验证了改进欧氏聚类算法相较于欧氏聚类算法能提高障碍物检测的准确率,所设计的环境感知系统能较准确地检测出障碍物。其次,针对厂区场景GPS信号较弱,无人车无法利用GPS完成定位的问题,提出了利用同步定位和建图技术优化定位系统。利用Autoware的激光雷达建图功能模块,建立一张既定行驶路径的环境点云地图,并通过基于正态分布的点云配准算法计算车辆当前时刻的位姿。通过实车试验,车辆行驶一圈后定位误差仍小于0.2m,证明了基于点云地图的定位方案能担任厂区场景下车辆的定位任务。最后基于车辆运动学单轨模型,设计出模型预测控制算法,利用Carsim和Simulink搭建联合仿真模型,检验预设路径下沿轨迹行驶的能力。仿真试验表明,车辆运动学模型不仅能降低轨迹跟踪控制系统的复杂程度,同时具有较好的轨迹跟踪行驶能力,证明了轨迹跟踪控制系统的有效性。
基于因子图优化的多源紧耦合SLAM系统设计与实现
这是一篇关于同步定位与建图,多传感器融合,因子图优化,红外图像的论文, 主要内容为在软硬件技术进步背景下,随着智能载体从云端到终端的转变,自主机器人和室外移动地图等终端感知智能应用正在迅速普及。基于外部传感器融合的同步定位与建图(SLAM)技术能提供实时准确的地图重建和位姿估计,提供终端智能决策的底层依据,是感知智能的技术前提。现有的多传感器融合SLAM解决方案存在感知组合性能不足、挑战场景性能退化和场景失效策略不全等问题。本文选择红外单目相机、多线激光雷达和惯性导航作为硬件感知组合,设计以及实现了完整的多传感器融合感知定位系统解决方案。该系统采用前端-后端分离软件架构,实现了感知定位终端软件、部署测试终端软件、系统管理终端软件和多传感器融合SLAM算法模块。终端软件为感知定位用户提供地图构建和实时定位等功能,面向部署测试用户提供标定测试功能,面向系统管理用户提供地图管理等功能。后端核心提出以及实现了基于因子图优化的多源紧耦合SLAM算法,该算法在视觉前端中利用直接法处理灰度梯度低但是面向光照条件鲁棒的红外图像输入,基于运动-时间阈值策略选择关键帧并提取点线特征,通过多模态数据帧对齐构建因子图优化,提供定位建图服务。以软件工程项目管理规范作为指导,本文首先讨论了系统的用户角色组成、应用级以及算法级功能和非功能性需求;其次,根据系统需求概要设计了系统的软件体系架构、物理体系架构和总体技术实现路线,并且具体阐述了基于因子图的多传感器融合SLAM算法原理;本文接着详细设计了各个系统模块的功能逻辑以及算法执行流程;在完成系统实现后,利用上海交通大学视觉与智能实验室的公开数据集M2DGR中代表性的序列充分测试了系统性能,并且修改了相应缺陷。至此,本文完成了基于因子图优化的多源紧耦合SLAM系统的全部建设工作,其中,本文实现的多源融合SLAM算法有效改进了实时性和准确性折中,实现了光照不足和纹理稀疏场景的鲁棒性提升。
基于深度卷积神经网络路标语义时空关联的视觉地点识别
这是一篇关于视觉地点识别,路标,同步定位与建图,图卷积,无人车系统的论文, 主要内容为视觉地点识别技术作为视觉同步定位与建图的关键技术之一,成为近年来的研究热点。当前基于单帧图像的卷积神经网络路标(Conv Net路标)的方法因其对视点和外观变化具有良好的鲁棒性受到广泛关注,但是当面临复杂的环境时,基于单帧图像检测出的Conv Net路标的可重复性与实际应用需求存在差距;图像序列能够提供一个目标多时段、多角度的信息,有助于筛选出可重复性更高的Conv Net路标。为了提升复杂环境中视觉地点识别的性能,本文针对Conv Net路标与图像序列相结合问题展开研究,取得如下创新成果:为了应对更为复杂的环境变化,提出了一种基于时空语义关联路标的视觉地点描述算法,将对视点和外观变化稳定的Conv Net路标与具有多视角、多时段信息的图像序列相结合,构建更具有鉴别能力的视觉地点描述子。通过在八个公开数据集上测试,验证了本文提出的基于时空语义关联路标的视觉地点描述算法在应对多种环境和视点变化时都有显著的性能提升。为了提升计算效率保障无人车系统的实时性,提出了一种基于图卷积神经网络的视觉地点匹配算法,将由无序排列的路标特征组合成的图像序列特征通过图卷积神经网络生成一个紧凑的向量,将其用于粗匹配阶段查找N近邻;同时为了进一步提升视觉地点识别在匹配阶段的准确率,提出了一种两阶段融合的视觉地点匹配算法,将基于图卷积神经网络的视觉地点匹配阶段的相似度与基于路标空间信息和几何信息的视觉地点匹配阶段的相似度进行加权求和。通过在公开数据集上测试,验证了基于图卷积神经网络的视觉地点匹配算法在时间效率上的显著提升和两阶段融合的视觉地点匹配算法在准确率上的提升。为了验证本文所提的视觉地点识别相关算法在真实场景的有效性,设计并实现了一套基于纯视觉导航的轻量级无人车系统。该无人车系统由三个功能独立、逻辑分明的简单模块组成。这种功能严格区分的低耦合设计,一方面降低了系统的复杂度,易于二次开发;另一方面能够简化硬件设计,从而大大降低整个系统的硬件成本;除此之外,纯视觉设计便于对视觉算法展开研究。将本文所提视觉地点识别相关算法应用于该系统进行实景测试,验证了本文所提算法的有效性和优越性,也验证了该无人车系统设计合理、适用场景灵活且性能稳定。该无人车系统低成本、简单易实现和易于开发等特性,可为领域内相关人员的研究提供有益的参考和借鉴。
基于深度学习的稠密建图与SLAM系统研究
这是一篇关于同步定位与建图,光流跟踪网络,机器人操作系统,稠密建图,客户端-服务器模型的论文, 主要内容为同步定位建图技术(Simultaneous Localization and Mapping,SLAM)是在未知区域中实时获取自身定位和环境位置信息的技术。目前,单目SLAM存在建图稀疏的问题和运动较快时容易发生定位丢失的问题。针对这些问题,本文对基于特征点法的单目ORB-SLAM2系统进行改进,提升了系统建图的稠密程度和部分快速运动场景下的鲁棒性。本文工作如下:(1)针对单目ORB-SLAM2系统中建图稀疏的问题,设计了一个基于光流跟踪网络的实时稠密建图模块。基于特征点法的SLAM系统受限于特征点的稀疏性,无法进行实时的稠密匹配,所以本文采用基于深度学习的光流跟踪网络对关键帧进行稠密光流跟踪,并使用光流跟踪结果进行稠密建图。该模块作为新的线程与原系统的局部建图模块并行,在原系统的基础上维护了一个由八叉树全局地图和点云局部地图构成的稠密地图。改进后的系统增加了处理时间,但大幅提升了建图的稠密程度。(2)针对单目ORB-SLAM2系统的视觉里程计在快速运动时容易发生定位丢失的问题,本文提出了一种融合稠密地图的视觉里程计改进方法。由于ORB-SLAM2的视觉里程计依赖于帧间具有深度信息的匹配点,故该方法使用稠密建图模块维护的局部点云地图,在必要时为匹配点补足深度信息,从而在位姿解算环节提供足够的约束信息,使位姿解算更加稳定。该方法提升了系统在部分快速运动场景下的鲁棒性。(3)向基于C++搭建的SLAM系统中引入深度学习网络,一般需要对原网络进行一系列模型转化。本文在机器人操作系统(ROS)上构建了一个基于客户端-服务器模型的SLAM系统。将融合上文稠密建图模块和视觉里程计改进方法的ORB-SLAM2作为系统的客户端节点,可以方便地调用稠密建图模块所需的光流跟踪网络。主流的基于深度学习的光流跟踪网络不必经过模型转化,即可作为系统的服务器节点承担光流跟踪任务。本文以Mask Flow Net和Flow Net2两个光流跟踪网络为例,作为服务器节点进行光流跟踪,并在录制的场景下与多个视觉SLAM系统做比较。实验结果表明,该系统在定位与稠密建图上有良好的表现。
本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:源码工厂 ,原文地址:https://m.bishedaima.com/lunwen/54427.html