推荐10篇关于障碍物检测的计算机专业论文

今天分享的是关于障碍物检测的10篇计算机毕业论文范文, 如果你的论文涉及到障碍物检测等主题,本文能够帮助到你 基于视觉的园区无人车可通行区域检测方法研究 这是一篇关于园区无人车

今天分享的是关于障碍物检测的10篇计算机毕业论文范文, 如果你的论文涉及到障碍物检测等主题,本文能够帮助到你

基于视觉的园区无人车可通行区域检测方法研究

这是一篇关于园区无人车,可通行区域,车道线检测,障碍物检测,立体视觉的论文, 主要内容为随着现代交通的智能化发展,无人驾驶技术应用日益广泛。对周围环境的准确感知是无人驾驶汽车安全行驶的基础,基于视觉的可通行区域检测是环境感知技术的重要研究方向之一。针对园区场景环境特征,本文开展了基于视觉的园区无人驾驶汽车可通行区域检测方法的研究。研究内容如下:首先,针对园区车道线标识与城市交通、高速公路差异较大、现有算法适用性差等问题,提出一种基于改进Lane Net和卷积神经网络(Convolutional Neural Networks,CNN)的车道线检测方法。通过优化Lane Net二值分割分支损失函数提升检测精度;通过简化H-Net网络自适应透视变换矩阵提升检测速度;基于车道线分割实例,通过CNN对园区场景内常见车道线进行分类识别。实验结果表明,提出方法较Lane Net算法的车道线检测精度在Tu Simple和CULane数据集上分别提升1.2%和1.9%,且针对园区内常见车道线类型有较好的识别效果。其次,考虑到园区场景中存在障碍物检测准确率低、实时性不足等问题,提出一种结合改进YOLOv3和立体视觉的障碍物检测方法。通过优化特征提取网络减少前向推断时间,提升模型检测速度;通过增加特征图尺度、改进损失函数、重新聚类先验框尺寸等方式,提升模型检测精度;并将改进后的模型应用于双目立体相机,获得障碍物与无人车的距离信息。实验结果表明,提出方法较YOLOv3算法帧率增加8fps,m AP提升4.19%,且园区内障碍物平均测距误差低至4.67%。最后,通过分析车道线与障碍物的检测结果,提出一种基于机器人操作系统(Robot Operating System,ROS)框架的可通行区域检测方法。将车道线检测及分类结果、障碍物识别及测距结果以ROS话题发布,由可通行区域检测功能包订阅该话题;划定车辆行驶平面并对障碍物进行膨胀操作,发布可通行区域话题并实现效果可视化。实验结果表明提出方法能较准确进行园区无人车可通行区域检测。

园区环境下无人车的可通行区域检测与判别方法研究

这是一篇关于园区环境,无人车,车道线检测,障碍物检测,可通行区域的论文, 主要内容为无人驾驶技术能够有效提高道路行驶安全性,改善通行效率。无人驾驶的系统主要包括:环境感知、决策规划和运动控制。环境感知是其中最为关键的部分,是智能车辆进行精准决策与规划的前提。车道线检测、道路障碍物检测、可通行区域检测是自动驾驶感知系统的重要且必要的任务,是无人驾驶车辆理解外界的基础。本文依托横向项目“无人驾驶新能源智能汽车教学演示系统研发”,研究基于视觉的园区环境下无人车的可通行区域检测与判别相关感知算法。本文主要研究内容如下:首先,本文提出一种融合CBAM注意力机制与可变形卷积的CADCN方法对复杂场景下的车道线进行检测,利用融合CBAM注意力机制与可变形卷积的改进Res Net34对车道线特征进行提取;利用行锚分类方法在预定义的行锚上对车道线进行选择与分类,减少计算量;在Tu Simple/CULane车道线公开数据集上进行训练及验证,实验表明本文提出的车道线检测模型的准确性、实时性以及鲁棒性都表现较好。其次,针对复杂道路场景下的障碍物目标的多尺度特征及遮挡环境下容易出现误检、漏检的情况,提出一种基于感受野增强与多尺度特征自适应融合的改进YOLOv5的道路目标检测方法,在数据集和实车上进行了验证,在保持较高实时性的同时提高了目标的检测效果。最后,设计了基于多任务学习的联合分割与检测网络,在一个网络框架中同时完成对道路可通行区域的分割及目标检测两个任务。结合车道线、道路障碍物及道路可通行区域三部分的信息,可更好地对无人车周围环境进行感知,为无人车在可通行区域内进行路径规划提供基础。基于本文算法研究成果,在基于长城欧拉R1改装的无人驾驶汽车平台上进行了算法试验研究,结果表明,本文提出的方法在校园环境中能够对无人车的可通行区域进行检测与识别,具有较好的检测效果及鲁棒性,可满足园区环境下无人车对车辆周围环境感知的需求。

基于多传感器信息融合的自动驾驶障碍物检测方法研究

这是一篇关于多传感器信息融合,障碍物检测,感兴趣区域提取,点云与图像特征,注意力机制的论文, 主要内容为环境感知是自动驾驶中的关键阶段,全面且准确地感知周围环境信息是自动驾驶车辆行车安全的重要保障。对障碍物目标进行检测与识别是感知阶段中的一项基础性关键工作,对于提高自动驾驶汽车环境理解力具有重要意义。单一感知系统检测算法在应对复杂多变与目标密集的道路环境中存在鲁棒性差、感知能力不足的问题,而目前已有的大部分多传感器融合算法难以精确检测行人、骑行人等较小目标物体,为实现精准的障碍物类别检测,本文开展了基于激光雷达和相机多传感器信息融合的自动驾驶障碍物检测方法研究,研究内容如下:(1)标定是多传感器空间同步、协同工作的核心,也是感知算法准确估计障碍物目标位姿的前提,为此开展了多传感器标定方法研究。分析了单目相机中的透视成像原理,在此理论基础上实现了内参标定实验;分析了激光雷达与相机联合标定的平面靶联合标定模型,并设计联合标定实验,借助ROS与MATLAB等软件平台求解出传感器的内外参矩阵,实现了两坐标系间的转换;完成了激光点云与图像数据的空间配准对齐,验证了联合标定结果的有效性。(2)为了弥补单一传感器在感知检测任务中的不足,提高感知系统的检测精度,实现对障碍物目标更加精确的分类,提出了一种基于激光雷达感兴趣区域提取与视觉融合的障碍物检测方案。开展了基于激光雷达的障碍物点云检测研究,主要包括点云滤波处理、基于角度约束的RANSAC地面点云分割、基于KD-Tree空间索引与自适应参数的障碍物点云聚类以及基于图形包络的三维边界框位姿估计;利用两传感器间的投影变换矩阵将获取到的障碍物点云边界框投影到图像平面,获得了其在图像中对应的区域即感兴趣区域(Region of Interest,ROI),并对图像上的ROI区域适当放大,提出了一种基于贪心算法的重叠区域合并策略以得到最终的ROI区域;利用CSPNet与空间金字塔池化层改进原YOLOV3算法完成特征提取并对ROI区域中障碍物进行检测,将所提出的融合检测算法与仅基于视觉的检测进行对比分析,结果表明融合算法在各类别都达到了最优的检测精度,汽车、行人和骑行人的精度分别达到95.98%,82.36%,88.33%。(3)为了在三维空间中实现精准的障碍物检测,提升行人、骑行人等小目标物体的检测精度,提出了一种基于自注意力机制的点云特征提取与图像融合的三维目标检测网络,实现对三维空间中障碍物的精确检测。对Faster-RCNN算法进行改进以形成障碍物目标的2D检测框,利用激光雷达与相机之间的投影变换矩阵对图像中的检测框进行反向投影形成视锥并提取该视锥体内的点云,减小点云的计算规模与空间搜索范围;提出了一种基于自注意力机制的Self-Attention Point Net网络结构,在视锥范围内对原始点云数据进行实例分割;利用边界框回归Point Net网络和轻量级T-Net网络预测了目标点云的3D边界框参数,同时在损失函数中添加正则化项以提高检测精度;在KITTI数据集上进行了验证,结果表明汽车和行人的检测精度与原模型比均有很好的提高,特别是骑行人的检测精度提升明显,在三种难度下分别增加了12.25%,8.08%,7.23%。(4)为了验证本文所提算法在实际场景中的效果,开展了多传感器设备安装与智能车试验平台搭建,并在校园中实时采集数据进行实车试验。针对提出的基于激光雷达感兴趣区域与视觉融合的障碍物检测算法,设计了感兴趣区域提取与视觉融合实验。首先对点云滤波算法、地面分割算法、障碍物点云聚类与三维边界框估计算法进行了验证,结果表明所提算法在校园场景中都有着良好的表现,然后设计了三个试验场景:行人遮挡、车辆遮挡、行人与车辆同时多处遮挡,所提融合算法都可以输出正确的类别信息,所有目标的检测精度可达到93.74%以上。更进一步,进行了基于自注意力机制的点云特征与图像融合实验。首先设计了两个试验场景来检验视锥切割与目标候选区域提取结果的准确性,结果显示算法可以完整准确地实现视锥体的切割,其次验证了3D目标检测的效果,结果表明所提算法对所有目标的检测的准确率超过85%,性能表现良好。

智能轮椅障碍检测系统研究

这是一篇关于智能轮椅,障碍物检测,超声波,运动控制的论文, 主要内容为我国正逐步进入人口老龄化社会,对于多数老年人和肢体残障人士来说,轮椅已经成为了一种不可或缺的代步工具。为了提高老年人和残障人士生活质量,对于轮椅智能化的研究不断深入,环境感知是其中一项重要的研究内容,它是实现主动避障、路径规划等智能功能的基础,可以排除安全隐患。现有环境感知系统应用于轮椅上大多会出现经济性差,硬件要求高等问题,本文从智能轮椅的安全性、经济性角度出发,设计了一种基于超声波检测技术的障碍检测系统。本文首先讨论了视觉检测、激光雷达检测、红外测距、超声波测距这几种环境感知技术的特点,选择环境适应性较强、经济性好的超声波测距技术作为本文主要障碍物检测技术。介绍了智能轮椅的研究现状、超声波的基本概念和测距原理,并分析了超声波测距误差来源及解决办法。针对智能轮椅的结构特点及性能要求完成了智能轮椅障碍检测系统总体方案的设计,其中包括人机交互模块、障碍物检测模块、通讯模块、轮椅驱动模块、电源模块及机械结构。然后基于STM32F103CBT6芯片设计了智能轮椅障碍检测系统的主控制器和超声波传感器,并分别从硬件电路和软件算法两方面进行了详细介绍。硬件电路部分主要工作为:完成MCU最小系统电路、电源电路、通讯电路、人机交互模块电路、超声波收发电路等模块的原理图设计和PCB板设计。软件算法部分主要工作为:通过Hilbert变换求包络、滤波、回波起点搜索、温度补偿等算法实现了超声波传感器对障碍物距离的精准测量,利用CAN总线实现了多路超声波、主控制器、电机驱动器之间的数据传输,使用语音模块和显示器完成了障碍物预警工作,设计了一种基于多传感器融合运动控制算法,提高了轮椅的安全性。最后,搭建实验平台,对智能轮椅障碍检测系统进行测试。完成了超声波传感器的精度实验和测距角度实验,在0.26~2.5m范围内可以稳定测得平面型障碍物的测距且相对误差不超过1%,在0.9m范围内检测角度不小于45.8度,在2.5m处的检测角度为15.4度。完成了障碍物检测系统的功能测试,实验结果表明该智能轮椅障碍检测系统可以实现正前方等六个方位的障碍物检测及预警工作,其融合运动控制算法可以在发生碰撞之前完成轮椅制动,提高了轮椅的安全性。

基于双目VI-SLAM与标签引导的AGV视觉导航系统设计与实现

这是一篇关于双目VI-SLAM,标签引导,障碍物检测,视觉导航,AGV的论文, 主要内容为随着搬运机器人AGV在制造业、仓储业等行业使用得越来越多,解决了工业生产和物流运输中许多问题,因此AGV的研究也得到越来越多学者的关注。而AGV的主要技术之一就是导航技术。本文基于福建省产学研重点项目“基于视觉与惯性定位的自主导航AGV装置研发”进行开展研究,开发出一款适合室内的潜伏式AGV视觉导航系统。首先,采用双目视觉和惯性测量融合进行VI-SLAM算法的设计。其中建图部分,通过视觉提取ORB特征点计算重投影误差与IMU预积分紧耦合优化获得当前所走路径的位置和地图,保存成二进制文件;并通过深度相机拼接每一个关键帧的点云,生成稠密得点云地图,经过处理生成栅格地图用于导航;接着AGV在所建地图的场景启动VI-SLAM将所生成的地图加载出来进行重定位,获得初始时刻在地图上的位置,实现自主导航定位。另外,针对特殊场景需要高精度定位的问题,通过Aruco视觉标签进行高精度相对定位与引导。其次,利用ROS中的Navigation框架进行导航系统设计与实现。采用A*算法和TEB算法进行路径规划;并通过将视觉的深度图转化为激光点云图和AGV前方适当距离的视觉点云结合进行障碍物检测,解决2D激光雷达扫描不到低矮障碍物的盲区问题。最后,在研发的AGV产品样机上,搭载“小觅”双目深度相机与设计的视觉导航系统,通过EuRoC数据集对双目VI-SLAM进行测试,验证了定位的精度和鲁棒性;通过测试多次到达同一点的重复定位精度,求取平均值,结果表明导航系统具有较高的精度、视觉标签引导能实现高精度引导;并且从路径规划实验中,可看出融合视觉感知后的避障能力得到明显提高。

基于双目VI-SLAM与标签引导的AGV视觉导航系统设计与实现

这是一篇关于双目VI-SLAM,标签引导,障碍物检测,视觉导航,AGV的论文, 主要内容为随着搬运机器人AGV在制造业、仓储业等行业使用得越来越多,解决了工业生产和物流运输中许多问题,因此AGV的研究也得到越来越多学者的关注。而AGV的主要技术之一就是导航技术。本文基于福建省产学研重点项目“基于视觉与惯性定位的自主导航AGV装置研发”进行开展研究,开发出一款适合室内的潜伏式AGV视觉导航系统。首先,采用双目视觉和惯性测量融合进行VI-SLAM算法的设计。其中建图部分,通过视觉提取ORB特征点计算重投影误差与IMU预积分紧耦合优化获得当前所走路径的位置和地图,保存成二进制文件;并通过深度相机拼接每一个关键帧的点云,生成稠密得点云地图,经过处理生成栅格地图用于导航;接着AGV在所建地图的场景启动VI-SLAM将所生成的地图加载出来进行重定位,获得初始时刻在地图上的位置,实现自主导航定位。另外,针对特殊场景需要高精度定位的问题,通过Aruco视觉标签进行高精度相对定位与引导。其次,利用ROS中的Navigation框架进行导航系统设计与实现。采用A*算法和TEB算法进行路径规划;并通过将视觉的深度图转化为激光点云图和AGV前方适当距离的视觉点云结合进行障碍物检测,解决2D激光雷达扫描不到低矮障碍物的盲区问题。最后,在研发的AGV产品样机上,搭载“小觅”双目深度相机与设计的视觉导航系统,通过EuRoC数据集对双目VI-SLAM进行测试,验证了定位的精度和鲁棒性;通过测试多次到达同一点的重复定位精度,求取平均值,结果表明导航系统具有较高的精度、视觉标签引导能实现高精度引导;并且从路径规划实验中,可看出融合视觉感知后的避障能力得到明显提高。

基于双目VI-SLAM与标签引导的AGV视觉导航系统设计与实现

这是一篇关于双目VI-SLAM,标签引导,障碍物检测,视觉导航,AGV的论文, 主要内容为随着搬运机器人AGV在制造业、仓储业等行业使用得越来越多,解决了工业生产和物流运输中许多问题,因此AGV的研究也得到越来越多学者的关注。而AGV的主要技术之一就是导航技术。本文基于福建省产学研重点项目“基于视觉与惯性定位的自主导航AGV装置研发”进行开展研究,开发出一款适合室内的潜伏式AGV视觉导航系统。首先,采用双目视觉和惯性测量融合进行VI-SLAM算法的设计。其中建图部分,通过视觉提取ORB特征点计算重投影误差与IMU预积分紧耦合优化获得当前所走路径的位置和地图,保存成二进制文件;并通过深度相机拼接每一个关键帧的点云,生成稠密得点云地图,经过处理生成栅格地图用于导航;接着AGV在所建地图的场景启动VI-SLAM将所生成的地图加载出来进行重定位,获得初始时刻在地图上的位置,实现自主导航定位。另外,针对特殊场景需要高精度定位的问题,通过Aruco视觉标签进行高精度相对定位与引导。其次,利用ROS中的Navigation框架进行导航系统设计与实现。采用A*算法和TEB算法进行路径规划;并通过将视觉的深度图转化为激光点云图和AGV前方适当距离的视觉点云结合进行障碍物检测,解决2D激光雷达扫描不到低矮障碍物的盲区问题。最后,在研发的AGV产品样机上,搭载“小觅”双目深度相机与设计的视觉导航系统,通过EuRoC数据集对双目VI-SLAM进行测试,验证了定位的精度和鲁棒性;通过测试多次到达同一点的重复定位精度,求取平均值,结果表明导航系统具有较高的精度、视觉标签引导能实现高精度引导;并且从路径规划实验中,可看出融合视觉感知后的避障能力得到明显提高。

基于机器视觉的道路障碍物检测技术研究

这是一篇关于机器视觉,道路识别,障碍物检测,语义分割,不确定性评估的论文, 主要内容为高速道路中的障碍物通常是引发交通安全事故的原因之一。由于道路环境复杂,道路上的障碍物多种多样且尺寸不一,从小到碎石,大到轮胎,导致有效地识别道路区域和准确地检测道路中的障碍物成为了困难,尤其是高速路远距离障碍物的检测精度低。随着图像处理技术的发展,利用计算机视觉检测道路中的障碍物是目前重要的研究方向。因此,本文针对存在的问题进行了如下研究:(1)基于语义分割算法,设计了RCANet网络模型,用于检测道路区域和道路中的目标(行人、车辆等)。通过分析现有的语义分割模型结构在道路区域的检测精度和运行时间上的问题,采用了检测精度和实时性都较好的EfficientNet作为主干网络。根据车载和高速公路摄像头的部署位置,提出利用与位置信息相关联的位置编码,设计区域注意力机制模块,用于强调图像中不同区域物体类别之间的相对位置关系。同时,结合网络模型中的不同特征层上下文语义信息,改善算法在道路区域和目标上的检测精度。(2)基于能量理论、生成式和判别式的分类思想,设计了一种不确定性评估算法,对图像中的每个像素点进行概率估计,输出得分图,用于道路障碍物检测。为了使已知类别物体的分布保持一致性和避免模型之间的相互影响,本文采用解耦合方式设计Teacher-Student检测网络,并在Student网络上给出不确定性评估算法的推理和训练流程。另外,还提出使用道路区域检测网络生成的感知差异性图补偿得分图,进一步提升障碍物和非障碍物的区分度。最后,通过障碍物和非障碍物像素点的概率统计分布,验证了本文设计的算法能够有效的将两者分离,且在检测远距离障碍物上精度的提高。(3)为了能够将设计的算法应用于实际中,本文利用Spring Boot、My SQL等开发框架,将算法和应用整合到一起,设计了可视化的障碍物监视软件。通过读取图像或视频数据进行预处理和障碍物检测后,再将结果进行显示,输出障碍物位置,并且还实现了检测结果的保存与查询功能。

基于CenterNet的自动驾驶车辆前方障碍物检测方法研究

这是一篇关于自动驾驶,障碍物检测,CenterNet,注意力机制,卷积神经网络的论文, 主要内容为随着人工智能技术的发展,自动驾驶技术已成为当今学术界和工业界的研究热点,其中障碍物检测技术是自动驾驶技术的核心技术。目前主流的障碍物检测技术普遍采用基于卷积神经网络的障碍物检测方法,该方法相比传统的手动提取特征的方法具有更好的鲁棒性,能更好的适应自动驾驶领域。但基于深度卷积神经网络的障碍物检测方法在检测速度和准确度上有着很难调和的矛盾。由于自动驾驶信息感知和融合系统需要及时准确的识别交通环境和各种障碍物属性,所以设计一同时具有高检测速度和高准确度的障碍物检测模型尤为重要。本文在Center Net障碍物检测模型的基础上,设计了Fast Center Net障碍物检测模型,主要研究内容如下:(1)基于Center Net障碍物检测模型,对Hourglass网络模型进行改进,减少其参数量和计算量,设计DS_HG模型。对Center Net障碍物检测模型中只用最后一张特征图的方法进行了改进,充分考虑多张特征图的融合。本文在融合特征图时,对特征图添加可学习权重,提出了t FPN特征图融合方法,可以使模型通过自主学习得到各个特征图对最后检测结果的重要性。在Center Net障碍物检测模型的基础上,本文考虑了注意力机制的使用,通过改进卷积块注意力模型(Convolutional Block Attention Module,CBAM)机制,以便最后通过热图对障碍物检测结果进行解码。(2)设计了Fast Center Net障碍物检测模型,该模型在保证Center Net的检测准确度的条件下,大幅提高了障碍物检测速度。通过在MS COCO数据集上的实验表明,Fast Center Net障碍物检测模型的检测准确度AP值和速度FPS分别达到了44.0和35,比Center Net障碍物检测模型分别提高了1.6%和150%。最后在KITTI数据集上,AP值和速度FPS分别达到了98.5和38,可以满足自动驾驶中障碍物检测的使用需求。(3)在Panosim仿真平台搭建了车辆避障环境,通过障碍物检测模型实现了对障碍物的检测。通过对比实验,Fast Center Net障碍物检测模型比Center Net模型较早的检测到障碍物比较平滑的对车辆进行控制。

园区环境下无人车的可通行区域检测与判别方法研究

这是一篇关于园区环境,无人车,车道线检测,障碍物检测,可通行区域的论文, 主要内容为无人驾驶技术能够有效提高道路行驶安全性,改善通行效率。无人驾驶的系统主要包括:环境感知、决策规划和运动控制。环境感知是其中最为关键的部分,是智能车辆进行精准决策与规划的前提。车道线检测、道路障碍物检测、可通行区域检测是自动驾驶感知系统的重要且必要的任务,是无人驾驶车辆理解外界的基础。本文依托横向项目“无人驾驶新能源智能汽车教学演示系统研发”,研究基于视觉的园区环境下无人车的可通行区域检测与判别相关感知算法。本文主要研究内容如下:首先,本文提出一种融合CBAM注意力机制与可变形卷积的CADCN方法对复杂场景下的车道线进行检测,利用融合CBAM注意力机制与可变形卷积的改进Res Net34对车道线特征进行提取;利用行锚分类方法在预定义的行锚上对车道线进行选择与分类,减少计算量;在Tu Simple/CULane车道线公开数据集上进行训练及验证,实验表明本文提出的车道线检测模型的准确性、实时性以及鲁棒性都表现较好。其次,针对复杂道路场景下的障碍物目标的多尺度特征及遮挡环境下容易出现误检、漏检的情况,提出一种基于感受野增强与多尺度特征自适应融合的改进YOLOv5的道路目标检测方法,在数据集和实车上进行了验证,在保持较高实时性的同时提高了目标的检测效果。最后,设计了基于多任务学习的联合分割与检测网络,在一个网络框架中同时完成对道路可通行区域的分割及目标检测两个任务。结合车道线、道路障碍物及道路可通行区域三部分的信息,可更好地对无人车周围环境进行感知,为无人车在可通行区域内进行路径规划提供基础。基于本文算法研究成果,在基于长城欧拉R1改装的无人驾驶汽车平台上进行了算法试验研究,结果表明,本文提出的方法在校园环境中能够对无人车的可通行区域进行检测与识别,具有较好的检测效果及鲁棒性,可满足园区环境下无人车对车辆周围环境感知的需求。

本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:毕设工厂 ,原文地址:https://m.bishedaima.com/lunwen/54291.html

相关推荐

发表回复

登录后才能评论