5个研究背景和意义示例,教你写计算机车路协同论文

今天分享的是关于车路协同的5篇计算机毕业论文范文, 如果你的论文涉及到车路协同等主题,本文能够帮助到你 基于交通状态特征的自适应引导系统设计与实现 这是一篇关于交通状态特征

今天分享的是关于车路协同的5篇计算机毕业论文范文, 如果你的论文涉及到车路协同等主题,本文能够帮助到你

基于交通状态特征的自适应引导系统设计与实现

这是一篇关于交通状态特征,交通状态评估,自适应引导,车路协同的论文, 主要内容为随着机动车保有量不断攀升,交通压力日益加大,如何自适应的引导车辆以提高交通效率始终是智慧交通中亟待解决的难题。近年来,已有基于传统机器学习的自适应引导研究方法,通过对历史交通数据进行学习,对交通状态进行预测,制定引导策略。然而鉴于城市交通状态多维且具有时变特点,基于历史规律进行的引导在实践中很难取得理想的引导效果。论文以交叉口交通运行状况为研究对象,通过建立静态交通网络模型,对动态交通元素进行组织和管理,提出了交通状态特征构成体系及计算方法,利用聚类方法对交通状态进行实时评估,由此提升了交通状态认知的实时性和准确性,提高了车辆驾驶引导的效率。论文详尽分析了自适应引导系统的需求,提出了动态交通元素的组织和管理方法,以及交通状态特征的计算方法,从车辆运行轨迹中挖掘交通状态特征以构建特征数据集,并完成了交通状态评估和自适应引导策略制定。之后完成了系统功能的架构设计,对功能模块进行了清晰划分,并对该系统进行详细地设计和实现。通过搭建实验环境对本文所研究内容进行验证,结果显示该方案能够有效地识别出道路上的交通状况并给出合理的建议车速。

基于V2X的路侧单元融合感知与车辆信息交互

这是一篇关于目标检测,关联匹配,融合感知,车路协同的论文, 主要内容为在以深度学习为突破的“AI时代”浪潮下,自动驾驶受到了人们前所未有的关注,国内外在该领域的研究和实验正如火如荼的进行,自动驾驶日渐成为未来科技发展的新方向。由于交通场景错综复杂,单车智能的方案对车端的感知能力和运算效率要求很高,而车路协同的方案通过增加智能的路侧感知设备,扩大了目标检测范围并且降低了车端的运算负担,为自动驾驶提供了更多的安全冗余,对未来智慧交通的发展具有重要意义。图像拥有丰富的颜色、纹理信息,但是缺乏准确的距离信息。点云数据能够很好的描述物体的空间位置,但是纹理信息相对不够丰富。本文主要对路侧单元中激光雷达与相机的融合感知及车路交互的实现进行了研究,主要内容如下:路侧单元采取了目标级融合感知方案,在目标的感知与获取阶段,首先对相机和激光雷达进行了标定,在相机感知通道中本课题在YOLOv5的基础上提出了GCC-yolo来获取图像目标信息,GCC-yolo在提取特征时拥有更多的梯度流信息并在特征金字塔中引入了注意力机制使特征提取更加高效,同时利用Ghost Net的思想降低了网络参数量,提高计算效率。在激光雷达三维感知通道上,基于Point Pillars算法提出RGB与点云融合编码方案CPA Pillar,充分利用相机通道获取的RGB信息优化点云数据中对点特征的编码方式,使pillar能够携带更加丰富的特征,同时在主干网络中引入通道注意力机制,更有效的提取数据特征。在信息融合与交互阶段,使用KM算法对目标进行关联和匹配。本课题通过位置估计将全局搜索匹配优化为局部搜索匹配,提高了匹配效率。然后通过扩展卡尔曼滤波输出目标属性的融合结果。基于V2X的车路交互消息层数据集利用了ASN.1标准进行编码,并将感知融合结果写入到车路交互消息体,消息格式遵循“消息帧、消息体、数据帧、数据元素”层层嵌套的逻辑。基于融合感知结果本课题采用车辆请求及道路共享消息,并通过实验验证了车辆向路侧节点发送Msg_VIR消息请求后,路侧设备能够将激光雷达和相机双通道感知融合的目标信息通过Msg_SSM消息共享给请求车辆,实现车路信息的交互。

基于远近景视频图像融合的车辆检测与跟踪方法

这是一篇关于车路协同,图像处理,视频拼接,车辆检测,车辆跟踪的论文, 主要内容为车辆是路侧监控系统中重要的目标。随着车路协同技术的发展,对车辆感知提出了更高的要求。目前,摄像头作为路侧感知系统的重要组成,广泛应用于驾驶行为监测、车辆轨迹跟踪与流量监控等方面。然而监控场景往往存在盲区,其根本原因在于单个摄像头捕捉画面有限,导致道路车辆信息获取不够全面。针对该问题,若使用不同视角摄像头分别对道路车辆拍摄展示,此时车辆表观特征与尺度信息的变化对检测跟踪的可靠性提出了更高的要求;而利用广角镜头则成本较高。因此,将多个视域进行拼接融合,同时监测车辆状态,对于保证道路服务水平与通行效率具有重要的意义。为扩大路侧摄像头的有效视域,本文将视频拼接技术应用于路侧感知系统,开展基于远近景视频图像融合的车辆检测与跟踪研究。首先,构建了远近景视频拼接模型。针对全局单应矩阵求解不准确问题,将多控制帧特征点与随机抽样一致性(RANSAC)算法结合,有效分离出前景与背景特征点,根据背景特征点匹配关系求解相对位置固定摄像头下的单应变换。由于摄像头间存在曝光差异,基于匹配的特征点对,对RGB各通道像素差异进行线性矫正,使得远近景视频曝光相似。在构建能量图以搜寻最优拼缝时,根据前置曝光差异可靠程度对重叠区域强度差异与梯度差异进行权重分配。最后以最优拼缝处的色彩饱和度差异为基础,对融合区域进行优化以解决重叠区域内前景移动产生的重影问题。经过上述优化手段,本文提出的视频拼接方法可以有效解决前景截断与重影问题。其次,构建了基于YOLOv4网络的车辆检测优化模型。在网络结构方面,针对骨干特征提取网络Efficient Net卷积层中dropout影响后续多尺度特征融合的问题,本文提出的网络对Mobile-Block主分支的dropout操作去除;同时在Neck部分引入CAM通道注意力模块,有效衡量经上采样的深层特征与浅层特征融合时各通道的重要程度。将本文检测模型与SSD、YOLOv3、v4、v5、YOLOX等主流检测网络在BDD100K数据集中不同场景进行测试对比,实验结果显示本文检测模型在car类别上具有较好的检测效果,同时随着前置骨干特征提取网络宽度与深度的增加,模型在bus与truck类别的AP50指标分别由35.7%和19.3%提升至44.1%和33.6%,表明了本文模型具有提高小样本检测精度的潜力。最后,构建了基于Deep SORT算法的多目标车辆跟踪优化模型。保持Deep SORT跟踪框架的同时,在网络结构部分,本文采用提出的Efficient Net-B5-YOLOv4检测器提升对道路车辆的检测能力。针对原Deep SORT跟踪效率较低与遮挡场景下的车辆ID跳变问题,引入Ghost Net不仅以较小复杂度提升网络特征冗余效果,同时以低维表观特征向量的形式加速级联匹配过程。在前置检测器相同的条件下,将本文提出的模型与原Deep SORT算法在UADETRAC数据集中不同场景进行测试对比,实验结果显示本文跟踪模型在平均跟踪准确度、跟踪精度与跟踪速度上分别提升了0.5%、4.2%与2.22FPS,同时车辆ID跳变频次减少20次,表明本文跟踪模型在一定程度上可以有效缓解因遮挡与复杂环境引起的车辆跟踪丢失问题。

面向自动驾驶场景车路协同的超视距感知验证平台设计与开发

这是一篇关于自动驾驶车辆,车路协同,移动边缘计算,目标检测,毫米波的论文, 主要内容为自动驾驶车辆的安全高效运行离不开对周围环境的感知,这种环境感知主要表现为目标检测。然而基于深度学习的目标检测模型计算复杂度过高,不能直接将检测任务部署在资源有限的移动端,卸载到云端又会带来很大的响应时延。此外,感知层对目标检测技术是至关重要的,但现阶段单车感知在很多场景下会出现视觉盲区,影响车辆的安全驾驶。因此本文围绕这两个技术难点,设计了基于边缘计算的实时目标检测框架,并搭建了高低频协同的超视距感知平台,提高了自动驾驶车辆的检测性能并拓展了其感知范围。本文的贡献主要分为两部分:(1)面向自动驾驶高性能实时目标检测的需求,本文提出了基于边缘计算的目标检测框架,将服务器从云端下放至边缘侧,提供实时的检测服务。单阶段目标检测算法YOLOX是目前的主流算法并且满足自动驾驶的需求,但是该算法在高密集目标区域中对小目标的检测精度并不理想。针对这一问题本文采用CIOU损失作为模型的定位损失函数,并选取KITTI数据集对模型训练。训练结果表示,本文所提的改进YOLOX模型提高了小目标的检测能力,检测精度相较于原始YOLOX模型和双阶段Faster RCNN模型分别提升1.4%和2.7%。(2)针对自动驾驶单车感知存在视野盲区的问题,本文提出了毫米波和Sub-6GHz不同空口频段协同的超视距感知模型,充分发挥毫米波频段大带宽优势以及Sub-6GHz频段广覆盖优势,并于实验室搭建了 28GHz毫米波硬件平台和Sub-6GHz USRP硬件平台,将视频传输业务作为性能分析的基础。基于所搭建的硬件平台进行链路性能对比,仿真实验表明,相较于只考虑Sub-6GHz频段的部署方式,毫米波高频段和Sub-6GHz低频段协同的架构可以降低时延29.8%,且链路吞吐量提高93.2%。

面向自动驾驶场景车路协同的超视距感知验证平台设计与开发

这是一篇关于自动驾驶车辆,车路协同,移动边缘计算,目标检测,毫米波的论文, 主要内容为自动驾驶车辆的安全高效运行离不开对周围环境的感知,这种环境感知主要表现为目标检测。然而基于深度学习的目标检测模型计算复杂度过高,不能直接将检测任务部署在资源有限的移动端,卸载到云端又会带来很大的响应时延。此外,感知层对目标检测技术是至关重要的,但现阶段单车感知在很多场景下会出现视觉盲区,影响车辆的安全驾驶。因此本文围绕这两个技术难点,设计了基于边缘计算的实时目标检测框架,并搭建了高低频协同的超视距感知平台,提高了自动驾驶车辆的检测性能并拓展了其感知范围。本文的贡献主要分为两部分:(1)面向自动驾驶高性能实时目标检测的需求,本文提出了基于边缘计算的目标检测框架,将服务器从云端下放至边缘侧,提供实时的检测服务。单阶段目标检测算法YOLOX是目前的主流算法并且满足自动驾驶的需求,但是该算法在高密集目标区域中对小目标的检测精度并不理想。针对这一问题本文采用CIOU损失作为模型的定位损失函数,并选取KITTI数据集对模型训练。训练结果表示,本文所提的改进YOLOX模型提高了小目标的检测能力,检测精度相较于原始YOLOX模型和双阶段Faster RCNN模型分别提升1.4%和2.7%。(2)针对自动驾驶单车感知存在视野盲区的问题,本文提出了毫米波和Sub-6GHz不同空口频段协同的超视距感知模型,充分发挥毫米波频段大带宽优势以及Sub-6GHz频段广覆盖优势,并于实验室搭建了 28GHz毫米波硬件平台和Sub-6GHz USRP硬件平台,将视频传输业务作为性能分析的基础。基于所搭建的硬件平台进行链路性能对比,仿真实验表明,相较于只考虑Sub-6GHz频段的部署方式,毫米波高频段和Sub-6GHz低频段协同的架构可以降低时延29.8%,且链路吞吐量提高93.2%。

本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:代码向导 ,原文地址:https://m.bishedaima.com/lunwen/54109.html

相关推荐

发表回复

登录后才能评论