基于双目立体视觉的视障辅助系统
这是一篇关于双目立体视觉,立体匹配,感觉替代,电触觉,电刺激的论文, 主要内容为中国由于人口基数庞大,视力障碍群体超过了1700万人,已经是视障人士最多的国家。为了切实可行地为视障群体提供安全有效的辅助服务,本文提出了一种基于双目立体视觉的视障辅助系统。基于双目立体视觉算法,实现三维物体的感知与视差图像的分块计算与拼接。并利用树莓派平台搭建了可移动的轻量双目视觉系统,实时计算生成周围环境的三维数据。使用Arduino单片机和MAX7219驱动板,设计制作了可穿戴的电刺激系统,通过选择适合的刺激强度,对人体表皮进行刺激。基于双目立体视觉的视障辅助系统由三部分组成:双目立体匹配系统,视差图像后处理,电刺激系统。(1)双目立体匹配系统。首先介绍了相机的成像原理与坐标系变换。然后对双目摄像头进行标定校正,使用ARM芯片的树莓派平台与双目摄像头进行光学成像,通过坐标系转换,获得现实三维物体的平面投影。然后对平面图像进行滤波与空洞填充等处理。最后基于双目视差原理,获得视差图像。(2)视差图像后处理。对双目立体视觉成像系统获得的视差图像进行边缘检测增强与图像压缩、图像分割裁剪。将编码后的图像信息,基于串口通信技术,传送给使用Arduino单片机和MAX7219驱动板设计开发的电刺激系统。(3)电刺激系统。使用Arduino单片机和MAX7219驱动板设计开发的电刺激系统,通过串口通信获得编码后的图像信息,重新对这些信息进行解码与图像拼接,并将这种图像信息转化为硬件驱动程序的输入。硬件部分包括逐行扫描驱动电路、高低压隔离电路与保护电路,这些电路驱动电刺激模块对人体表皮进行电刺激。本文开发的基于双目立体视觉的视障辅助系统,在实验室取得较好的实验结果。从理论基础到实验验证证明了这套系统的可行性,对于视力障碍群体的辅助具有一定的价值。
基于FPGA的双目视觉系统设计及立体匹配算法研究
这是一篇关于双目视觉,立体匹配,现场可编程门阵列,卷积神经网络的论文, 主要内容为物体的深度信息在三维重建、机器人导航和自动驾驶等计算机视觉任务中发挥着重要的作用。近年来,双目立体视觉作为一种从立体图像对中获取深度信息的技术,被广泛地应用到各个领域。然而双目立体视觉仍存在一些技术难题,例如难以在资源有限的硬件平台上实现实时的立体视觉系统、现有的系统算法在病态区域匹配精度较低等,使得双目立体视觉在实际场景中的应用受到了限制,本文围绕着上述问题进行了研究,主要工作如下:本文基于FPGA硬件平台搭建了一个完整的双目立体视觉系统,该系统在基于动态规划的全局立体匹配算法的基础上,利用高层次综合工具对立体匹配核心IP进行了设计与优化。实验结果表明:系统中立体匹配模块的吞吐率为690×480/75.5fps,每一千个查找表单元每秒产生的百万视差为90.7,所设计的立体匹配IP核在计算速度和硬件成本间取得了较好的平衡。随后,鉴于传统几何立体匹配算法在病态区域匹配性能较差,影响了系统的整体精度。本文提出了一种基于卷积神经网络的算法MDA-Net,引入了双路径上采样模块和注意力引导的上下文感知金字塔特征提取模块,通过融合不同尺度的语义特征,增强了算法在病态区域的特征提取能力。在KITTI 2015数据集上进行的消融实验结果表明,所提出的模块能够分别减少约8.04%和4.37%的误差,MDA-Net在KITTI 2012测试集上视差图的全局三像素误差为1.76%,单张视差图运算时间为0.4s,在相当运行时间下获得了更精确的视差图。
基于机器视觉的丙烯聚合过程液位检测系统设计
这是一篇关于液位检测,机器视觉,CBAM注意力机制,YOLOv5,立体匹配的论文, 主要内容为聚丙烯简称PP,是丙烯通过加聚反应而成的聚合物,聚丙烯是一种重要的热塑性材料,同时也是一种重要的化工产品和化工原料。在过去几十年里,全球对聚丙烯的消耗年均增速高达9.5%,使得聚丙烯成为消耗速度增长最快的热塑性材料之一。在丙烯聚合时,若出现液位异常,会造成丙烯聚合不成功,甚至发生安全事故。针对丙烯聚合过程液位检测需求,本课题采用机器视觉和深度学习的图像处理技术,研究设计了基于机器视觉的丙烯聚合过程液位检测系统,并对系统进行了性能测试,旨在使用智能化设备解决传统液位检测系统存在的不足。本课题研究设计的基于机器视觉的丙烯聚合过程液位检测系统,主要由主控制单元、液位图像采集单元、液位图像处理单元、通信单元和显示单元构成。系统基于Linux操作系统,采用RK3399芯片作为本次系统设计的核心处理器;液位图像采集单元选用双目相机采集丙烯聚合过程中的液位图像;液位图像处理单元采用Mali-T860MP4图形处理器;使用Python编程语言进行编程,搭载Py Torch深度学习框架以及Open CV软件库实现对丙烯聚合过程中液位参数的测量;液位参数的检测结果以及当前反应体的反应状态通过LCD单元实时显示,检测结果通过Wi Fi通信单元上传到云端,方便操作人员对丙烯聚合过程进行实时的监控。本课题在讨论国内外液位检测研究现状的基础上,针对传统液位检测系统在丙烯聚合过程液位检测中存在的不足,结合专业知识,采用机器视觉搭载深度学习的图像处理技术,设计智能系统实现对丙烯聚合过程中液位参数的测量。目标检测、立体匹配算法的研究是机器视觉、图像处理领域中的重要课题之一,本次课题通过研究融合成本效益分析方法(Cost Benefit Analysis Method,CBAM)注意力机制的YOLOv5目标检测算法以及对比不同的立体匹配算法,成功实现了对丙烯聚合过程中液位参数的测量。机器视觉技术在液位检测中的应用具有实时性强、检测效率高等优点,对液位检测技术的发展具有重要的意义。通过本次课题的研究,成功设计了一款基于机器视觉的丙烯聚合过程液位检测系统,并对系统测量的精确度、重复性以及稳定性进行了测试,丙烯聚合过程液位检测的测量精度为1 mm,测量绝对误差在2 mm以内,相对误差在±5%以内。结果表明本系统可以实现对丙烯聚合过程中液位参数的准确、快速测量。本系统具有检测精度高、检测实时性强、检测效率高等优点,提高了市场上液位检测系统的智能化程度,具有市场应用价值高,经济效益好等特点。
绳索并联式棉花打顶机作业目标识别与定位技术研究
这是一篇关于棉花打顶机,仿真分析,目标检测,YOLOv5s,立体匹配的论文, 主要内容为在棉花田间管理中,打顶工作是极为重要的环节之一,目前主要采取三种方式用于进行打顶工作,分别是人工打顶、机械打顶和化学打顶。人工打顶技术成熟但是对劳动力需求较大,在打顶的时候容易出现劳动力短缺问题;机械打顶速度快但是容易产生过切、漏切等问题;化学打顶工艺复杂且对环境要求高,使用不当容易对环境造成污染。随着深度学习及棉花产业的发展,越来越多的学者开始关注智能化、精确化打顶的相关研究来解决上述问题。基于此,此文旨在以棉株顶尖作为识别和定位的研究目标,提出一种搭载在高地隙拖拉机等移动平台上,使用绳索并联结构的棉花打顶机设计方案,并去除其他不重要部件,对其关键部分进行仿真分析,以此来验证所设计模型的准确性。然后基于此对棉花打顶机作业目标即棉株顶尖进行识别与定位技术研究,以实现对棉株顶尖的准确识别与定位。具体研究内容包括以下三个方面:(1)绳索并联式棉花打顶机的建模与仿真分析。通过Solid Works三维建模软件对绳索并联式棉花打顶机进行结构建模,然后建立打顶机的数学模型并进行逆运动学分析,接着使用Matlab中的Simulink工具对该结构的绳索长度、速度、加速度参数进行仿真实验,进而验证了逆运动学求解数学模型的准确性。同时分析了该打顶机的工作空间大小,验证了所设计打顶机工作空间满足打顶作业的工作需求,为下文识别与定位系统的实现提供了理论基础。(2)基于深度学习的棉株顶尖识别研究。基于棉花打顶机的使用环境,此文首先分析了YOLO系列各模型的特点并对比后选用YOLOv5s模型进行研究。然后阐述了YOLOv5s模型结构的特点并对其进行训练。结果表明YOLOv5s可以准确学习到棉株顶尖的特征,但是模型体积、参数量等对于嵌入式设备还是不太友好,所以进一步对YOLOv5s模型进行基于Mobile Netv3的轻量化改进策略,并在改进模型特征提取网络的颈部加入CBAM注意力机制。实验表明,此文提出的改进策略可以使模型体积下降并保持较高的识别精度,为后续的空间定位技术做好了基础准备。(3)基于双目相机的定位技术。在完成了识别工作后,为了指导打顶机的末端执行器可以靠近棉株顶尖的目标位置,还需要对棉株顶尖进行测距并定位。此文利用张氏标定法对双目相机的内外参数进行标定,采用SGBM算法立体匹配实现了对棉株顶尖的测距,然后将改进后的识别模型与定位模型集成为识别定位系统对棉株顶尖进行识别与定位实验,通过实验进行了十组定位实验,平均识别率为87%,双目定位的平均相对误差15.2%左右,表明误差在合理范围内,验证了该系统可以指导绳索并联式棉花打顶机完成对棉花打顶作业目标的识别与定位工作。
基于多尺度级联沙漏网络的立体匹配算法研究
这是一篇关于立体匹配,级联预测,多尺度融合,沙漏网络的论文, 主要内容为双目立体视觉模拟人眼观察和处理景深的过程,以双目摄像机取代双眼来获取图像数据,以计算机代替神经中枢处理获取的外界信息,是一种以立体匹配任务为核心的非接触式的测量方法。立体匹配通过对双目图像匹配像素点来计算视差,以低成本和易部署的优势获取深度信息,逐渐应用于机器人导航和自动驾驶领域的环境感知模块。目前端到端的立体匹配算法在纹理丰富的区域显著提升了精度,但重复纹理和细长结构区域极易误匹配。此外,日益复杂的网络结构、高计算复杂度致使模型难以部署到实际应用。本文围绕高效精准的立体匹配网络进一步研究,主要工作如下:(1)高分辨率图像的多阶段立体匹配中,针对初始阶段累积视差误差并持续传递,导致局部优化范围未覆盖视差标签值的问题,本文融合多尺度的匹配代价体,利用全局和局部特征的匹配关联性,以更准确的初始视差引导后续匹配。本文提出多信息匹配代价体来描述特征匹配的相似度,构建基于多尺度匹配代价体融合的沙漏代价聚合模块,在低分辨率下生成初始视差图,逐步细化生成高精度的高分辨率视差图。Scene Flow测试集的端点误差(End-point-error,EPE)降低到0.83,KITTI测试集的定性结果表明,引入多尺度匹配代价体融合模块后,初始阶段下道路标志和护栏区域的细节信息完整性更高,最终生成轮廓清晰、细节结构更完整的高分辨率视差图,提高了模型在重复纹理区域的鲁棒性。(2)针对立体匹配模型复杂度高且可移植性差的问题,提出一个自适应残差范围模块对固定残差范围进行快速剪枝,以精简的调整范围优化视差,设计一个基于Mobile Net V2模块的轻量级高效立体匹配网络。利用各候选视差的概率分布信息来度量每个像素立体匹配的不确定度,对后续待匹配的残差范围进行动态调整,利用沙漏网络对高可能性的候选视差进行代价聚合,避免无效匹配点的影响,实现更加高效精准的匹配过程。在网络中采用基于Mobile Net V2模块的特征提取器和代价聚合模块,降低了模型参数的冗余度。Scene Flow测试集的实验结果表明,与基于标准卷积的本文算法相比,在EPE误差仅上升0.04的前提下,模型计算量显著下降,参数量降低了1.83MB,以0.127秒快速生成一对高分辨率(540×960)双目图像的视差图。道路场景下粗略的视差预测即可为避障等高级任务提供先验信息,而多阶段视差预测的方式可以实时获取到当前最佳的视差图。本文采用层次化的视差精调策略,获取亚像素精度的视差值更有效地满足高层次视觉任务的需求。
基于边缘检测的视差测距在自动驾驶目标定位中的研究与实现
这是一篇关于边缘检测,立体匹配,视差测距,目标定位的论文, 主要内容为目前,国内外人工智能等技术飞速发展,推动了自动驾驶技术的发展。如何提高自动驾驶汽车的环境感知能力成为各大研究机构与公司的重要研究方向之一。利用视觉主导技术来进行目标定位测距是环境感知技术中的主流方向之一。然而在视觉目标定位测距技术中仍然存在众多未解决的问题,如传统边缘检测算法存在无法自适应的问题、视差预估算法存在上下文信息利用率不高的问题、如何实现较高精度的目标定位测距等。针对以上问题,本文就如何解决传统边缘检测算法的自适应问题、提高视差预估算法图像上下文信息利用率以及实现较高精度目标定位测距等问题提出新的思路和算法。实验结果表明本文提出的自适应边缘检测算法解决了自适应问题,同时提升了检测精度;提出的PRC-Net立体匹配算法提高了图像上下文信息利用率,从而提升了视差预估精度;提出的将边缘检测、目标检测以及视差测距相结合的算法能够实现目标定位测距。本文所做的主要工作如下:(1)为了解决传统边缘检测算法的自适应问题,提出了一种自适应边缘检测算法,算法的主要思想为首先通过对梯度幅值进行三分类实现阈值粗定位,再通过OTSU算法进行阈值细定位来获取阈值,该阈值即Canny算法的阈值。该算法解决了边缘的边缘检测的自适应问题,同时提升了检测精度。(2)为了提升视差神经网络的视差预估精度,提出了一种基于PSM-Net优化的立体匹配算法——PRC-Net,该算法采用金字塔卷积提高全局上下文信息的利用率,构建成本体积时加入由残差网络模块获取的图像底层特征信息来弥补在池化过程中丢失的图像底层特征信息。实验结果表明,PRC-Net的视差预估精度相较于PSM-Net有所提升,3像素误差降低了11.82%。(3)为了实现目标物体定位测距,首先将目标检测算法与自适应边缘检测算法的结果求并集实现目标物体准确边缘定位;其次通过获取到的边缘信息,在视差预估算法获取的视差图里计算出对应目标物体的视差;最后通过视差比较完成对最近目标物体的定位测距。实验结果表明,本文提出的算法可以实现最近目标物体定位测距。
本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:毕设小屋 ,原文地址:https://m.bishedaima.com/lunwen/48589.html