6个研究背景和意义示例,教你写计算机显著性目标检测论文

今天分享的是关于显著性目标检测的6篇计算机毕业论文范文, 如果你的论文涉及到显著性目标检测等主题,本文能够帮助到你 CBOD Model for Changing the Position of Real Furniture Items Using Mobile AR 这是一篇关于显著性目标检测

今天分享的是关于显著性目标检测的6篇计算机毕业论文范文, 如果你的论文涉及到显著性目标检测等主题,本文能够帮助到你

CBOD Model for Changing the Position of Real Furniture Items Using Mobile AR

这是一篇关于显著性目标检测,增强现实,深度学习的论文, 主要内容为当前和家具有关的增强现实应用程序提供了将虚拟家具添加到虚拟环境中的能力,但它们无法虚拟移动现有的实体家具。实际很多用户在添置或更换家具时,需要考虑已有的家具和新家具的重新摆放,且很多实体家具难以移动,因此虚拟移动实体家具的功能非常有用。本文提出了一种检测实体家具并使用改进的显着对象检测(Salient Object Setection,SOD)虚拟移动它们的方法,以区分不同的家具并创建它们的虚拟副本。虚拟副本可以在增强现实应用程序中移动。我们的贡献是结合不同大小的感受域,并采用残余块(Residual U-block)从不同尺度收集上下文信息,然后产生配置得当的残余块(Residual U-block)。它使我们能够在不显着增加计算成本的情况下增加每个结构的深度。这种方法使用了无需使用预定义的函数的深度网络训练。来自DUTS的家具数据集和用于物体检测的卷积块CBOD-Net架构用于提高家具物品检测的准确性。测试表明,CBOD-Net架构使我们的结果更加准确。我们使用Unity平台制作了IOS(ARKit)和Android(ARCore)应用程序。在我们的案例中,我们制作了一个增强现实在线家具购物应用程序,并添加了重新排列用户家具的功能。我们应用CBOD-Net来实现家具的显着目标检测和家具周围背景的替换。实验证明我们的改进方法有助于改善用户购买家具时的体验。

基于改进U2NET的显著性物体检测算法研究

这是一篇关于显著性目标检测,注意力机制,U2net,跳跃连接层,自编码器的论文, 主要内容为显著性目标(物体)检测是计算机视觉领域研究的热点之一,旨在找出图像中人眼感兴趣的物体。显著性目标检测广泛应用于图像检索、具有内容感知的图像裁剪、医疗辅助诊断等方面。随着深度学习技术不断走向成熟,基于卷积神经网络的显著性目标检测算法逐渐替代了传统的数学方法,通过卷积核在输入图像滑动和计算内积来提取图像中的空间特征信息。U2net为近些年来在显著性目标领域效果较好的模型,但是U2net在处理一些背景与显著性物体对比度相似的图像时会出现显著性物体边界模糊的问题,所以本课题选取了U2net模型进行基础研究和改进,通过本课题提出的改进方法在一定程度上提高了U2net显著性目标检测模型的精准度以及推理速度,具体研究内容如下:(1)针对U2net提取显著性目标图像时存在边界模糊的问题,本课题提出了改进U2net中特征提取模块的方法。通过在RSU特征提取模块的编码器和解码器之间引入多重跳跃连接层,提高解码器对原有特征图像信息保留能力。同时,将不同尺度的特征图拼接在一起,更好地保留了特征图像的全局和局部信息,提高了U2net模型的边界信息提取能力。(2)为了解决U2net模型训练缓慢的问题,本课题采用了随机失活和批量归一化技术,降低了模型中参数过多的特征图像通道数量,以加快模型训练时的收敛速度。同时,这种方法还解决了U2net模型在训练过程中由于数据集不足而导致的过拟合问题。(3)为了进一步提高U2net模型的准确度,通过U2net模型中编码器和解码器之间的跳跃连接层替换成融合的通道和空间注意力机制,该方法可以进一步提高模型的性能。原始的跳跃连接层是通过简单的拼接方式将编码器和解码器的特征图进行融合,但是这种方式无法对特征进行选择性的融合。而通道注意力机制和空间注意力机制可以分别对通道和空间特征进行注意力权重的计算,使其具有选择性的融合编码器阶段的特征图。本文实验证明了改进后的U2net相比原有的U2net模型有了一定程度的提升。

基于水平集与注意力机制的显著性目标检测算法研究

这是一篇关于深度学习,水平集算法,注意力机制,显著性目标检测,损失函数的论文, 主要内容为显著性目标检测是图像与视觉研究中的一个基本问题。显著性目标检测广泛应用于图像压缩,目标识别等计算机视觉任务中,常常作为计算机视觉任务的上级任务,所以显著性目标检测的精度与效率尤为重要。传统模型的置信度和查全率较低。尽管深度学习方法与传统算法相比可以更好地定位对象,但存在边界不够清晰,检测精度不足等问题。此外,浅层特征如果加入过多的卷积层会使得模型繁重,容易将低维特征的噪声污染传递给高维特征,导致模型对多目标的识别效果降低,如何高效地处理好全局特征与局部特征的关系来获取更多的语义信息尤为重要。综合上述的背景与问题,本文针对这些问题进行研究。(1)针对边界模糊,置信率低的问题,提出了一个结合传统水平集方法和深度学习的显著性目标检测算法(Salient object detection using level set loss and reverse attention fusion feed network,RF2Net),融合了水平集结构损失的思想和反向注意机制。首先,RF2Net采用了一种新的损失函数,将交叉熵(Binary Cross Entropy,BCE)损失、权重水平集损失和权重平均绝对误差(Mean Absolute Error,MAE)损失联合监督。水平集损失算子可以更好地关注图像的全局信息,而不是像BCE损失那样逐像素监督。引入反向注意机制可以有效地降低层间特征融合过程中的噪声,达到提高精度的目的。在4个数据集上与12种最先进的算法进行了实验比较,结果表明,在HKU-IS数据集上,MAE、max F和avg F算法均优于其他算法。与此同时,在DUTS数据集和ECSSD数据集上进行了消融实验,验证了算法的有效性。(2)针对如何有效处理语义信息与多目标问题,提出了基于水平集注意力模块与结构化损失的显著性目标检测算法(Salient Object Detection Driven by Dual Attention and Structured Loss,DASL)。首先,DASL中的水平集注意力机制模块可以有效的处理从主干提取的特征,从而获得更丰富的语义信息,为算法后续更好地处理前景与背景特征打好基础。其次,DASL中提出的结构化损失可以更好地关注到图像的整体,有效的解决了多显著性目标检测精度不够的问题。实验结果表明提出的损失可以输出更清晰的显著图,提出的损失函数远优于BCE损失。在4个流行的显著性目标检测数据集上与其他SOTA的算法进行比较,DASL算法在DUTS、HKU-IS和PASCAL-S上所有评价指标都好于其他算法。展现了最先进的性能。

CBOD Model for Changing the Position of Real Furniture Items Using Mobile AR

这是一篇关于显著性目标检测,增强现实,深度学习的论文, 主要内容为当前和家具有关的增强现实应用程序提供了将虚拟家具添加到虚拟环境中的能力,但它们无法虚拟移动现有的实体家具。实际很多用户在添置或更换家具时,需要考虑已有的家具和新家具的重新摆放,且很多实体家具难以移动,因此虚拟移动实体家具的功能非常有用。本文提出了一种检测实体家具并使用改进的显着对象检测(Salient Object Setection,SOD)虚拟移动它们的方法,以区分不同的家具并创建它们的虚拟副本。虚拟副本可以在增强现实应用程序中移动。我们的贡献是结合不同大小的感受域,并采用残余块(Residual U-block)从不同尺度收集上下文信息,然后产生配置得当的残余块(Residual U-block)。它使我们能够在不显着增加计算成本的情况下增加每个结构的深度。这种方法使用了无需使用预定义的函数的深度网络训练。来自DUTS的家具数据集和用于物体检测的卷积块CBOD-Net架构用于提高家具物品检测的准确性。测试表明,CBOD-Net架构使我们的结果更加准确。我们使用Unity平台制作了IOS(ARKit)和Android(ARCore)应用程序。在我们的案例中,我们制作了一个增强现实在线家具购物应用程序,并添加了重新排列用户家具的功能。我们应用CBOD-Net来实现家具的显着目标检测和家具周围背景的替换。实验证明我们的改进方法有助于改善用户购买家具时的体验。

多特征融合的轻量化显著性目标检测方法

这是一篇关于显著性目标检测,多特征融合,轻量化网络,注意力机制,瑕疵检测的论文, 主要内容为显著性目标检测是计算机视觉领域的一个重要研究方向,其目的是在图像中自动识别出最具显著性的对象或区域。随着深度学习技术的发展,越来越多的研究者开始使用深度神经网络来进行显著性目标检测,并且取得了突破性的成果,但是仍存在诸多挑战。例如,单一特征检测缺陷和多特征融合不充分,导致显著图背景噪声大和显著图边缘不清晰。又如,目前的一些方法在准确性和算力消耗之间存在相互制约,有些方法准确性较高但算力消耗大,而有些方法算力消耗小但准确性不高。因此,如何在保证准确性的同时减少算力消耗是一个重要的问题。本文主要基于卷积神经网络实现多特征融合的轻量化显著性目标检测方法,具体研究内容如下:(1)针对当前显著性目标检测方法存在的单一特征检测缺陷和多特征融合不充分的问题,研究设计了一种多尺度视觉感知融合的显著性目标检测方法。首先利用空洞卷积模拟视觉皮层中的感受野构建多尺度视觉感知模块,充分发挥空洞卷积在卷积神经网络中的作用,在主干网络中逐级提取显著目标的全局空间信息,有效增强前景显著区域,抑制背景噪声区域。然后设计多尺度特征融合模块,利用特征金字塔和空间注意力机制将高级语义信息与细节信息融合,在抑制噪声传递的同时可以更有效地恢复显著目标的空间结构信息。两个核心模块充分利用多特征融合,实验结果表明,该方法检测的显著图边缘轮廓清晰,背景干净,各项性能指标在基准网络上有较大提升。(2)针对当前显著性目标检测方法存在的检测精度和算力消耗相互制约的问题,通过重新设计网络,研究设计了一种基于多特征注意力基本块的轻量化显著性目标检测方法。多特征注意力基本块中使用深度可分离卷积扩展空洞卷积,根据人眼视觉分层处理的机制,构建串行的多特征融合模块。扩大感受野的同时,通过邻接递进融合的方式挖掘多尺度特征。再采用通道注意力和空间注意力增强特征提取,并利用Ghost卷积低成本的线性运算,规避冗余特征图和节约计算消耗。然后使用基本块合理构建特征提取单元,搭建主干网络编码器提取特征,接着通过金字塔池化模块提取上下文信息。解码器将全局信息、浅层特征和深层特征融合,在解码端输出最终的显著图。实验结果表明,该轻量化模型在保持1.45M参数量和1.2G计算量的情况下,检测精度达到了部分主流方法的检测性能。(3)对以上两点理论进行学术实践,针对输送带瑕疵人工检测的低效性和延时性,设计实现了基于显著性检测方法的输送带瑕疵检测系统,实现了输送带瑕疵检测的无人化,提高了检测效率。利用轻量化显著性目标检测方法,图像处理的形态学滤波器以及边缘检测技术,实现了输送带瑕疵检测和定位。基于python,使用Flask搭建Web应用后端服务和使用Vue设计前端人性化交互UI,实现了输送带瑕疵检测平台。检测结果表明该系统可以满足生产场景下输送带瑕疵检测的需求。

多特征融合的轻量化显著性目标检测方法

这是一篇关于显著性目标检测,多特征融合,轻量化网络,注意力机制,瑕疵检测的论文, 主要内容为显著性目标检测是计算机视觉领域的一个重要研究方向,其目的是在图像中自动识别出最具显著性的对象或区域。随着深度学习技术的发展,越来越多的研究者开始使用深度神经网络来进行显著性目标检测,并且取得了突破性的成果,但是仍存在诸多挑战。例如,单一特征检测缺陷和多特征融合不充分,导致显著图背景噪声大和显著图边缘不清晰。又如,目前的一些方法在准确性和算力消耗之间存在相互制约,有些方法准确性较高但算力消耗大,而有些方法算力消耗小但准确性不高。因此,如何在保证准确性的同时减少算力消耗是一个重要的问题。本文主要基于卷积神经网络实现多特征融合的轻量化显著性目标检测方法,具体研究内容如下:(1)针对当前显著性目标检测方法存在的单一特征检测缺陷和多特征融合不充分的问题,研究设计了一种多尺度视觉感知融合的显著性目标检测方法。首先利用空洞卷积模拟视觉皮层中的感受野构建多尺度视觉感知模块,充分发挥空洞卷积在卷积神经网络中的作用,在主干网络中逐级提取显著目标的全局空间信息,有效增强前景显著区域,抑制背景噪声区域。然后设计多尺度特征融合模块,利用特征金字塔和空间注意力机制将高级语义信息与细节信息融合,在抑制噪声传递的同时可以更有效地恢复显著目标的空间结构信息。两个核心模块充分利用多特征融合,实验结果表明,该方法检测的显著图边缘轮廓清晰,背景干净,各项性能指标在基准网络上有较大提升。(2)针对当前显著性目标检测方法存在的检测精度和算力消耗相互制约的问题,通过重新设计网络,研究设计了一种基于多特征注意力基本块的轻量化显著性目标检测方法。多特征注意力基本块中使用深度可分离卷积扩展空洞卷积,根据人眼视觉分层处理的机制,构建串行的多特征融合模块。扩大感受野的同时,通过邻接递进融合的方式挖掘多尺度特征。再采用通道注意力和空间注意力增强特征提取,并利用Ghost卷积低成本的线性运算,规避冗余特征图和节约计算消耗。然后使用基本块合理构建特征提取单元,搭建主干网络编码器提取特征,接着通过金字塔池化模块提取上下文信息。解码器将全局信息、浅层特征和深层特征融合,在解码端输出最终的显著图。实验结果表明,该轻量化模型在保持1.45M参数量和1.2G计算量的情况下,检测精度达到了部分主流方法的检测性能。(3)对以上两点理论进行学术实践,针对输送带瑕疵人工检测的低效性和延时性,设计实现了基于显著性检测方法的输送带瑕疵检测系统,实现了输送带瑕疵检测的无人化,提高了检测效率。利用轻量化显著性目标检测方法,图像处理的形态学滤波器以及边缘检测技术,实现了输送带瑕疵检测和定位。基于python,使用Flask搭建Web应用后端服务和使用Vue设计前端人性化交互UI,实现了输送带瑕疵检测平台。检测结果表明该系统可以满足生产场景下输送带瑕疵检测的需求。

本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:代码驿站 ,原文地址:https://m.bishedaima.com/lunwen/52331.html

相关推荐

发表回复

登录后才能评论