6个研究背景和意义示例,教你写计算机特征表示论文

今天分享的是关于特征表示的6篇计算机毕业论文范文, 如果你的论文涉及到特征表示等主题,本文能够帮助到你 特征表示学习中的信息挖掘策略研究 这是一篇关于特征表示,多视角学习

今天分享的是关于特征表示的6篇计算机毕业论文范文, 如果你的论文涉及到特征表示等主题,本文能够帮助到你

特征表示学习中的信息挖掘策略研究

这是一篇关于特征表示,多视角学习,小样本学习,协作表示,特征降维,子空间学习的论文, 主要内容为随着传感器和计算机技术的发展,人们见证了信息的超载和数据特征的爆炸式增长。通常这些数据具有数千甚至数十万个维度,严重制约了现实视觉任务的计算效率。为了解决这一问题,学者们提出了许多特征表示方法来挖掘数据中真正有用的信息。本文立足特征表示学习领域,分别围绕子空间学习、多视角学习和小样本学习任务,研究具有更高识别率的分类算法。论文所取得的研究成果如下:首先,针对基于协作图的判别分析(CGDA)没有充分挖掘数据全局几何结构,忽视了类间抑制关系的问题,提出了一种基于完整表示的特征提取与多级子空间投影(Cr FESP)算法。Cr FESP在特征提取阶段提出了抑制表示的概念,将每个样本表示成其余所有不同类别样本的线性组合,并为每个样本构建了基于协作信息和抑制信息的完整表示信息,采用图嵌入框架将样本的局部协作信息加入到类内协作表示方阵,全局抑制信息加入到类间抑制表示方阵中,通过构建图拉普拉斯线性核方阵将特征提取和子空间投影融合成一个统一的框架。同时,针对投影子空间包含的新生成的特征信息和原空间投影后的少量冗余信息,设计了一种多级子空间投影方法,采用迭代求解的策略在子空间中继续挖掘新增特征信息的全局和局部几何结构。为解决完整表示信息随投影子空间层数加深而逐渐减少且会丢失大量有效信息的问题,Cr FESP提出了一种基于多级子空间的跳跃构图方法对子空间中的构图方式进行约束,提高在了在深层子空间中获取数据完整表示信息的稳定性。考虑到上述构图方法的计算效率会随着实际问题规模的增大而逐渐降低,提出了基于多图学习的快速Cr FESP算法(Cr FESP-F),在计算基于协作表示和抑制表示的完整表示的过程中,引入与之相关的拉普拉斯图,加强了对样本边缘信息的获取能力。为了降低抑制表示计算和多图学习带来的时间复杂度的增加,Cr FESP-F采用类与类之间抑制关系代替Cr FESP中样本与样本之间的抑制关系,提高了算法的计算效率。其次,针对传统的多视角学习方法无法同时考虑多个视角对信息,本文提出了基于特征表示和互相关信息的多视角网络(Mv FRCI-Net)。Mv FRCI-Net将特征表示学习引入到深度多视角网络中,并提出了基于多视角的协作表示的概念,将每个单视角样本数据表示成其余不同类视角的同类样本数据的线性组合。此外,为了增强不同视角之间信息的多样性和互补性,Mv FRCI-Net采用了多种交互信息(多视角协作表示类内散度矩阵和互相关矩阵)对各视角之间的相互关系进行描述,并分别使用一种交互网络提取两种深度交互信息,然后与单视角信息进行特征融合。该方法作为一个统一的框架,同时考虑了多视角信息在单视角、多视角和多视角对中的信息分布。最后,针对传统小样本学习方法采用图像级特征分类存在分类精度不高,特征提取不充分的问题,提出了基于融合特征表示空间深度局部描述子的深度最近邻神经网络(F-FRSD)。该方法将特征表示引入到小样本学习中。针对数据在原始空间存在冗余信息的问题,F-FRSD采用类抑制表示来描述不同类别之间的判别性,并通过图嵌入框架将数据“伪投影”至低维子空间。针对小样本特征稀缺的问题,FFRSD采用类线性核将数据样本映射到高维核空间中来为小样本数据提供更丰富、更灵活的表示。此外,F-FRSD改进了DN4采用“图像-类”度量的训练方式,提出了“特征空间-类”的度量方法,使用可学习的融合特征空间深度局部描述子取代了图像级局部描述子,提升了小样本任务的分类性能。

基于生成式对抗网络的图像特征表示及应用

这是一篇关于特征表示,散列特征,生成式对抗网络,图像检索的论文, 主要内容为基于内容的图像分类、检索、描述等应用依赖于图像的语义特征表示。本文通过堆积生成式对抗网络(SGANs,Stacked Generative Adversarial Networks)模型解决图像特征提取和散列表示问题以提高图像检索应用的检索准确率和时间效率:提取图像的层次结构语义特征,提高图像检索应用的准确率;通过离散化得到图像的语义散列表示,从而提高图像检索应用的时间效率。另外,在无监督SGANs的基础上引入部分标注语义信息,引导相似图像的散列语义特征具有更好的聚集特性,进一步提高检索准确率。具体工作总结如下:(1)无监督层次结构的语义特征表示学习:采用SGANs将图像的特征表示学习分解为逐层堆积的生成对抗模型,逐步提取图像由低层次的轮廓特征到高层次的抽象语义特征,并通过散列技术形成低维的层次结构的散列特征向量,增加同类图像的聚集机会,从而提高准确性。(2)半监督深度语义散列特征表示学习:图像的标注信息不仅提供了图像的类别信息也蕴含了图像之间的相似性。在无监督SGANs的基础上引入部分标注语义信息,利用图像之间的相对相似性,设计面向图像检索的深度散列优化目标,引导相似图像的散列语义特征具有更好的聚集特性,进一步提升了检索的准确率。(3)实验验证与检索应用系统原型实现:在标准数据集和大规模电商商品图片集上验证模型的有效性和检索准确率。实验表明通过生成式对抗网络的堆积模型获得图像的散列特征表示具有良好的聚集特性,半监督的SGANs深度散列方法比无监督的SGANs方法检索效果提升明显,比基于手工特征的散列方法和有监督的深度学习散列方法检索效果也有明显提升。在检索应用中部署堆积模型,实现检索应用的系统原型。

基于生成式对抗网络的图像特征表示及应用

这是一篇关于特征表示,散列特征,生成式对抗网络,图像检索的论文, 主要内容为基于内容的图像分类、检索、描述等应用依赖于图像的语义特征表示。本文通过堆积生成式对抗网络(SGANs,Stacked Generative Adversarial Networks)模型解决图像特征提取和散列表示问题以提高图像检索应用的检索准确率和时间效率:提取图像的层次结构语义特征,提高图像检索应用的准确率;通过离散化得到图像的语义散列表示,从而提高图像检索应用的时间效率。另外,在无监督SGANs的基础上引入部分标注语义信息,引导相似图像的散列语义特征具有更好的聚集特性,进一步提高检索准确率。具体工作总结如下:(1)无监督层次结构的语义特征表示学习:采用SGANs将图像的特征表示学习分解为逐层堆积的生成对抗模型,逐步提取图像由低层次的轮廓特征到高层次的抽象语义特征,并通过散列技术形成低维的层次结构的散列特征向量,增加同类图像的聚集机会,从而提高准确性。(2)半监督深度语义散列特征表示学习:图像的标注信息不仅提供了图像的类别信息也蕴含了图像之间的相似性。在无监督SGANs的基础上引入部分标注语义信息,利用图像之间的相对相似性,设计面向图像检索的深度散列优化目标,引导相似图像的散列语义特征具有更好的聚集特性,进一步提升了检索的准确率。(3)实验验证与检索应用系统原型实现:在标准数据集和大规模电商商品图片集上验证模型的有效性和检索准确率。实验表明通过生成式对抗网络的堆积模型获得图像的散列特征表示具有良好的聚集特性,半监督的SGANs深度散列方法比无监督的SGANs方法检索效果提升明显,比基于手工特征的散列方法和有监督的深度学习散列方法检索效果也有明显提升。在检索应用中部署堆积模型,实现检索应用的系统原型。

基于生成式对抗网络的图像特征表示及应用

这是一篇关于特征表示,散列特征,生成式对抗网络,图像检索的论文, 主要内容为基于内容的图像分类、检索、描述等应用依赖于图像的语义特征表示。本文通过堆积生成式对抗网络(SGANs,Stacked Generative Adversarial Networks)模型解决图像特征提取和散列表示问题以提高图像检索应用的检索准确率和时间效率:提取图像的层次结构语义特征,提高图像检索应用的准确率;通过离散化得到图像的语义散列表示,从而提高图像检索应用的时间效率。另外,在无监督SGANs的基础上引入部分标注语义信息,引导相似图像的散列语义特征具有更好的聚集特性,进一步提高检索准确率。具体工作总结如下:(1)无监督层次结构的语义特征表示学习:采用SGANs将图像的特征表示学习分解为逐层堆积的生成对抗模型,逐步提取图像由低层次的轮廓特征到高层次的抽象语义特征,并通过散列技术形成低维的层次结构的散列特征向量,增加同类图像的聚集机会,从而提高准确性。(2)半监督深度语义散列特征表示学习:图像的标注信息不仅提供了图像的类别信息也蕴含了图像之间的相似性。在无监督SGANs的基础上引入部分标注语义信息,利用图像之间的相对相似性,设计面向图像检索的深度散列优化目标,引导相似图像的散列语义特征具有更好的聚集特性,进一步提升了检索的准确率。(3)实验验证与检索应用系统原型实现:在标准数据集和大规模电商商品图片集上验证模型的有效性和检索准确率。实验表明通过生成式对抗网络的堆积模型获得图像的散列特征表示具有良好的聚集特性,半监督的SGANs深度散列方法比无监督的SGANs方法检索效果提升明显,比基于手工特征的散列方法和有监督的深度学习散列方法检索效果也有明显提升。在检索应用中部署堆积模型,实现检索应用的系统原型。

书城电商平台购买转化率分析与预测

这是一篇关于书城电商,特征表示,特征组合,深度学习的论文, 主要内容为随着电商平台的竞争日益激烈,各大电商平台需要一个精准营销的方法来提高自己的收益,而对用户偏好的研究以及对用户图书购买率的准确预测不仅对平台的精准营销有很大的提升,而且对用户的浏览体验也有极大的改善。因此本文从书城电商平台用户和图书两个角度出发,深入书城电商平台特征特性的研究制定书城用户的点击购买转化率预测方法与图书的购买率预测。本文的贡献可以总结如下:1.对于用户及图书特征上。首先,本文对电商平台的三要素构建一个“用户-图书-营销活动”BBA三元关系组,用于表示学习中描述图书电商平台特征信息空间。并在BBA基础上,使用一种基于因子分解机的大规模特征组合信息挖掘方法来构建完整特征空间。特别地,针对丰富图书文本信息的隐藏性,本文对图书文本特征进行再分解,结合因子分解机组合挖掘更丰富的特征从而形成更完整的特征空间。其次,针对“用户-图书-营销活动”BBA有效数据特征空间的复杂性和多样性,考虑到特征组合不能完全捕捉电商特征中序列性特征的间的上下文关系,因此本文提出使用BBA2vec方法利用表示学习将图书电商平台特征信息空间更加有效地表示。最后提出了一种用于用户点击购买转化率的预测模型。2.对于用户时间行为序列上。针对用户点击购买图书的时间先后序列与用户掌握图书知识的联系,构建了一种基于深度知识追踪的图书购买率预测模型。图书商品不同于一般商品,用户购买实体图书目的往往是为了获得知识。而用户对于一本图书知识的了解程度往往决定了用户是否购买这本书。基于这个思想本文对用户历史行为利用循环神经网络建模,并通过深度知识追踪的思想来预测用户在下一次对于一种知识点分类下图书的购买率。最后,通过重庆新华书店集团提供的实验数据集对本文所提模型的有效性和可靠性进行验证。实验表明,所提出的模型能够有效捕获书城特征间的内部关系,并能够对点击购买转化率和购买率进行有效地预测。

基于特征表示优化与信息补偿的低照度目标检测方法研究

这是一篇关于目标检测,低照度图像,特征表示,语义感知,信息补偿,注意力机制的论文, 主要内容为目标检测作为计算机视觉领域中最基本、最具挑战性的任务之一,如今已被广泛应用于现实生活的各种实际场景中,例如工业质检、视频分析和人机交互等。然而,目前主流的目标检测方法专注于对正常照度图像开展研究,而与低照度目标检测相关的研究却很少。在低照度环境下采集的图像往往会出现照明不均、颜色失真、噪声干扰和细节模糊等图像质量退化问题。这些问题导致目标检测网络难以从低照度图像中捕获充足的特征信息和语义信息,并且在对低照度图像进行目标检测时会出现定位不准确和对象分类错误的现象,严重影响低照度目标检测精度。本文针对低照度目标检测进行研究,以低照度图像自身特点为切入点,围绕低照度目标检测过程的难点,提出两种低照度目标检测方法,主要研究内容如下:1)由于低照度图像照明不均和曝光不足,目标对象不可避免地会被黑暗区域遮挡,难以提取足够的特征信息和学习丰富的语义信息。针对这个问题,本文提出了一种基于特征表示优化和语义感知增强的低照度目标检测网络(Low-Illumination Object Detection Network based on Feature Representation Refinement and Semantic-Aware Enhancement,FRSE-Net)。首先,设计一个特征捕获模块(Feature Capture Module,FCM)来优化输入特征图的特征表示,使低照度图像中的对象特征更具判别性,这有益于捕获更多有效的特征信息用于后续的检测任务。然后,设计一个语义聚合模块(Semantic Aggregation Module,SAM)用于增强检测网络在低照度图像中的语义感知能力,使检测网络专注于感兴趣对象去学习丰富的语义信息。实验结果表明,与其它先进的低照度检测方法相比,所提出的FRSE-Net在低照度场景下具有更好的有效性和优越性。2)由于低照度图像具有亮度弱、噪声多和细节缺失等特点,使用现有的目标检测方法对低照度图像进行目标检测会出现定位不准确和分类错误的现象,从而导致检测精度偏低。针对这个问题,本文提出了一种基于Night-YOLOX的低照度目标检测方法。该方法首先设计一个低级特征聚集模块(Low-level Feature Gathering Module,LFGM)与主干网络合并,通过补偿对低照度图像进行特征提取过程中边缘、轮廓和纹理等低级特征的损失,从而更好地在低照度场景下定位目标对象。然后,设计一种注意力引导块(Attention Guidance Block,AGB)嵌入检测模型的颈部结构,从而减少低照度图像中噪声干扰的影响,引导检测网络判断完整的对象区域并捕获更多有用的对象特征,以提高目标分类的准确性。实验结果表明,相比于其它主流的目标检测方法,所提出的Night-YOLOX在低照度场景下能够实现更好的检测精度和检测效果。

本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:代码货栈 ,原文地址:https://m.bishedaima.com/lunwen/54517.html

相关推荐

发表回复

登录后才能评论