7个研究背景和意义示例,教你写计算机细粒度分类论文

今天分享的是关于细粒度分类的7篇计算机毕业论文范文, 如果你的论文涉及到细粒度分类等主题,本文能够帮助到你 基于图像细粒度分类的中餐菜品识别系统 这是一篇关于菜品识别

今天分享的是关于细粒度分类的7篇计算机毕业论文范文, 如果你的论文涉及到细粒度分类等主题,本文能够帮助到你

基于图像细粒度分类的中餐菜品识别系统

这是一篇关于菜品识别,目标定位,细粒度分类,破坏与重构,注意力机制,BiFPN,Swin,级联操纵的论文, 主要内容为菜品识别有广阔应用前景,如自助食物售卖、食品营养评估及分析、热量测量及美食推荐系统等。中餐菜品种类复杂、不同种类菜品之间相似度高、同类菜品具有多种形态,因此中餐菜品识别是计算机视觉领域一个有挑战性的难题。本文立足于中餐菜品图像中常具有多目标的特点,基于中餐菜品分类数据集Chinese FoodNet,补充了多目标的中餐菜品图像,通过级联中餐菜品位置检测模型与中餐菜品细粒度分类模型,开发了可在移动端应用的多/单目标中餐菜品识别系统。主要工作包含以下几个方面:(1)中餐菜品位置检测模型Ca-BiYoLo-Swin。由于目前公开的大型数据集仅有中餐分类数据集,完成多目标检测任务还需图像中目标位置信息,本文在YOLOv5-S的基础上,优化检测网络对位置信息敏感度与推理速度,得到CaBiYoLo-Swin。在特征提取阶段,将坐标注意力机制嵌入CSP1模块提高模型在空间中捕获远程依赖关系的能力和对空间位置信息的敏感度;在特征融合阶段,在CSP2模块中引入swin编码参数,增强特征图内部的空间语义信息,并使用BiFPN思想改进原有FPN结构,提高模型泛化能力。针对GPU平台,使用卷积优化Focus切片操纵;使用串联同等大小池化核优化SPP结构。实验结果表明,Ca-Bi Yolo-Swin网络相比原YOLOv5-S能更快捷有效的定位出CFood-Loc数据集目标区域。(2)中餐菜品细粒度分类模型DCL-EfficientNetV2。针对中餐菜品类内差距大,类间差距小,图像种类特征难提取的问题,提出DCL-EfficientNetV2模型。为了更好提取图像中的类别特征,在数据处理阶段引入破坏分支,将特征图打乱并重构;加入对抗性损失函数,提高网络对判别性区域特征的学习能力降低噪音影响;网络结构设计中使用Efficient V2-S提取图像特征并在MBconv模块中采取不降维局部跨信道交互策略;采用Softpool下采样方法,更好的保留特征图细节信息。训练阶段,采用区域对齐网络引导骨干网络通过端到端训练对局部区域之间进行相关性建模,帮助骨干网络理解目标。本文使用Chinese FoodNet进行测试,Top-1准确率为82.6%,Top-5准确率为96.7%,优于现有主流模型识别准确率。相比原破坏重构方法和EfficientNetV2-S,在经典细粒度数据集CUB-200-2011,Cars196和Aircrafts100数据集上,正确率分别提升3.5%、1.2%、1.7%和4.2%、2.9%、6%。(3)基于移动端的中餐菜品识别系统。为了便于应用本系统,开发了移动端的用户界面,并通过网络访问中餐菜品位置检测模型和中餐菜品细粒度分类模型得到检测结果,为管理员提供菜品信息管理;为用户提供注册登录,(多/单)中餐识别,原料、营养查询,上传图像功能。性能稳定,有较高实用性。

基于急性髓系白血病患者外周血涂片的细胞分类方法研究

这是一篇关于细粒度分类,注意力,卷积神经网络,细胞分类,外周血涂片的论文, 主要内容为白血病是一种致死率较高的血液疾病,主要检测方法是人工镜检和血细胞分析仪,但两者存在高度重复,费力、耗时或者价格昂贵等问题。目前通过显微镜图像进行血细胞检测仍是诊断白血病的重要手段,主流的图像处理技术为血细胞图像分类带来了很大的优势,它不仅能处理细胞的形态学信息,同时效率还高,就此本文根据急性髓系白血病外周血涂片的细胞图像为研究对象,对其中细胞进行分类识别研究。针对急性髓系白血病外周血涂片细胞分类问题,使用了Alex Net、Google Net、VGG16和Res Net50这4种深度学习的图像分类模型,对其中15类细胞进行分类,结合了评价指标分类准确率进行对比分析,实验结果性能较优的为Res Net50模型,为了验证Res Net模型不同深度对实验结果的影响,又对Res Net34、Res Net50和Res Net101这三种不同深度的模型进行了实验,实验结果表明,Res Net50的分类准确率为0.919,相较于Res Net34的0.861和Res Net101的0.850有较为明显的分类优势。为进一步提高分类结果,同时针对细胞图像类间形态相似,类内形态差异较大的情况,从细粒度分类的角度进行研究,提出了两种细粒度分类的方法。一种是通过抑制显著特征从而突出非显著但有利于分类的特征的方法,引入了特征增强抑制模块、特征多样化模块和注意力机制模块,通过增强有利于分类的非显著信息,进一步提高了模型的泛化能力。实验结果表明,添加了特征抑制与增强模块和特征多样化模块之后,模型分类准确率为0.927,较Res Net50原模型相比提高了0.8%,说明了该模型可以更好的进行分类。但是因为第一种方法在4类外表形态差异较大的细胞中分类效果不优,所以提出了第二种结构,是通过增加一个局部本地流,先将图像输入到金字塔卷积中获取多尺度补丁组,从每个尺度的补丁组中随机选取相应的补丁,然后通过LSTM网络对补丁特征信息进行迭代,再利用注意力机制进行权重聚合,进而得到更精细的特征,而主分支的全局流可以提取图像的全局特征,局部本地流提取的是更精细的特征,两组特征进行互补组合,实验结果表明,添加局部流分支之后,模型分类准确率为0.939,较原基础网络相比提高了2%,说明了该模型可以进一步提高分类精度。

结合食物标签语义嵌入和注意力融合的食物图像识别研究

这是一篇关于食物图像识别,细粒度分类,注意力融合,上下文语义的论文, 主要内容为食物是人类的必需品,对人类的生活、健康有着重要的作用。这也使得食物相关的应用得到广泛的关注。食物图像识别是众多食物应用的基础任务,一旦确定了食物类别,就可以进行膳食管理,营养分析或自动结算等应用。随着近年来深度学习的发展,食物图像识别得到了很大的进展。食物图像识别归属于细粒度分类任务,然而不同于一般的细粒度类别,如鸟,车或飞机等,食物没有固定的空间结构或共有的语义模式。这使得基于空间关系约束的细粒度分类方法无法很好的应用在食物图像识别任务上。现有的食物识别方法都需要针对性的对局部和全局特征进行复杂处理。针对食物类别的特点,另一种常规的解决方法是引入额外的监督信息来促进图像识别。这些额外的监督信息通常来自于食物相关的上下文信息或外部知识,如食物图片的GPS定位,食物的餐厅来源,或食物的成分,烹饪方式,食谱等。然而直接收集这些额外的信息需要花费大量的人力成本和时间成本,收益低,也难以泛用到其他食物识别场景。针对以上问题,本文就基于深度学习的食物识别任务中的关键技术进行研究,提出了新的注意力模块以及多模态融合损失函数,解决食物图像识别的细粒度特征提取问题以及多模态信息融合问题。首先,本文提出了基于变换器Transformer的窗口注意力融合模块,该模块利用变换器Transformer固有的自注意力机制来自适应地选择原始图像的判别区域,在训练中不需要额外的锚框标注。具体来说,该模块融合了Swin Transformer不同尺度大小的窗口注意力权重,形成注意力掩膜。通过基于注意力掩膜的最大连通区域裁剪原始图像,可以得到食物图像局部关键区域。最后将该区域放大并输入到下一阶段的细粒度网络,迭代地学习细粒度特征。该模块解决了食物没有固定空间结构和语义模式的细粒度识别问题。其次,相比于其他上下文信息和外部知识,食物类别的名称便于获取,且与食物本身密切联系,包含着食物重要文本信息,如主要成分,烹饪方式或产地等。对此,本文提出了基于自然语言处理的上下文语义中心损失。利用BERT相关的自然语言处理方法来提取食物标签的上下文语义嵌入,并将该嵌入作为深度特征空间的类别中心,最小化图像特征与语义嵌入之间的距离,指引模型学习到相关的食物语义信息。训练中上下文语义中心损失联合了分类交叉熵损失进行监督学习,学习到的深度特征能够有效的提升食物识别的性能。最后,为了说明本文方法的有效性,本文在三个公开食物图像数据集(Food-101,Vireo Food-172和Chinese Food Net)里进行了大量的实验,并与目前已发表的先进的食物识别方法进行了充分的横向对比。实验结果表明,本文提出的语义中心损失(SCG)和窗口注意力融合模块(WAFM)的方法均能够接近和达到业界最优方法的识别效果,而结合两者的SCG-WAFM方法则成为了目前最先进的食物图像识别方法。此外,本文的模型不需要复杂的训练策略,可以直接端到端的训练,极大地简化了训练过程,端到端的推理也方便了模型部署。

基于深度学习的非均衡细粒度和少样本图像分类研究

这是一篇关于深度学习,细粒度分类,非均衡学习,少样本分类的论文, 主要内容为近年来,深度学习算法在图像分类任务上达到了人类级别的分类准确率,使得人们开始尝试将深度学习算法应用到诸如高速公路车辆分类这样的现实场景中去。但实际应用场景下由于存在诸多限制条件,通常难以获取理想的数据集,这就导致了需要大量理想的数据进行训练的深度学习算法表现不佳。本文针对实际应用中两种图像分类问题:类别分布差异较大的非均衡细粒度分类以及缺少训练数据的少样本分类展开深入研究,提出了基于注意力机制的非均衡细粒度分类方法和基于知识图谱的少样本分类方法。针对非均衡的细粒度分类,我们以大铲岛海关的船舶分类任务为具体对象进行研究。在模型的设计上我们首先使用改进的区域提取网络(RPN),在不引入额外的局部区域的标注的情况下,实现对包含具有类别特点的细节的区域进行精确的定位并对区域内的细节质量进行评估。从含有高质量细节的区域提取局部细节特征,将这些局部特征与全局特征一起送入我们设计的具有自适应平衡类别数据分布功能的推理结构中。推理结构由记忆网络和推理网络组成。记忆网络会保留模型认为难以学习的困难样例,在学习新样例时,提供与新样例相似的困难样例,一起送入推理网络。推理网络利用注意力机制捕捉样例之间的相似之处,并用困难样例的特征对新样例的特征进行优化,在学习新样例的同时改善对困难样例的学习。在研究过程中我们还建立了一个船舶的图像数据集。据我们了解该数据集不仅是第一个针对船舶的细粒度分类数据集而且也是第一个类别分布不均衡的细粒度分类数据集。针对少样本分类,我们利用知识图谱强大的知识表达以及信息融合能力,实现更加准确的分类。将传统的度量学习和知识图谱相结合,提出了基于知识图谱的少样本分类方法。将少样本分类问题转化为知识图谱构建的问题,利用知识图谱中基本要素(实体)之间的关系预测数据的类别。在知识图谱的构建过程中最为关键的属性抽取和知识融合阶段,我们分别设计了结合自我注意力机制和度量学习的属性特征提取网络以及基于边度量学习的图神经网络。前者用于提取实体特有的属性特征,后者则是利用度量学习网络去学习构建图中节点之间的边的特征,并利用边的特征预测数据的类别。

基于深度学习的中国画细粒度检测方法研究及应用

这是一篇关于中国画,目标检测,细粒度分类,知识图谱的论文, 主要内容为中国画是我国宝贵的物质文化遗产,具有极高的艺术价值和文化意义。通过准确识别并分类画作元素,有助于揭示艺术家的意图和技巧,展示作品风格的变迁和历史关联,丰富研究视角。中国画细粒度检测是指在中国画作品中进行目标检测和细粒度识别,准确地定位和分类中国画中的各个元素。通过中国画细粒度检测,可以为数字文化领域的智能艺术品推荐和展览策划提供关键支持。对于细粒度检测任务而言,高质量的数据集具有重要作用。然而,在中国画领域,存在大量详细标注数据集的短缺问题。另外,目前的目标检测模型或细粒度分类方法在中国画细粒度检测方面表现不尽如人意。针对上述问题,本文提出基于集成学习的细粒度检测方法并构建相应中国画数据集。此外,本文设计并实现了中国画应用系统,提供中国画浏览、检索、主题检测等功能。主要工作内容如下所述:(1)构建了适用于目标检测和细粒度分类的小规模中国画数据集。首先,完成了1011张中国画原始数字图像的标注,得到1972个实例的类别和位置信息,作为目标检测任务数据集。之后,对中国画原始图像按照画作元素进行分割,得到人物图像数据集,可用于细粒度分类任务。(2)提出了基于深度学习的中国画细粒度检测方法。首先,设计图像预处理模块,对中国画进行色彩校正和分辨率提升。然后,使用YOLOv5模型检测中国画特定类型目标。最后,提出基于集成学习的细粒度分类方法,基于投票机制集成多个分类器的结果。在本文构建的中国画数据集上的实验表明,本文方法在中国画的细粒度检测方面效果显著,相比最优的单个细粒度分类模型提升了4.76%。(3)设计并实现中国画应用系统。本文通过设计后台数据库、构建中国画知识图谱、主题检测、图像描述以及印鉴提取等多个模块,实现了中国画的可视化展示、图谱检索、主题检测、生成图像描述、提取并识别印鉴等功能。

基于深度学习的汽车车型识别应用研究

这是一篇关于车型识别,弱注意力监督,车脸对齐识别,细粒度分类,车型识别系统的论文, 主要内容为随着近几年人民生活水平的提高,汽车数量急剧增加,交通事故频发、车辆管理难度大等问题也日益突出。为了解决这些问题,许多专家学者致力于研究智能交通系统。汽车车型的检测识别是现代智能交通系统的基础研究,其可应用于交通流量统计、高速车型分类收费和交通安全管理等方面,因此研究汽车车型识别对现实生活有着重要意义。在当下智能交通的需求下,汽车车型的检测识别技术存在着一些亟待解决的问题。其一,不同品牌之间的相互模仿和同品牌车辆不同车系之间的相似性越来越高所导致的车型识别难度增加;其二,车型数据集中的图像因为拍摄角度不一、图像噪声大所导致的识别准确率低;其三,大多数车型识别算法需要人工对车辆的一些特征点进行标注,人力成本高。针对上述问题,本文提出了基于弱监督注意力车脸对齐的车型识别方法,并设计了针对当前国内市场的“时效性”汽车数据集,在此基础上研发了一款车型识别系统。本文工作内容主要如下:(1)为解决真实场景下车型间相似、图像拍摄角度不一、图像噪声大所引发的车型识别准确率低的问题,本研究提出了基于弱监督注意力车脸对齐的车型识别算法CNN-cf3。该算法采用三层卷积神经网络对图像中车辆进行检测,用检测框和五个特征点代替人工标注,通过五个车辆特征点来对齐车辆的外观,解决了拍摄角度差异带来的问题,提高识别的准确率。然后利用弱监督注意网络,对车辆检测提供的特征点周围的区域进行特别关注,并生成注意图,提取更具判别性的局部特征,以此来解决车型间相似引起的识别准确率下降的问题。最后通过注意力机制引导的图像增强来抑制背景噪声,提取更多的细节特征。为了验证本文提出算法的有效性,在真实场景下拍摄的车辆图像数据集上进行了验证。实验结果表明,CNN-cf3网络模型相比于其他网络模型识别准确率更高、鲁棒性更强。(2)为提高车型识别算法在当前国内车辆真实使用环境下的适用性,本文建立了具有“时效性”的新汽车车型数据集Ccars-150,用于识别算法训练。首先设计了基于Scrapy框架的网络爬虫,利用爬虫收取了国内常见150种车型图片,然后通过数据增广最终获得163400张图像。为了方便对比实验,使用Label Img对选取的图片进行标注,创建了汽车数据集Ccars-150。分别用VGG-16网络模型、Res Net-50网络模型和自建CNN-cf3网络模型,对经典数据集Compcars、VMMRdb、Stanford Cars和自建数据集Ccars-150进行了实验,实验结果表明三种网络模型在Ccars-150数据集的上的识别具有较高准确率,且数据具有“时效性”,可以更好的适用于车型识别系统设计。(3)汽车车型识别系统的设计与实现。本文使用CNN-cf3算法和Ccars-150数据集进行模型训练,并基于Pycharm平台设计实现了一个集图像处理、车辆检测、型号识别及可视化展示为一体的完整车辆检测识别系统,系统具有账号注册、系统登录、模型初始化、车型识别、数据记录等功能。用户可以通过UI界面对图片、视频中的车辆进行车型识别。

结合食物标签语义嵌入和注意力融合的食物图像识别研究

这是一篇关于食物图像识别,细粒度分类,注意力融合,上下文语义的论文, 主要内容为食物是人类的必需品,对人类的生活、健康有着重要的作用。这也使得食物相关的应用得到广泛的关注。食物图像识别是众多食物应用的基础任务,一旦确定了食物类别,就可以进行膳食管理,营养分析或自动结算等应用。随着近年来深度学习的发展,食物图像识别得到了很大的进展。食物图像识别归属于细粒度分类任务,然而不同于一般的细粒度类别,如鸟,车或飞机等,食物没有固定的空间结构或共有的语义模式。这使得基于空间关系约束的细粒度分类方法无法很好的应用在食物图像识别任务上。现有的食物识别方法都需要针对性的对局部和全局特征进行复杂处理。针对食物类别的特点,另一种常规的解决方法是引入额外的监督信息来促进图像识别。这些额外的监督信息通常来自于食物相关的上下文信息或外部知识,如食物图片的GPS定位,食物的餐厅来源,或食物的成分,烹饪方式,食谱等。然而直接收集这些额外的信息需要花费大量的人力成本和时间成本,收益低,也难以泛用到其他食物识别场景。针对以上问题,本文就基于深度学习的食物识别任务中的关键技术进行研究,提出了新的注意力模块以及多模态融合损失函数,解决食物图像识别的细粒度特征提取问题以及多模态信息融合问题。首先,本文提出了基于变换器Transformer的窗口注意力融合模块,该模块利用变换器Transformer固有的自注意力机制来自适应地选择原始图像的判别区域,在训练中不需要额外的锚框标注。具体来说,该模块融合了Swin Transformer不同尺度大小的窗口注意力权重,形成注意力掩膜。通过基于注意力掩膜的最大连通区域裁剪原始图像,可以得到食物图像局部关键区域。最后将该区域放大并输入到下一阶段的细粒度网络,迭代地学习细粒度特征。该模块解决了食物没有固定空间结构和语义模式的细粒度识别问题。其次,相比于其他上下文信息和外部知识,食物类别的名称便于获取,且与食物本身密切联系,包含着食物重要文本信息,如主要成分,烹饪方式或产地等。对此,本文提出了基于自然语言处理的上下文语义中心损失。利用BERT相关的自然语言处理方法来提取食物标签的上下文语义嵌入,并将该嵌入作为深度特征空间的类别中心,最小化图像特征与语义嵌入之间的距离,指引模型学习到相关的食物语义信息。训练中上下文语义中心损失联合了分类交叉熵损失进行监督学习,学习到的深度特征能够有效的提升食物识别的性能。最后,为了说明本文方法的有效性,本文在三个公开食物图像数据集(Food-101,Vireo Food-172和Chinese Food Net)里进行了大量的实验,并与目前已发表的先进的食物识别方法进行了充分的横向对比。实验结果表明,本文提出的语义中心损失(SCG)和窗口注意力融合模块(WAFM)的方法均能够接近和达到业界最优方法的识别效果,而结合两者的SCG-WAFM方法则成为了目前最先进的食物图像识别方法。此外,本文的模型不需要复杂的训练策略,可以直接端到端的训练,极大地简化了训练过程,端到端的推理也方便了模型部署。

本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:源码码头 ,原文地址:https://m.bishedaima.com/lunwen/54346.html

相关推荐

发表回复

登录后才能评论