基于深度学习的图像自动标注算法研究
这是一篇关于图像自动标注,非负矩阵分解,级联网络,语义层次结构,循环神经网络的论文, 主要内容为图像自动标注是计算机视觉领域内的一个研究热点。互联网的快速发展,使得网络图片数量激增,传统的图像检索技术已无法为人们提供方便快捷的服务。近几年,兴起了一种基于语义的图像检索技术,图像自动标注在该技术中发挥着重要作用。本文就如何对图像进行更加有效的自动标注这一问题进行了深入研究。首先,针对当前图像自动标注算法存在的两个缺点:(1)模型不具有迁移性;(2)特征融合能力不够强。本文提出了一种基于加权多视图非负矩阵分解的图像自动标注算法,关键思想是先将标签视为除视觉特征之外的另一视图,再将所有视图联合分解为基础矩阵和系数矩阵,使得每张图像的系数向量在视图之间相似,从而迫使每个基础向量在每个视图中捕获相同的潜在概念。最终得到一个基于查询图像的生成模型,使用该模型的基础矩阵和查询图像的视觉特征传输标签。其次,针对当前多数图像自动标注结果中含有冗余标签、信息量不够丰富的问题,本文提出了一种基于级联网络和语义层次结构的图像自动标注算法。首先,输入数据集的图片和标签列表,采用级联的VGG网络提取图像特征,训练条件行列式点过程算法模型(Determinantal Point Process,DPP),计算标签的质量分数确定候选标签列表;其次,利用Word Net检索数据集标签得到语义层次结构和同义词,进而构建加权语义路径;最后,利用DPP算法在候选标签集中采样,得到最终的标注结果。最后,针对当前许多图像自动标注算法中采用的top-k评估方法不符合人类标注习惯,且容易引起错误标注信息的问题。本文联合使用卷积神经网络和循环神经网络,提出了一种基于LSTM循环神经网络的图像自动标注算法,将图像自动标注任务转化为序列生成任务,使模型根据图像内容自行预测标签的长度。
基于U-Net的视网膜血管分割方法研究
这是一篇关于深度学习,视网膜血管分割,U-Net,注意力机制,级联网络的论文, 主要内容为视网膜血管分割是医学图像处理领域中的一个重要分支,旨在通过计算机系统自动将眼底图像中的血管形态学结构分割出来。这项技术在临床医学上有着广泛的应用,例如用于糖尿病视网膜病变的早期筛查和白内障手术前的评估等。然而,由于视网膜血管结构复杂,眼底图像存在着低对比度、光照不均以及病理性渗出物等因素的干扰,导致该任务仍然具有挑战性。此外,对于直径较小的细小血管,其与周围组织颜色的差异较小,所以血管的对比度低,这进一步增加了精准分割的困难。近年来,随着深度学习技术在该任务上取得了巨大的成功,针对该任务的主流框架U-Net及其变体方法仍然存在着一些不足,包括未考虑全局语义依赖关系、编码器和解码器之间的语义鸿沟、以及细小血管分割困难等问题。为解决以上问题,进行了以下研究:(1)基于同尺度和跨尺度增强的U-Net分割方法。基于U-Net的方法通常利用卷积操作来提取特征,然而卷积操作是一种局部感知模型,只能在固定大小的局部区域内进行特征提取,缺乏对全局信息的考虑,此外,简单的跳跃连接操作缺乏跨尺度交互和语义间隙的考虑。为此提出了一种基于同尺度和跨尺度增强的U-Net分割方法,本文主要从两个角度对模型进行设计:对于同一尺度的编码-解码层,本文设计了一种空间增强的自注意力机制来增强编码-解码过程中的全局和空间感知能力。具体来说,该机制被嵌入到每个编码层中增强其全局空间聚合能力,并进一步将其拓展到解码端来缓解解码过程中上采样操作带来的信息丢失等问题。对于不同尺度的编码-解码层,本文设计了一种新颖的跨尺度融合模块,通过动态地选择最深层中丰富的特征信息来增强与其它尺度之间的语义交互,进一步弥合编码器和解码器之间的语义鸿沟以获得更加准确的分割精度。在DRIVE、CHASE_DB1和STARE三个公开数据集上进行实验验证,实验结果表明该方法能有效的分割出视网膜血管结构,相比于基线模型,在各项指标上均取得了较高的提升。(2)基于级联U-Net的视网膜血管分割方法。针对细小血管分割困难的问题,本文提出了一种基于U-Net的级联策略,通过两阶段式从粗到细来分割血管,以进一步提升模型对细小血管的精准分割能力。该级联网络主要由三个部分组成:粗分割模型、校准模块和一个精细分割模型。其中,粗分割模型设计为一种引入了自注意力机制的轻量级U-Net,用于提取感兴趣的区域,然后引入校准模块,通过整合粗分割结果与原输入信息,实现对粗分割结果的二次校准,最后将其结果作为精细分割模型的输入,促使精细模型能关注重要区域,以实现对血管的细化。这里的精细模型沿用上述同尺度和跨尺度增强的U-Net。在三个公开的数据集DRIVE、CHASE_DB1和STARE上,相较于简单级联的方式,该模型能进一步提升分割性能。
基于U-Net的视网膜血管分割方法研究
这是一篇关于深度学习,视网膜血管分割,U-Net,注意力机制,级联网络的论文, 主要内容为视网膜血管分割是医学图像处理领域中的一个重要分支,旨在通过计算机系统自动将眼底图像中的血管形态学结构分割出来。这项技术在临床医学上有着广泛的应用,例如用于糖尿病视网膜病变的早期筛查和白内障手术前的评估等。然而,由于视网膜血管结构复杂,眼底图像存在着低对比度、光照不均以及病理性渗出物等因素的干扰,导致该任务仍然具有挑战性。此外,对于直径较小的细小血管,其与周围组织颜色的差异较小,所以血管的对比度低,这进一步增加了精准分割的困难。近年来,随着深度学习技术在该任务上取得了巨大的成功,针对该任务的主流框架U-Net及其变体方法仍然存在着一些不足,包括未考虑全局语义依赖关系、编码器和解码器之间的语义鸿沟、以及细小血管分割困难等问题。为解决以上问题,进行了以下研究:(1)基于同尺度和跨尺度增强的U-Net分割方法。基于U-Net的方法通常利用卷积操作来提取特征,然而卷积操作是一种局部感知模型,只能在固定大小的局部区域内进行特征提取,缺乏对全局信息的考虑,此外,简单的跳跃连接操作缺乏跨尺度交互和语义间隙的考虑。为此提出了一种基于同尺度和跨尺度增强的U-Net分割方法,本文主要从两个角度对模型进行设计:对于同一尺度的编码-解码层,本文设计了一种空间增强的自注意力机制来增强编码-解码过程中的全局和空间感知能力。具体来说,该机制被嵌入到每个编码层中增强其全局空间聚合能力,并进一步将其拓展到解码端来缓解解码过程中上采样操作带来的信息丢失等问题。对于不同尺度的编码-解码层,本文设计了一种新颖的跨尺度融合模块,通过动态地选择最深层中丰富的特征信息来增强与其它尺度之间的语义交互,进一步弥合编码器和解码器之间的语义鸿沟以获得更加准确的分割精度。在DRIVE、CHASE_DB1和STARE三个公开数据集上进行实验验证,实验结果表明该方法能有效的分割出视网膜血管结构,相比于基线模型,在各项指标上均取得了较高的提升。(2)基于级联U-Net的视网膜血管分割方法。针对细小血管分割困难的问题,本文提出了一种基于U-Net的级联策略,通过两阶段式从粗到细来分割血管,以进一步提升模型对细小血管的精准分割能力。该级联网络主要由三个部分组成:粗分割模型、校准模块和一个精细分割模型。其中,粗分割模型设计为一种引入了自注意力机制的轻量级U-Net,用于提取感兴趣的区域,然后引入校准模块,通过整合粗分割结果与原输入信息,实现对粗分割结果的二次校准,最后将其结果作为精细分割模型的输入,促使精细模型能关注重要区域,以实现对血管的细化。这里的精细模型沿用上述同尺度和跨尺度增强的U-Net。在三个公开的数据集DRIVE、CHASE_DB1和STARE上,相较于简单级联的方式,该模型能进一步提升分割性能。
基于级联U型网络的视网膜血管分割技术研究
这是一篇关于视网膜血管分割,级联网络,EfficientNet-B5编码器,高效通道注意力,ASPP_CBAM复合模块的论文, 主要内容为视网膜血管是心血管疾病对血管微循环影响较为严重的重要部位之一,其结构变化可反映出心血管疾病对血管网络形态结构的影响。在临床上,视网膜血管网络对动脉硬化、高血压、糖尿病、肾炎、糖尿病视网膜病变、青光眼等各种眼部疾病的诊断具有极其重要的意义。视网膜血管网络中细小的血管数量众多,血管之间连接紧密,因此,视网膜血管树结构复杂;此外,血管和背景之间的对比度较小,且眼底图像容易受到不均匀光照和病理噪声的影响;这些客观因素使得视网膜血管分割成为一项具有挑战性的任务。本课题针对视网膜血管分割方法展开相关研究工作,课题在分析视网膜图像特点的基础上,重点研究了基于级联U型网络的视网膜血管分割技术,并提出了相应的解决方案。本课题主要研究内容及具体工作体现在以下几个方面:(1)针对视网膜图像细小血管难以分割以及病灶误分割等问题,提出了一种基于Efficient Net-B5级联U型网络的视网膜血管分割方法。采用Efficient NetB5编码器对图像特征编码,提取视网膜血管图像更深层特征;其次,提出双卷积注意力块有效捕获跨通道交互的信息。在CHASEDB1公开数据集上的实验结果表明,本文算法在精确分割视网膜血管的同时表现出良好的抗干扰性能。(2)针对视网膜血管分割图像的FOV边缘存在伪影的情况,采用形态学后处理算法将视网膜掩膜图像的FOV边缘向内收缩,进而优化视网膜图像FOV边缘的误分割情况,最终实现视网膜血管的有效分割。(3)为进一步提升视网膜血管分割的效果,引入ASPPCBAM模块对Ladder Net网络进行改进,提出了改进的Ladder Net的视网膜血管分割算法。改进的网络充分利用多尺度感受野的特征信息,同时通过注意力机制保留重要的特征,从而在视网膜血管分割中取得更加理想的分割效果。(4)对比实验从主观和客观评价指标两方面验证表明,与FC-RCF、U-Net和ResUNet算法相比,在CHASEDB1数据集上,基于Efficient Net-B5级联U型网络的视网膜血管分割算法的F1-score、特异度、准确率及AUC均为最优,分别达到了79.57%、98.21%、96.30%和97.51%,在DRIVE数据集上的F1-score达到了81.74%。改进Ladder Net算法相比FCRCF、U-Net、Res-UNet、Ladder Net算法在DRIVE和CHASEDB1数据集上的F1-score、AC和AUC值均为最高。在CHASEDB1数据集上,相比原始Ladder Net网络,F1-score提高了1.17%,AUC提高了0.17%。在DRIVE数据集上的F1-score达到了82.2%,AUC值达到了98%。从而验证了本课题所提出的视网膜血管分割网络具有较高的准确率和鲁棒性。
基于深度学习的图像自动标注算法研究
这是一篇关于图像自动标注,非负矩阵分解,级联网络,语义层次结构,循环神经网络的论文, 主要内容为图像自动标注是计算机视觉领域内的一个研究热点。互联网的快速发展,使得网络图片数量激增,传统的图像检索技术已无法为人们提供方便快捷的服务。近几年,兴起了一种基于语义的图像检索技术,图像自动标注在该技术中发挥着重要作用。本文就如何对图像进行更加有效的自动标注这一问题进行了深入研究。首先,针对当前图像自动标注算法存在的两个缺点:(1)模型不具有迁移性;(2)特征融合能力不够强。本文提出了一种基于加权多视图非负矩阵分解的图像自动标注算法,关键思想是先将标签视为除视觉特征之外的另一视图,再将所有视图联合分解为基础矩阵和系数矩阵,使得每张图像的系数向量在视图之间相似,从而迫使每个基础向量在每个视图中捕获相同的潜在概念。最终得到一个基于查询图像的生成模型,使用该模型的基础矩阵和查询图像的视觉特征传输标签。其次,针对当前多数图像自动标注结果中含有冗余标签、信息量不够丰富的问题,本文提出了一种基于级联网络和语义层次结构的图像自动标注算法。首先,输入数据集的图片和标签列表,采用级联的VGG网络提取图像特征,训练条件行列式点过程算法模型(Determinantal Point Process,DPP),计算标签的质量分数确定候选标签列表;其次,利用Word Net检索数据集标签得到语义层次结构和同义词,进而构建加权语义路径;最后,利用DPP算法在候选标签集中采样,得到最终的标注结果。最后,针对当前许多图像自动标注算法中采用的top-k评估方法不符合人类标注习惯,且容易引起错误标注信息的问题。本文联合使用卷积神经网络和循环神经网络,提出了一种基于LSTM循环神经网络的图像自动标注算法,将图像自动标注任务转化为序列生成任务,使模型根据图像内容自行预测标签的长度。
本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:毕业设计驿站 ,原文地址:https://m.bishedaima.com/lunwen/54282.html