基于U-Net网络的医学图像分割方法研究
这是一篇关于深度学习,医学图像分割,卷积神经网络,Transformer的论文, 主要内容为医学图像分割是计算机视觉领域的热门研究方向之一,众多学者尝试采用深度学习来处理该领域的相关任务。近年来,卷积神经网络无疑是推动深度学习发展的主要神经网络之一,其显著优势在于使用局部操作对特征进行分层提取。然而随着研究的不断深入,研究者们发现传统卷积神经网络的卷积层中卷积核的尺寸大小会限制提取目标特征的范围,从而导致网络的分割结果缺少来自图像中全局范围内长距离特征信息的问题。针对该问题,本文探究了在医学图像分割领域中引入自然语言处理任务中Transformer结构是否能够缓解卷积神经网络的局限性,具体内容如下:(1)提出了Swin E-UNet3+网络,解决卷积神经网络在医学图像分割任务中由于感受野限制导致无法捕获长距离特征依赖关系的问题。本文将Transformer变体模型引入U-Net3+网络中,在编码层使用两个连续的Swin Transformer模块替代原始编码层结构,利用该模块能够学习图像中长距离特征的优势从而增强编码器提取特征轮廓信息的能力,并在编码层之间使用Patch Merging替代最大池化方式来完成下采样操作。通过多尺度跳跃连接将编码层信息传递到解码层中,在解码层中聚合该信息以及前一层经过上采样输出的特征信息来完成对目标特征的分割。在泰迪杯直肠肿瘤数据集和ISIC2017皮肤镜图像数据集上验证本文提出Swin E-UNet3+网络,实验结果表明,Swin E-UNet3+模型在Dice系数、IOU值和精确度Precision评价指标上均高于U-Net、U-Net++和U-Net3+模型。(2)提出了CSE-Trans Net网络,旨在提高U-Net网络在细胞核任务中分割性能。CSE-Trans Net网络由编码器、解码器和跳跃连接三部分组成,采用UCTrans Net网络的编码器和解码器结构进行细胞核特征提取操作,并在网络的跳跃连接部分提出CSE-Transformer方法。CSE-Transformer改进了Transformer多头自注意力机制中的q和k,使得q可以对全局范围内的k进行相关性计算以达到增强多头自注意力捕获长距离特征信息的目的,并在MLP网络最后一层全连接之后添加挤压激励模块获取通道间的特征,以及在残差路径中加入深度可分离卷积对局部邻域信息进行提取。通过采用CSE-Transformer方法使得CSETrans Net网络在捕获长距离特征信息能力的基础上同时兼顾特征局部邻域信息,并在Mo Nu Seg细胞核实验中取得了优异的分割性能。
基于图像识别技术的直肠癌淋巴结转移的智能诊断应用
这是一篇关于直肠癌,淋巴结转移,图像识别,图像切割,卷积神经网络的论文, 主要内容为随着直肠癌患病率的逐年升高,直肠癌智能诊断领域越来越受到人们的关注。直肠癌易向肠外浸润并引起淋巴结转移,而淋巴结的转移对根治直肠癌有着至关重要的作用。因此,本文旨在通过图像识别技术,结合直肠癌患者的CT影像数据和医生的临床诊断数据,对直肠癌肿瘤进行智能识别,并对直肠癌肿瘤图像进行智能切割,最后根据切割的肿瘤图像信息进行淋巴结转移情况的智能判断。首先对于直肠癌肿瘤的识别,由于卷积神经网络在处理大量数据上的优势和自我学习的功能以及其在图像识别上取得的惊人成果,因此本文选择卷积神经网络模型进行直肠癌肿瘤的识别。首先对108位直肠癌患者的CT影像数据以及由医生提供的临床诊断数据,按照8:2的比例构建训练数据集和测试数据集,并构建八层卷积神经网络对训练数据集进行100次训练和参数调优,最后根据测试数据集对模型效果进行评价。结果显示模型的召回率为0.975,精确率为0.894,F-Score=0.933,模型在技术上基本满足要求,在实际应用的过程中,可能存在一定概率的误诊情况,但几乎不会出现漏诊的情况。对于直肠癌肿瘤图像的切割,相比于CNN和FCN,U-Net增加了收缩路径和扩展路径,使得其可以精确定位不同尺寸的目标并进行分割;并且人体内部结构相对稳定,直肠分布非常规律,语义学简单明确,低分辨率信息可以简单地定位肿瘤区域。因此,本文选择U-Net模型进行图像分割。经过参数调优后,模型最终的Dice系数为0.812,与传统方法相比较,其效果有着巨大的提升。接着是直肠癌淋巴结转移的智能诊断。本文首先对切割的直肠癌肿瘤信息,根据其纹理特征、灰度特征、小波变换特征以及卷积特征四个方面进行特征提取,并构建支持向量机、朴素贝叶斯、BP神经网络三个模型进行训练和效果对比。最终结果显示朴素贝叶斯模型有着最优的评价效果,其查全率为100%,查准率为62.5%,F-Score=0.769,其存在一定程度的误诊情况,几乎不存在漏诊的情况。最后,将上述搭建的直肠癌肿瘤的识别和切割算法以及淋巴结转移的智能判断算法包装成易于调用的Web页面集成组件,实现功能的复用和资源的共享。
基于主题与语言线索的虚假评论检测研究
这是一篇关于虚假评论检测,LDA主题模型,语言线索,卷积神经网络,注意力机制的论文, 主要内容为随着互联网的迅速发展,在线评论成为人们交流与分享消费和购物体验的重要渠道。在线评论中蕴含着相当大的价值,研究表明,大多数人在购买之前都会去查看商品的评论,评论的好坏对消费者的购买决策有重大影响,这间接影响商家的收益。因此有些不良商家为了保障自己的利益,采取“有偿刷单”、“好评返现”等形式批量制造虚假好评,导致如今的电商平台被虚假评论所充斥。虚假评论混杂在真实评论之中,难以区分,对消费者、商家、平台造成了非常大的不利影响。首先虚假评论会误导消费者的判断,做出错误的购买决策。其次评论的价值变低,商家难以及时了解消费者的诉求与建议,无法为未来的发展提供帮助。最后,平台也会因为虚假评论过多而声誉受损、用户流失。然而虚假评论的检测并不是件易事,由于虚假评论的隐蔽性和复杂性使得人工检测变得非常困难。真实评论区别于虚假评论的特征有什么?如何自动化地去检测虚假评论?这两大问题是目前研究的主流。针对第一个问题,本文对真实评论和虚假评论分别进行了LDA主题建模和语言线索分析。与前人的基于单元组Unigram的LDA模型不同,本文使用的LDA基于双元组Bigram,相较于Unigram,本文的主题模型具有更好的可解释性。此外本文在对主题词差异进行分析时,使用文本共现网络,查看真实评论与虚假评论的主题词在评论中的分布差异。最后本文使用LIWC分析真假评论在情感、认知、社交、感知这四类语言线索上是否存在差异。本文的结果表明,真实评论相较于虚假评论包含更多的细节信息,如特色食物、特色活动,并且单条真实评论中的可能包含相当丰富的主题信息,而虚假评论中则很少,此外本文还发现真实评论与虚假评论在四大类语言线索上存在显著性差异。针对第二个问题,本文提出了融合主题模型、语言线索和深度神经网络的虚假评论检测模型。该模型包含两大模块,其一是引入注意力机制的卷积神经网络模型,从文本信息中提取隐含语义特征,其二是双向门控循环单元,从主题和语言线索中提取重要特征,将这两个模块整合到一起,构成本文的虚假评论检测模型。该模型在与其他基准模型进行对比时,在具有较为突出的表现,提升约5%。过去的研究为虚假评论检测提供了丰富的特征和模型,本文基于前人的研究结果,创新性地提出了使用基于双元组的LDA主题模型与情感、认知、社交、感知这四类语言线索对评论进行特征提取,在探讨了这两大特征在真实评论和虚假评论上的差异之后,为如何从主题和语言线索方面去识别真实评论和虚假评论提供合理建议。并且本文还将两类特征与深度神经网络进行融合,提高了模型的分类效果。本文的结果丰富了主题、语言线索分析和虚假评论检测模型的理论研究,同时也为平台如何构建有效的虚假评论检测模型提供参考方案。
自然场景中的物体检测相关技术研究
这是一篇关于物体检测,卷积神经网络,样本生成,多尺度特征,训练系统的论文, 主要内容为物体检测,即给定一张图像,识别出其中的目标物体并对其定位,是计算机视觉领域研究的一个重要和基础问题。最近几年随着深度学习的快速发展,基于深度学习的物体检测技术越来越受到重视。无人驾驶汽车、个人智能助手、智能安防等领域都依赖准确高效的物体检测算法。深度学习最大的优势就是端到端的训练和部署,使用通用的模型和大量标注数据就能得到非常好的效果。围绕基于深度学习的物体检测,本文分别从数据获取和模型优化两个核心问题进行了研究,并再此基础上实现了一个物体检测系统。本文主要分为以下三个部分:一、自然场景中的平面图案检测具有非常广泛的应用需求,深度学习在这类应用中被证明具有较好的检测效果,但在真实场景中很难收集到大量可用于训练深度模型的图像。为了应对大量训练样本获取的困难,本文构建了一个快速自动生成大量训练样本的方法。该方法通过对少量的模板样本图片应用几何和纹理变换,模拟多种自然场景中的效果,合成用于检测的训练样本。实验结果表明,使用本文方法合成的训练样本可以取得与使用人工标注的真实样本相近的效果。该方法减少了对人工标注数据的依赖,降低了数据获取成本。二、FasterRCNN是物体检测中被广泛应用的深度神经网络模型。本文针对Faster RCNN方法对小尺寸物体检测效果不好的情况,使用多尺度的卷积特征进行物体的边框提取和分类,并通过拼接多个层级的特征图,使得网络在抽取高层语义信息的同时不会丢失细节的图像信息,实现在多尺度范围上更准确的检测。通过Pascal VOC数据集上的实验结果表明,对比使用单层特征图的网络,本文使用的网络对小目标物体的检测有着更好的检测效果。三、鉴于使用深度学习方法进行物体检测具有相对统一的流程,可以通过模块化的方法组合实现,本文实现了一个可视化的物体检测训练和识别系统。该系统使用B/S架构,采用模块化设计,支持多种数据集和物体检测网络,覆盖了数据输入、神经网络训练、模型评价等整个物体检测流程。使用该系统,不具有深度学习专业知识的用户,通过web端网页操作,就可根据自己的需要完成物体检测深度神经网络模型的训练和部署,为物体检测相关的研究和应用开发人员提供了便利。总之,本文围绕深度神经网络在自然场景图像中物体检测为中心,研究并开发了相关的训练检测方法和可视化系统。实验结果表明本文提出方法和系统取得了较好的结果。
基于机器视觉的鱼鳔检测技术与收集方法研究
这是一篇关于鱼鳔,机器视觉,卷积神经网络,Faster R-CNN的论文, 主要内容为在现有淡水鱼前处理加工过程中,鱼鳔常作为副产品被直接丢弃。研究表明,鱼鳔的主要成分是易于吸收的粘性蛋白,有望用于人造血管的制备,因而鱼鳔具有潜在的应用价值,故鱼鳔完整性自动化检测及收集技术的开发具有一定的现实意义,故本文开展了基于机器视觉的鱼鳔检测技术与收集方法研究。以草鱼、鲫鱼、鲢鱼和鳙鱼四种淡水鱼鱼鳔为研究对象,使用卷积神经网络提取鱼鳔图像特征做分类对比实验,选择特征提取能力最优的卷积神经网络,改进目标检测网络Faster R-CNN的特征提取网络,分类并检测淡水鱼鱼鳔的类别和位置,为鱼鳔收集装置提供类别信息和位置信息。基于上述研究与分析结果,结合鱼鳔的形状特性和物理特性,设计了一款基于机器视觉的淡水鱼鱼鳔收集装置。本文针对淡水鱼加工过程的自动化收集鱼鳔的关键技术展开了探讨,主要研究内容如下:(1)阐述图像采集系统的工作原理,根据实际测量的淡水鱼鱼鳔和内脏实际尺寸数据,给出图像采集关键组成部件的选型依据。采集鱼鳔图像数据,建立淡水鱼鱼鳔原始图像数据集,研究图像的预处理技术,使用模糊-掩膜-闭操作的处理流程,对原始数据集进行预处理,减少图像背景杂色,提高鱼鳔图像的质量。再通过数据增强的方式,扩充鱼鳔数据集,提高鱼鳔数据集的多样性。针对数据集建立和图像预处理共性科学问题展开讨论,为鱼鳔的分类和检测技术的研究奠定基础;(2)分析常见卷积神经网络的特殊结构,分别建立基于VGG16、VGG19、Goog Le Net和Res Net50的鱼鳔分类模型,并通过实验验证各模型的特征提取能力。结果表明,使用VGG16对四种鱼鳔数据集分类得到的准确率均低于80%,VGG19得到的四种鱼鳔的准确率值在84%和91%之间,Res Net50模型在四种鱼鳔数据集上的准确率均高于Goog Le Net模型,在鲫鱼数据集上的准确率最高达到94.92%。Res Net50的特征提取能力强于其他网络,因此选用Res Net50模型为鱼鳔检测技术的特征提取网络;(3)基于前文研究分析结果,选择Res Net50为特征提取网络,并使用改进后的Faster R-CNN检测算法建立检测模型,并利用草鱼、鲫鱼、鲢鱼和鳙鱼四种淡水鱼鱼鳔做检测实验。结果表明,改进后的模型测试准确率在草鱼数据集上达到最高,其准确率为96.15%,在鲫鱼,鲢鱼和鳙鱼数据集的测试准确率为95.23%,94.35%,95.12%,且平均每张图片的检测时间仅需0.59s。(4)根据淡水鱼的外观特性和物理特性,分别探讨破损鱼鳔和完整鱼鳔的收集方法,提出基于机器视觉的鱼鳔收集整体方案,探讨了关键技术问题。
基于Gabor-DCNNs和双U-Net的多模态医学图像融合方法研究
这是一篇关于图像融合,Gabor表示,卷积神经网络,模糊神经网路,双U-Net,语义损失的论文, 主要内容为随着医学成像技术的发展,医学图像在临床诊断中变得越来越重要。不同模态的医学图像提供的信息差异较大。例如,计算机断层扫描(CT)图像对于骨骼的成像非常清晰,磁共振成像(MR)图像可以清楚地反映软组织结构,正电子发射断层(PET)图像可提供人体代谢信息,单光子发射断层扫描(SPECT)图像可提供清晰的组织和器官的血液信息。但是单一模态的医学图像有自身的局限性,只能反应个别方面的组织信息,无法提供全面准确的信息。在这种情况下,多模态融合技术成为一种有效的解决手段,通过提取不同模态的图像信息,生成一张信息和特征更全面的融合图像,在医疗诊断和临床操作中起着关键的作用。通过研究多模态医学图像融合及深度学习理论,分析了目前融合方法存在的问题并进行了改进,主要内容如下:针对目前的多模态医学图像融合方法不能充分表征融合图像中病灶部位复杂的纹理和边缘信息,提出了一种基于Gabor表示的多CNN组合与模糊神经网络相结合的方法(G-CNNs)对多模态医学图像CT和MR进行融合。该方法分为两部分,第一部分首先将数据集通过一组比例和方向不同的Gabor滤波器组过滤后获得CT和MR的不同的Gabor表示对,分别使用每对不同的Gabor表示来训练相对应的CNN,从而生成“G-CNN”组,即G-CNNs;第二部分利用模糊神经网络将G-CNNs的多个输出进行融合得到最后的融合图像。实验结果表明,与其他融合方法相比,能更好地将源图像病灶部位丰富的纹理特征和清晰的边缘信息融入到一张图像中,提高了多模态医学图像融合的质量,有效地辅助医生进行疾病诊断。针对卷积神经网络对于处理图像融合任务需要大量训练数据集和训练时间过长以及现有的图像融合方法忽略了源医学图像之间的语义冲突,丢失了有用的语义信息,易造成融合后图像中组织语义不丰富的问题,提出基于可变形卷积的双U-Net和语义损失的方法(2U-F)对多模态医学图像CT和MR进行融合。该方法由两部分组成,第一部分是融合部分,该部分是通过U-Net网络中的下采样和上采样提取到源医学图像中的细节信息和语义信息并通过跳跃连接进行拼接生成融合图像;第二部分是重建部分,该部分是将融合部分输出的融合图像通过U-Net网络中自动编码器结构先通过编码器进行特征提取,再经过解码器进行重建进而优化融合效果。融合部分和重建部分的网络都采用提取医学图像特征能力更强的可变形卷积的U-Net结构。并提出将重建损失、语义损失和结构损失相结合作为网络的总体损失函数,使网络能够将不同模态源图像的亮度映射到同一语义空间进行图像融合,进而解决了多模态医学图像之间的语义冲突。实验结果表明,所提出的融合方法在语义损失指标方面明显优于对比的其他融合方法,更能解决源图像中的语义冲突问题,能更好地将丰富的语义信息融入到一张图像中,提高其在临床环境中的应用能力。针对本文提出的两种改进方法,基于PyCharm平台开发了多模态医学图像融合系统。系统包含登录、基于G-CNNs融合方法比较、基于2U-F融合方法比较三大模块。其中基于G-CNNs融合方法比较模块实现了基于Gabor表示的多CNN组合与模糊神经网络相结合的融合方法与其他对比方法对同一对源图像进行融合以及对融合结果进行客观指标计算;基于2U-F融合方法比较模块实现了基于可变形卷积的双U-Net和语义损失融合方法与其他对比方法对同一对源图像进行融合以及对融合结果进行客观指标计算。该系统可应用于临床上帮助医疗工作者选取更高质量的医学融合图像。
本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:毕设项目助手 ,原文地址:https://m.bishedaima.com/lunwen/45056.html