基于通道注意力机制与代价敏感学习的关系抽取方法
这是一篇关于关系抽取,卷积特征,SENet,成对排序损失函数,代价敏感的论文, 主要内容为面对海量互联网信息,信息抽取技术成为自然语言处理领域中获取有效信息不可或缺的重要手段。其中,关系抽取作为信息抽取的一个关键子任务,旨在抽取句子中实体对之间的语义关系,对于文本语义理解以及知识图谱构建具有重要作用。本文为了更好地提升关系抽取模型效果,围绕文本语义特征的提取与表示不充分、关系类别不平衡情景下预测模型性能低下等问题,开展如下理论与实验研究。首先,为了更好地提取文本的语义特征,以及精准地增强或抑制各卷积通道特征的重要度,针对关系抽取任务情景,设计了卷积特征增强模块RE-SENet。该模块基于SENet模块,在Squeeze操作中,增加了全局最大池化操作以增加通道维度中关键特征的提取;在Excitation操作中,使用Mish激活函数替换bottleneck结构中的Relu激活函数,以减少通道特征非线性融合过程中的语义特征损失。其次,针对关系抽取数据集中常见的关系类别不平衡问题,提出一种融合代价敏感学习思想的成对排序损失函数CS-PRLoss。该函数在成对排序损失函数的基础之上,引入代价敏感权重因子,并依据不同类别的样本数量确定代价敏感权重因子的值,可使得模型在训练过程中有效克服NR类型样本影响的基础上,更多地侧重少数类样本特征的学习。再次,提出基于RE-SENet与CS-PRLoss的关系抽取模型MC_RS_CP。该模型使用Bio BERT预训练语言模型作为词嵌入,使用Bi GRU网络获取文本的上下文特征信息,使用多尺度卷积神经网络提取文本中词组合特征,并经由卷积特征增强模块RE-SENet予以进一步增强,使用损失函数CS-PRLoss计算模型损失。最后,在DDIExtraction2013关系抽取数据集上开展相关实验验证及结果分析工作,以验证本文相关研究工作的有效性。
牛仔激光洗水工艺参数预测与应用研究
这是一篇关于牛仔,激光洗水,卷积神经网络,工艺参数预测,SENet的论文, 主要内容为随着工业技术的发展,牛仔时尚的创新不断增加,人们对新审美和新风格的追求也越来越开放。牛仔服装的不同风格来自于不同的洗水工艺。牛仔激光洗水技术因其绿色环保、节能高效以及个性化定制等优势,在多种洗水工艺中脱颖而出,具有更广阔的市场前景。然而,目前的激光洗水工艺也存在一定的困难。洗水师只能凭借其经验对激光洗水的工艺参数进行多次优化后,才有可能获得满意的洗水效果。所以现有的激光洗水工艺效率相对较低,且浪费人力物力。因此,本文提出用卷积神经网络训练的激光工艺参数预测模型来替代人工经验预测牛仔激光洗水近似工艺参数,以期提高牛仔激光洗水工艺的时效性及精准性。本文的研究内容主要包括三个方面:(1)以纯棉靛蓝牛仔面料进行激光洗水实验,构建网络模型数据集。收集牛仔激光洗水图像,并将生成该图像的激光加工工艺参数作为该图像的标签值,形成本研究的原始数据集。根据该数据集基于LeNet模型提出改进卷积神经网络预测模型,并将改进模型与人工神经网络模型和卷积神经网络Alex Net模型进行预测效果对比。结果表明,改进后的模型能够通过激光洗水图像预测近似激光加工参数,并且各加工参数拟合较好,预测性能优于其他预测模型。此外,将预测参数和实际参数进行激光洗水实验。将褪色后的牛仔面料进行了拉伸测试和颜色K/S测试表征,进一步验证预测效果的可靠性。(2)为提升模型预测精度,本文提出了一种基于注意力机制的混合网络模型。该模型由残差网络模块(Residual Network,Res Net)和挤压-激励网络模块(SqueezeExcitition Network,SENet)融合构建。该模型将SELayer结构嵌入ResNet基础块中,从而构建出一个具有更高预测精度的Res Net-SENet混合模型。用该混合模型对激光洗水图像进行预测。与现有模型相比,所提出的混合模型具有更高的拟合度,并且预测的各工艺参数与真实参数的误差更小。(3)开发了基于c/s架构的牛仔激光洗水工艺参数预测应用软件。针对用户需求进行开发,实现用户上传洗水图像预测激光加工参数,查看历史预测记录,保存预测图像及工艺参数数据等功能。软件测试表明,系统达到了设计要求,能够完成各模块的功能需求。
基于深度学习的服装版型识别相关技术研究
这是一篇关于服装识别,Mask RCNN,Cascade RCNN,深度可分离卷积,SENet的论文, 主要内容为随着服装行业的迅速发展和消费者对时尚要求的不断提高,服装图像识别技术已成为当前研究热点,被广泛应用于电商以图搜物、服装智能搭配和定制等领域。同时,服装版型在服装设计中扮演着至关重要的角色,直接影响服装的剪裁、线条和形状,决定了服装的舒适度和市场竞争力。然而,传统的版型设计方法存在着误差和局限性,无法满足现代时尚产业对版型精准度和效率的要求。因此,版型识别技术逐渐成为了研究热点,并被广泛应用于服装制作、销售和市场营销等领域,具有非常广阔的应用前景。通过版型识别技术,可以帮助消费者更直观地了解服装信息,从而更准确地选择适合自己的服装。也可以帮助服装设计师更好的进行服装设计,定制出更符合消费者需求的服装,提高消费者对品牌的忠诚度。因此,版型识别技术是一项前沿的技术,其应用可以帮助服装行业更好地应对市场变化和消费者需求。本文从以下三个部分来阐述基于深度学习的服装版型识别技术的研究。(1)为了提高服装版型识别的准确度和精度,需要使用一个高质量的数据集。本文贡献了一个包含T恤(T-shirt)、Polo衫(Polo)、衬衫(shirt)、卫衣(fleece)、开衫(cardigan)、西装(suit)、裙子(dress)和风衣(windbreaker)这八个不同品类、风格、尺寸和材质的服装版型图片,以及相应标注信息的数据集。这样做有助于机器学习算法和模型更好的理解和识别不同的服装版型。使用自建的数据集,可以提高机器学习算法和模型的性能,进而提高服装版型识别的质量。(2)为了探究现有的算法对于服装版型的分类识别研究,本文从传统的机器学习领域和深度学习领域,分别选取了PCA、SVM、Le Net-5、Alex Net和VGG16这五款算法进行对比分析研究,探究不同算法对于服装版型识别的效果及优缺点。实验结果显示VGG16算法表现最好,精确度和召回率均在81%以上,F1分数为0.816,准确率为95.40%。(3)为了提升服装版型的识别效果,本文提出了改进的Mask RCNN网络,为了进一步提升识别性能,本文在基础的Mask RCNN上进行改进,首先结合Cascade RCNN的级联头,使得Mask RCNN添加了级联检测头,以进一步提高检测器的性能。其次结合深度可分离卷积,使其与Mask RCNN相结合,可以用它来替换Mask RCNN中的标准卷积层。这将减少模型的参数量和计算成本,同时提高模型的精度和速度。最后结合注意力机制SENet。将其作为Mask RCNN的一部分,用来调整网络中每个通道的权重,以更好的捕捉特征信息,提高模型的感知能力和检测精度。经过实验验证,改进后的Mask RCNN网络相比基础的Mask RCNN网络在Bbox_AP_0.5提升了3.6%,Segm_AP_0.5提升了3.9%。验证了改进的Mask RCNN算法在服装图像识别方面取得的优越性能,尤其是在分割和准确率方面都得到了提高。
基于改进U-Net网络的创伤性气胸CT图像分割方法研究
这是一篇关于气胸分割,深度学习,U-Net,SENet的论文, 主要内容为创伤性气胸是一种创伤后常见的危及生命的损伤,需要及时诊断和处理。目前,临床实践中,创伤性气胸的诊断包括临床评估、胸部X射线片、CT和床旁超声检查。然而,胸片阅读高度依赖放射科医生的经验,容易导致误诊。同时,CT的敏感性和特异性均优于其他诊断方法,通常作为临床诊断的金标准。因此,研究面向气胸CT图像识别算法尤其是医学图像分割非常重要。本文对胸部医学图像分割领域的最新进展进行了广泛的调查研究,在此基础上利用深度学习技术对创伤性气胸CT图像进行分割研究。本文主要研究内容如下:(1)针对气胸区域与其周边组织之间纹理复杂、灰度不均匀,受背景噪声影响较大,气胸区域边缘特征信息易丢失的问题,提出了一种基于多尺度特征提取的U-Net创伤性气胸CT图像分割方法。该方法首先面向U-Net网络的瓶颈层构造基于空洞卷积的多分支特征提取模块,用于加强细节信息的传递,提取图像的多尺度特征;其次面向U-Net网络的跳跃连接路径构造基于SENet的注意力特征提取模块,用于缓解冗余信息的影响,提高网络的表达能力。所提出方法在重庆大学附属中心医院数据集上进行了实验,其分割结果的Dice系数和Io U系数在数据集上各达到94.55%和90.15%。对比现有的许多深度学习分割算法,具有更好的分割性能,能够基本满足医疗辅助诊断的要求。(2)设计并开发了胸部CT图像创伤性气胸分割系统,实现了创伤性气胸分割和分割评价指标显示等基本功能,并将本文所提出的网络模型运用于系统中,对于气胸的诊治具有重要的辅助和实用价值,同时也为以后的气胸量化打下了良好的基础。
基于改进U-Net网络的创伤性气胸CT图像分割方法研究
这是一篇关于气胸分割,深度学习,U-Net,SENet的论文, 主要内容为创伤性气胸是一种创伤后常见的危及生命的损伤,需要及时诊断和处理。目前,临床实践中,创伤性气胸的诊断包括临床评估、胸部X射线片、CT和床旁超声检查。然而,胸片阅读高度依赖放射科医生的经验,容易导致误诊。同时,CT的敏感性和特异性均优于其他诊断方法,通常作为临床诊断的金标准。因此,研究面向气胸CT图像识别算法尤其是医学图像分割非常重要。本文对胸部医学图像分割领域的最新进展进行了广泛的调查研究,在此基础上利用深度学习技术对创伤性气胸CT图像进行分割研究。本文主要研究内容如下:(1)针对气胸区域与其周边组织之间纹理复杂、灰度不均匀,受背景噪声影响较大,气胸区域边缘特征信息易丢失的问题,提出了一种基于多尺度特征提取的U-Net创伤性气胸CT图像分割方法。该方法首先面向U-Net网络的瓶颈层构造基于空洞卷积的多分支特征提取模块,用于加强细节信息的传递,提取图像的多尺度特征;其次面向U-Net网络的跳跃连接路径构造基于SENet的注意力特征提取模块,用于缓解冗余信息的影响,提高网络的表达能力。所提出方法在重庆大学附属中心医院数据集上进行了实验,其分割结果的Dice系数和Io U系数在数据集上各达到94.55%和90.15%。对比现有的许多深度学习分割算法,具有更好的分割性能,能够基本满足医疗辅助诊断的要求。(2)设计并开发了胸部CT图像创伤性气胸分割系统,实现了创伤性气胸分割和分割评价指标显示等基本功能,并将本文所提出的网络模型运用于系统中,对于气胸的诊治具有重要的辅助和实用价值,同时也为以后的气胸量化打下了良好的基础。
本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:代码工厂 ,原文地址:https://m.bishedaima.com/lunwen/54285.html