6个研究背景和意义示例,教你写计算机模型可解释性论文

今天分享的是关于模型可解释性的6篇计算机毕业论文范文, 如果你的论文涉及到模型可解释性等主题,本文能够帮助到你 基于预训练语言模型的可控文本生成研究与应用 这是一篇关于可控文本生成

今天分享的是关于模型可解释性的6篇计算机毕业论文范文, 如果你的论文涉及到模型可解释性等主题,本文能够帮助到你

基于预训练语言模型的可控文本生成研究与应用

这是一篇关于可控文本生成,自然语言处理,生成对抗网络,模型可解释性的论文, 主要内容为随着预训练语言模型建模能力的增强,使用机器生成流畅且合理的句子不再那么困难,然而当生成长度增加的时候,文本的内容和风格不再容易控制,容易出现退化问题。本文基于现有的理论与技术,对可控文本生成的内容控制和风格控制进行了相关拓展与研究,主要工作有以下几点:(1)针对内容控制的问题,爬取专用语料,使用了关键词提取算法构造内容提示数据集。本文在现有预训练语言模型基础上,提出了动态损失优化用于改进单向自回归语言模型,提出了编码器独立增强方法用于改进编码器-解码器模型。和现有的做法进行了多个角度的对比实验并进行了结果分析,实验结果显示本文的优化方式在BLEU可控性指标上分别提升2.27%和5.72%。(2)针对风格难以控制的问题,本文提出隐式变量决策的方法,将生成对抗网络引入编码器-解码器模型架构中,并进行了训练流程的优化调整。通过句法分析的方式构造文本风格控制的数据集,并设计辅助的风格蕴含二分类实验。通过实验对比现有的模型算法,实验结果表明本文的优化方法在风格控制文本生成中提高了7.11%的过筛概率;在文本生成长度增大到100时,文本困惑度指标相对于改进前下降了6.60%。(3)针对分类模型为何做出该决策的问题,本文引入模型解释算法LIME,通过与文本风格分类模型的融合与改进,将可解释性粒度从传统的词级别上升到句子级别,从而构建针对性更强的数据集。提出全句掩码的方式对模型预训练任务改进,来增强分类模型对句子语义的理解能力。对比实验表明,本章的优化方式可以对分类任务的F1值有2.67%的绝对提升,对文本生成BERTScore指标有12.66%的相对提升。(4)分析设计并实现了一个可控文本生成系统,该系统基于B/S架构,前端基于浏览器页面,后端基于python语言和Flask web框架开发。用户通过友好的交互页面,使用本文训练好的文本生成模型来辅助文本写作,具有较高的可用性;管理员可以在后台进行语料管理和模型管理,优化系统中模型的表现。本文给出了所采用到的各个算法过程和系统实现的关键部分,并通过实验验证的算法的有效性和系统的可用性。

面向图像理解的深度神经网络建模关键技术研究

这是一篇关于图像理解,神经网络,轻量化,知识蒸馏,模型可解释性的论文, 主要内容为随着人工智能领域的高速发展,图像理解相关技术已经广泛的应用到现实场景当中,如行人识别、医疗辅助诊断,军事安防等领域。图像理解任务含有图像分类、目标检测和实例分割等。其中,深度神经网络模型的优劣将会对这些任务的最终性能起到重大的影响。然而,尽管大量深度神经网络模型已经以优异的性能取得了令人瞩目的成功,但在实际应用中仍然面临两大问题。其一,如何使模型在保持高性能的同时具有较低的复杂度且能够成功部署到算力和存储空间受限的移动设备或者嵌入式平台上?其二,如何对黑盒深度学习模型进行解释,以了解其内部机制和做出决策的原理?因此,面向图像理解的深度神经网络建模关键技术的研究则至关重要。本文进行探索轻量化且高性能的深度神经网络模型的结构,研究模型可解释性方法都具有很强的现实意义。本文专注于研究图像理解任务中的轻量化网络模型结构设计,致力于进一步提高模型性能的方法,尝试推动深度学习模型可解释性的发展。主要工作如下:(1)本文提出了一种有效的轻量级网络结构Tree Block,并基于此建立了一个高效的深度神经网络模型Tree Net。具体地,Tree Block继承并发展了单次聚合单元,通过细粒度的浅残差模块、瓶颈结构等设计降低了其模型复杂度。为了进一步提高模型性能,本文对Tree Block引入粗粒度的残差连接和注意力机制。相关实验表明,相较于主流的神经网络模型,本文提出的Tree Net能够在保持较低模型复杂度的同时具有更高的模型性能。(2)为了进一步压缩网络模型参数量使其易于部署,本文提出了一种简单、快捷且有效的模型蒸馏方法,基于多教师集成的知识硬蒸馏方法(TEHKD)。相较于传统的基于响应的知识蒸馏模型,TEHKD避免了相关超参数设置,具有更强的适用性。另外,TEHKD能够充分利用不同教师模型的优势,为监督学生模型训练提供更为丰富的知识信息。实验表明,该蒸馏方法可以有效的提高Tree Net的性能。(3)为了帮助人们建立对深度学习模型的信任,本文提出了一种高效且更真实反映模型决策结果的可解释性方法Group-CAM。通过简单的“分割-变换-合并”策略,Group-CAM能够在极短的时间内快速生成与目标类别高度相关的显著热图。相比于前沿的可解释性方法,本文提出的Group-CAM所需的计算量更小,且具有更加优秀的视觉显示效果。因此,人们可用其解释Tree Net做出分类决策的依据,帮助建立对模型的信任。此外,文章扩展了Group-CAM的应用,将其作为一种有效的数据增强策略对提出的Tree Net模型进行微调。实验结果表明使用Group-CAM进行微调能够有效的提高基准分类模型的性能。

基于预训练语言模型的可控文本生成研究与应用

这是一篇关于可控文本生成,自然语言处理,生成对抗网络,模型可解释性的论文, 主要内容为随着预训练语言模型建模能力的增强,使用机器生成流畅且合理的句子不再那么困难,然而当生成长度增加的时候,文本的内容和风格不再容易控制,容易出现退化问题。本文基于现有的理论与技术,对可控文本生成的内容控制和风格控制进行了相关拓展与研究,主要工作有以下几点:(1)针对内容控制的问题,爬取专用语料,使用了关键词提取算法构造内容提示数据集。本文在现有预训练语言模型基础上,提出了动态损失优化用于改进单向自回归语言模型,提出了编码器独立增强方法用于改进编码器-解码器模型。和现有的做法进行了多个角度的对比实验并进行了结果分析,实验结果显示本文的优化方式在BLEU可控性指标上分别提升2.27%和5.72%。(2)针对风格难以控制的问题,本文提出隐式变量决策的方法,将生成对抗网络引入编码器-解码器模型架构中,并进行了训练流程的优化调整。通过句法分析的方式构造文本风格控制的数据集,并设计辅助的风格蕴含二分类实验。通过实验对比现有的模型算法,实验结果表明本文的优化方法在风格控制文本生成中提高了7.11%的过筛概率;在文本生成长度增大到100时,文本困惑度指标相对于改进前下降了6.60%。(3)针对分类模型为何做出该决策的问题,本文引入模型解释算法LIME,通过与文本风格分类模型的融合与改进,将可解释性粒度从传统的词级别上升到句子级别,从而构建针对性更强的数据集。提出全句掩码的方式对模型预训练任务改进,来增强分类模型对句子语义的理解能力。对比实验表明,本章的优化方式可以对分类任务的F1值有2.67%的绝对提升,对文本生成BERTScore指标有12.66%的相对提升。(4)分析设计并实现了一个可控文本生成系统,该系统基于B/S架构,前端基于浏览器页面,后端基于python语言和Flask web框架开发。用户通过友好的交互页面,使用本文训练好的文本生成模型来辅助文本写作,具有较高的可用性;管理员可以在后台进行语料管理和模型管理,优化系统中模型的表现。本文给出了所采用到的各个算法过程和系统实现的关键部分,并通过实验验证的算法的有效性和系统的可用性。

基于改进GAMI-NET模型的可解释性研究

这是一篇关于GAMI-NET模型,模型可解释性,交互特征,xgbfi算法,可解释性方法的论文, 主要内容为近年来,涌现出越来越多的复杂模型应用于各类场景。通常情况下,机器学习模型的主要任务是对生活中出现的各类问题进行分析预测。但如果在一些敏感领域或者需要通过预测结果来反向调节特征属性的情况下,我们对模型的要求就不局限于高精确度了,还希望模型在精确度和可解释性方面达到一个平衡。线性模型是最具有可解释性的模型,而神经网络模型是拥有高准确度预测结果的典型代表之一。GAMI-NET模型是以线性模型为框架,内部利用神经网络来进行拟合。本文是以GAMI-NET模型为基础,在原模型上对其交互搜索范围以及交互搜索算法做出改进,进一步在保证模型可解释性的条件下提升模型的准确率,本文做出的工作如下所示:本文从泰勒展开的角度论述全特征搜索的必要性,并将交互特征的搜索范围从主效应范围扩展到了全特征的交互搜索,将交互搜索算法改进为以XGBoost为基础的xgbfi搜索算法,并从模型结构以及可视化结果两个方面对可解释性进行分析。为了验证本文提出的改进是否具有价值,在三个数据集上进行了实验,结果表明,改进后的模型在准确性上相比于传统的完全可解释模型拥有绝对的优势,比之于复杂的集成模型或是单个神经网络也不逊色,在回归方面更是展现了明显的优势。最后,本文基于两个真实数据集对模型的可解释性进行对比,本模型对于预测结果的解释是基于全局的,通过可视化,能够展示特征属性对于预测结果的影响方向及趋势。相比于与模型无关的局部解释方法,本模型更具有全局性。

基于预训练语言模型的可控文本生成研究与应用

这是一篇关于可控文本生成,自然语言处理,生成对抗网络,模型可解释性的论文, 主要内容为随着预训练语言模型建模能力的增强,使用机器生成流畅且合理的句子不再那么困难,然而当生成长度增加的时候,文本的内容和风格不再容易控制,容易出现退化问题。本文基于现有的理论与技术,对可控文本生成的内容控制和风格控制进行了相关拓展与研究,主要工作有以下几点:(1)针对内容控制的问题,爬取专用语料,使用了关键词提取算法构造内容提示数据集。本文在现有预训练语言模型基础上,提出了动态损失优化用于改进单向自回归语言模型,提出了编码器独立增强方法用于改进编码器-解码器模型。和现有的做法进行了多个角度的对比实验并进行了结果分析,实验结果显示本文的优化方式在BLEU可控性指标上分别提升2.27%和5.72%。(2)针对风格难以控制的问题,本文提出隐式变量决策的方法,将生成对抗网络引入编码器-解码器模型架构中,并进行了训练流程的优化调整。通过句法分析的方式构造文本风格控制的数据集,并设计辅助的风格蕴含二分类实验。通过实验对比现有的模型算法,实验结果表明本文的优化方法在风格控制文本生成中提高了7.11%的过筛概率;在文本生成长度增大到100时,文本困惑度指标相对于改进前下降了6.60%。(3)针对分类模型为何做出该决策的问题,本文引入模型解释算法LIME,通过与文本风格分类模型的融合与改进,将可解释性粒度从传统的词级别上升到句子级别,从而构建针对性更强的数据集。提出全句掩码的方式对模型预训练任务改进,来增强分类模型对句子语义的理解能力。对比实验表明,本章的优化方式可以对分类任务的F1值有2.67%的绝对提升,对文本生成BERTScore指标有12.66%的相对提升。(4)分析设计并实现了一个可控文本生成系统,该系统基于B/S架构,前端基于浏览器页面,后端基于python语言和Flask web框架开发。用户通过友好的交互页面,使用本文训练好的文本生成模型来辅助文本写作,具有较高的可用性;管理员可以在后台进行语料管理和模型管理,优化系统中模型的表现。本文给出了所采用到的各个算法过程和系统实现的关键部分,并通过实验验证的算法的有效性和系统的可用性。

基于预训练语言模型的可控文本生成研究与应用

这是一篇关于可控文本生成,自然语言处理,生成对抗网络,模型可解释性的论文, 主要内容为随着预训练语言模型建模能力的增强,使用机器生成流畅且合理的句子不再那么困难,然而当生成长度增加的时候,文本的内容和风格不再容易控制,容易出现退化问题。本文基于现有的理论与技术,对可控文本生成的内容控制和风格控制进行了相关拓展与研究,主要工作有以下几点:(1)针对内容控制的问题,爬取专用语料,使用了关键词提取算法构造内容提示数据集。本文在现有预训练语言模型基础上,提出了动态损失优化用于改进单向自回归语言模型,提出了编码器独立增强方法用于改进编码器-解码器模型。和现有的做法进行了多个角度的对比实验并进行了结果分析,实验结果显示本文的优化方式在BLEU可控性指标上分别提升2.27%和5.72%。(2)针对风格难以控制的问题,本文提出隐式变量决策的方法,将生成对抗网络引入编码器-解码器模型架构中,并进行了训练流程的优化调整。通过句法分析的方式构造文本风格控制的数据集,并设计辅助的风格蕴含二分类实验。通过实验对比现有的模型算法,实验结果表明本文的优化方法在风格控制文本生成中提高了7.11%的过筛概率;在文本生成长度增大到100时,文本困惑度指标相对于改进前下降了6.60%。(3)针对分类模型为何做出该决策的问题,本文引入模型解释算法LIME,通过与文本风格分类模型的融合与改进,将可解释性粒度从传统的词级别上升到句子级别,从而构建针对性更强的数据集。提出全句掩码的方式对模型预训练任务改进,来增强分类模型对句子语义的理解能力。对比实验表明,本章的优化方式可以对分类任务的F1值有2.67%的绝对提升,对文本生成BERTScore指标有12.66%的相对提升。(4)分析设计并实现了一个可控文本生成系统,该系统基于B/S架构,前端基于浏览器页面,后端基于python语言和Flask web框架开发。用户通过友好的交互页面,使用本文训练好的文本生成模型来辅助文本写作,具有较高的可用性;管理员可以在后台进行语料管理和模型管理,优化系统中模型的表现。本文给出了所采用到的各个算法过程和系统实现的关键部分,并通过实验验证的算法的有效性和系统的可用性。

本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:毕设海岸 ,原文地址:https://m.bishedaima.com/lunwen/54287.html

相关推荐

发表回复

登录后才能评论