开放环境下面部情感识别研究
这是一篇关于情感识别,开放环境,面部去遮挡,人脸正面化的论文, 主要内容为随着科学技术发展,面部情感识别应用场景越来越广泛。传统的面部图像情感识别模型大多建立在受控环境下收集到的数据集上,无法适应现实生活中的复杂场景,开放环境下经常存在的如面部遮挡和姿态偏转等问题均可能给情感识别任务带来负面影响,造成识别精度降低。本文分别设计模型解决开放环境下面部情感识别任务中影响精度的两个主要问题:面部遮挡和姿态偏转。针对面部遮挡问题,本文提出一个面部去遮挡情感识别模型,该模型可以检测图像中遮挡物位置,修复面部被遮挡区域的像素信息,然后进行情感分类,本文同时提出一个使用单一无遮挡图像训练模型去遮挡能力的自监督算法,以解决现实生活中无成对遮挡-无遮挡图像训练生成对抗网络的问题,并提出遮挡物损失用于约束生成器的去遮挡过程。针对面部姿态偏转问题,本文提出一个人脸正面化情感识别模型,该模型可对输入的不同角度面部图像进行正面重构,然后对正面图像进行情感分类,本文同时使用生成对抗网络提取输入图像中的姿态特征辅助模型的正面重构工作,并根据人脸正面对称的先验知识提出对称损失加入生成器损失中,以提高重构图像质量。本文设计实验分别在CK+和Affect Net数据集上验证面部去遮挡情感识别模型在不同场景下的有效性,以及在KDEF数据集上验证人脸正面化情感识别模型的有效性,并使用多个指标对模型的情感识别准确性和重构图像质量等方面进行评估。实验结果显示面部去遮挡情感识别模型在CK+数据集上情感识别1均值达到94.99%,在Affect Net数据集上分类平均1值达到60.21%,人脸正面化情感识别模型在KDEF数据集上分类平均1值达到92.75%,证明本文提出的两个模型可以有效解决开放环境下的面部遮挡和姿态偏转问题。
面向主题和融合用户性格的文本情感分析方法研究与应用
这是一篇关于情感识别,性格识别,BERT,动态语义交互,条件融合模型的论文, 主要内容为随着新型的垂直社区和短视频应用的迅速涌现,信息传递正在向专业化、聚集化和智能个性化推荐方向发展。垂直化社区、短视频应用、电子商务平台的个性化推荐系统的出现,使得越来越多的用户通过问答,分享内容,评价等方式主动分享,表达自己的观点、情绪和想法。同时,大量个性化的特定场景数据的出现也给数据分析带来了全新的挑战和机遇。在这些数据当中蕴含了丰富的性格信息和情感信息,分析这些信息可以帮助企业更好地了解用户的群体画像和对产品的满意度,也可以帮助用户更好地了解产品的质量等。情感分析和性格分析是文本分析领域的两种重要研究方向。情感分析是一种通过计算机程序来识别和分析文本、语音、图像等中表达的情感和情绪的技术,它可以帮助人们更好地理解所接触到的信息和情感背景。而性格分析则是一种通过分析人类的行为、态度和心理特征来识别人类性格类型和特征的技术,它可以帮助人们更好地了解自己和他人,并做出更加准确和有效的决策。目前的性格识别研究中,有效融合心理学特征是一个亟需解决的问题;在情感分析研究中,有效融合性格信息帮助进行情感倾向分析也是一个很大的挑战。针对现有性格识别方法难以有效融合文本深层语义与心理学特征的技术挑战,本文提出了基于BERT与句法依存的性格识别模型BERT-SDFM。采用BERT提取文本蕴含的深层语义信息,通过词法与句法分析获得具有性格特征的心理学词汇,设计条件融合函数将该词汇作为外部条件动态嵌入到文本表示向量中,捕获文本深层语义与性格线索间动态的语义交互。最后,使用全连接网络进行更深层的特征提取和降维,以此对性格进行识别。该方法在面向中文电影评论的性格数据集上的实验验证了其有效性,相较于传统神经网络和单一BERT模型,在性格识别准确性上有明显提升。针对情感识别方法使用性格信息进行情感识别的挑战,本文提出了一种面向主题的融合性格的文本情感分析模型。该模型利用BERT-SDFM模型提取文本中富含的性格信息,再利用BERT模型提取文本的深层语义信息,并对BERT-SDFM提取的性格标签进行词嵌入操作,最后采用条件融合模型将性格标签信息嵌入到文本深层语义中,实现文本深层语义信息与性格标签信息的语义交互,从而提高情感倾向分析的准确性。在构建的包含性格的情感数据集上进行实验证明了性格标签信息对情感倾向分析的有效性。与神经网络模型Text CNN、BERT基准模型和XLNet基准模型相比,本文提出的模型在情感识别准确性上表现更优。除此之外,本文基于提出的性格识别模型和情感分析模型,设计并实现了一个文本情感分析系统,该系统动态展示了所构建数据集的内容和分布,实现了文本性格及情感的实时预测功能。
自媒体视频平台舆情情感识别模型及应用研究
这是一篇关于情感识别,舆情分析,情感认知评价,深度学习,自媒体视频平台的论文, 主要内容为随着互联网和通信技术的发展,网络视频(视频)应运而生,并逐渐成为人们娱乐、获取资讯的重要方式。网络视频的信息内容丰富,情绪传播能力强,自媒体视频平台成为舆情新兴聚集地。网民情感与网络舆情发生、发展密切关联,对舆情形势研判,实现对舆情的监管引导,取决于对网民情感的有效识别。为此,本文基于情感认知评价和深度学习理论,针对视频伴随的弹幕和评论,从情感识别角度出发对自媒体视频平台舆情的发生发展进行深入研究,试图为自媒体视频平台舆情监管提供决策支持。首先,对弹幕和评论文本的情感识别进行研究。已有弹幕和评论情感识别研究中情感标注方法的客观性和可解释性较差,本文构建OCC-Bi LSTM-ATT情感识别模型,基于情感认知评价理论,结合自媒体视频平台中用户的舆情表达特征,设计情感标注规则实现积极、中性和消极的三分类情感标注。基于词向量模型实现弹幕和评论文本的向量化表示,构建双向长短时记忆网络并引入自注意力机制实现文本情感特征提取。实验表明,构建的OCC-Bi LSTM-ATT模型相较于基于人工自然情感标注的支持向量机、卷积神经网络和长短时记忆网络等传统模型,能够有效提高数据标注质量,提升模型识别性能,增强数据集情感标注的客观性和可解释性,有较好情感识别效果。然后,对自媒体视频平台舆情情感特征进行实证研究。选取哔哩哔哩平台中“衡水中学学生演讲引发网络争议”事件为案例,设计弹幕和评论采集算法获取舆情数据,应用构建的OCC-Bi LSTM-ATT情感识别模型对弹幕和评论文本进行情感识别。结合弹幕和评论情感倾向及发送时间、视频位置和情感主题的分析得到,弹幕和评论发送量及情感趋势能够同步反映舆情事件发展进程,舆情事件的发生会使平台原有视频的用户情感和用户讨论主题发生显著改变,弹幕的情感表达主要受不同时间位置的视频内容影响,平台原有视频弹幕中受舆情事件影响而产生的情感集中表达于视频起始位置。最后,从弹幕和评论消极情感绝对增量以及消极和积极情感的相对变化率两个角度构建面向自媒体视频平台的舆情情感监测指数,案例事件的指数检验和分析表明,提出的情感监测指数能够较好反映被监测视频的舆情风险,有助于对视频平台舆情发展和舆情风险进行监测管理。
基于多模态融合的情感识别技术研究与实现
这是一篇关于多模态,情感识别,注意力机制,迁移学习的论文, 主要内容为情感识别是人工智能的关键应用,在服务型机器人、教育、医疗、商业服务等诸多方面,都需要通过计算机的帮助来获得人类准确的情感,因此具有重要研究价值。同时,情感识别也颇具挑战性,因为人类多样化的表达情感方式增加了它的复杂性,如自然语言、面部表情和声学信息。这种多样化的情感表达方式凸显了传统的单模态情感识别存在信息利用率低、识别准确率低的缺点,因此很多学者将目光转移到多模态情感识别,如何利用好这些来自不同模态的信息成为多模态情感识别研究中的关键任务。目前在多模态情感识别任务中仍存在以下普遍问题:一是传统的特征提取方法表征能力不足,而深度学习方法受限于可用训练的多模态数据不足,难以充分挖掘各个模态数据自身包含的情感信息;二是不同模态信息存在模态内关联性以及模态间关联性,单一模型难以捕获这些潜在的互信息;三是多模态信息的协同参与在提高情感识别效果的同时,也会导致过度依赖贡献度更高的模态信息,一旦数据缺失会严重影响鲁棒性。从以上几个问题出发,本文做了以下几个方面的工作:(1)针对传统特征提取方法表征能力不足的问题,引入基于知识迁移的深度特征提取方法:在文本模态,采用具有强大的文本语义表达能力的BERT预训练模型对文本进行词嵌入表示;在视频模态上,采用在大型面部数据集上预训练的面部识别模型FAb-Net和ResNet50提取深度视觉特征;在音频模态上,采用VGGish和wav2vec2.0深度学习算法来获得音频信号的高级表示。通过多种方法加强对语言、视觉和音频模态的表示学习,提高情感分析系统的性能。(2)针对单一模型难以挖掘并平衡各模态中潜在互信息的问题,提出了一种基于Transformer协同注意力机制、Mogrifier门控循环单元以及EmbraceNet融合方式的多层次跨模态感知情感识别模型,旨在发现多源异构信息之间的模态交叉和时间交互,有效的提升了不同特征空间在全局范围内的特征聚合能力,在公开数据集上进行的与多种方法的对比实验中,验证了提出的模型兼具情感识别的有效性与鲁棒性。(3)本文在研究情感识别算法基础上,按照软件工程的设计流程,基于B/S架构开发了网页版多模态情感识别系统,将本文算法模型应用。构建了一个集用户管理、数据采集、多媒体可视化展示、情感结果反馈等多功能为一体情感识别系统。
开放环境下面部情感识别研究
这是一篇关于情感识别,开放环境,面部去遮挡,人脸正面化的论文, 主要内容为随着科学技术发展,面部情感识别应用场景越来越广泛。传统的面部图像情感识别模型大多建立在受控环境下收集到的数据集上,无法适应现实生活中的复杂场景,开放环境下经常存在的如面部遮挡和姿态偏转等问题均可能给情感识别任务带来负面影响,造成识别精度降低。本文分别设计模型解决开放环境下面部情感识别任务中影响精度的两个主要问题:面部遮挡和姿态偏转。针对面部遮挡问题,本文提出一个面部去遮挡情感识别模型,该模型可以检测图像中遮挡物位置,修复面部被遮挡区域的像素信息,然后进行情感分类,本文同时提出一个使用单一无遮挡图像训练模型去遮挡能力的自监督算法,以解决现实生活中无成对遮挡-无遮挡图像训练生成对抗网络的问题,并提出遮挡物损失用于约束生成器的去遮挡过程。针对面部姿态偏转问题,本文提出一个人脸正面化情感识别模型,该模型可对输入的不同角度面部图像进行正面重构,然后对正面图像进行情感分类,本文同时使用生成对抗网络提取输入图像中的姿态特征辅助模型的正面重构工作,并根据人脸正面对称的先验知识提出对称损失加入生成器损失中,以提高重构图像质量。本文设计实验分别在CK+和Affect Net数据集上验证面部去遮挡情感识别模型在不同场景下的有效性,以及在KDEF数据集上验证人脸正面化情感识别模型的有效性,并使用多个指标对模型的情感识别准确性和重构图像质量等方面进行评估。实验结果显示面部去遮挡情感识别模型在CK+数据集上情感识别1均值达到94.99%,在Affect Net数据集上分类平均1值达到60.21%,人脸正面化情感识别模型在KDEF数据集上分类平均1值达到92.75%,证明本文提出的两个模型可以有效解决开放环境下的面部遮挡和姿态偏转问题。
基于情感知识增强的人格检测技术与研究
这是一篇关于人格检测,实体链接,知识图谱,情感分析,情感识别的论文, 主要内容为人格作为一种稳定的心理结构,反映了个体的选择和偏好,影响了个人生活的方方面面。人格检测是指通过分析个体的行为和偏好预测其人格类型,已经被广泛应用于推荐系统、社交网络分析、个性化产品服务等场景。因此,针对人格的自动化检测逐渐成为人工智能领域的一个重要子课题,也成为网络空间安全中社会工程学领域的重要关注点。现有的针对文本数据的人格检测模型主要存在两大局限点。一方面,人格检测可用的文本数据集较少,仅通过传统特征难以提取语言结构的深层关联与特征,并且没有充分利用外部大规模的无标签信息。另一方面,现有的研究大多数集中于采用深度神经网络提取文本的语义表示,忽略了对情绪及心理学特征的关注,没有充分利用人格和情绪之间的关联关系。针对人格文本数据缺失且没有充分利用先验知识的问题,本文提出了一种融合知识图谱的人格检测模型。该模型首先通过命名实体识别筛选文本中的重要概念,然后结合上下文信息和候选实体的描述信息,获取其在通用领域知识图谱中关联的唯一实体标签,消除了实体歧义。然后,通过知识图谱嵌入表示将实体和关系映射到低维向量空间,获得相应的知识表征。最后,结合知识表征与预训练模型得到语义表征,通过机器学习分类器检测人格类别。实验结果表明,该模型通过知识图谱引入先验背景信息,丰富了文本的语义表示,平均准确率达到了 61.2%,提升了人格检测的准确性。针对人格检测忽略心理相关特征且没有充分利用情感信息的问题,本文提出了一种基于情感增强的人格检测模型。该模型首先利用情感极性分析,过滤输入中的情感倾向不明显的句子,减少无关情感的干扰。然后通过细粒度的情感识别,分析文本在喜悦、悲伤、愤怒、恐惧四个维度上的情感强度,获得相应的情感表征,并与语义表征相结合,最后通过机器学习分类器检测人格类别。此外,结合知识、情感、语义三种特征完成基于情感知识增强的人格检测。实验结果表明,基于情感增强的人格检测模型考虑了情感与人格之间的关联关系,利用情感信息丰富文本的语义表示,平均准确率达到了 62.6%,相较于知识信息,情感信息对人格检测的增益更为明显。并且,基于情感知识增强的人格检测模型表现尤为突出,平均准确率达到了 63.8%,进一步提升了人格检测的准确性。
多人对话场景下的情感识别方法研究
这是一篇关于情感识别,多人对话,图神经网络,篇章结构,知识图谱的论文, 主要内容为在日常生活中,多人对话的场合无处不在,作为人们交流沟通的主要方式,其蕴含着丰富多彩的信息。挖掘多人对话场景下的情感信息对许多工业界的应用有着十分重要的意义,例如社交媒体分析和智能客服。然而,不同于传统的文本情感识别,多人对话中话语的情感不仅受其本身和其所在上下文的影响,而且依赖于说话者的个性和他们之间的交互。另外,说话者的情感状态还会受到包括话题、观点、说话者的行为和意图等复杂因素的影响。针对上述挑战,本文从多特征融合、篇章结构增强和知识图谱引入三个角度研究多人对话情感识别方法,具体内容如下:首先,本文以融合对话中的多种特征为目的,提出了一种多人对话情感识别方法。该方法以图神经网络为基础框架,将对话中的话语和说话者建模为图中的两种节点。同时,采用三种不同的边连接它们,以分别建模对话中的相邻上下文、说话者的个性和说话者之间的交互。另外,考虑到说话者个性的建模方式,我们设计了一个新的损失函数,以话语节点和说话者节点之间的距离辅助情感识别。实验结果表明:融合对话中的多种特征可以有效地提升多人对话情感识别方法的性能。其次,由于对话的篇章结构揭示了话语间的依赖和依赖关系类型,可以帮助捕获更准确的上下文信息,本文提出了一种篇章结构增强的多人对话情感识别方法。该方法通过篇章结构解析器得到话语间的依赖关系,并基于这些依赖关系构建相应的图神经网络。然后,基于图卷积层来传播对话的上下文和说话者信息,并通过门控机制为每句话语从依赖话语中筛选出更有价值的信息以帮助情感识别。实验结果表明:对话篇章结构对多人对话情感识别有着十分重要的作用。最后,根据说话者的情感状态会受到其行为和意图的影响的特点,本文提出了一种融合知识图谱的多人对话情感识别方法。该方法根据对话篇章结构把对话中的话语拼接起来,以丰富话语线索,然后从知识图谱中检索出说话者和倾听者的行为和意图短语。接着,通过注意力机制从这些短语中得到有价值的信息,并将这些信息以篇章结构为线索融入到已有的图神经网络中。实验结果表明:引入知识图谱有助于推断说话者的行为和意图信息,从而进一步提升多人对话情感识别的性能。
开放环境下面部情感识别研究
这是一篇关于情感识别,开放环境,面部去遮挡,人脸正面化的论文, 主要内容为随着科学技术发展,面部情感识别应用场景越来越广泛。传统的面部图像情感识别模型大多建立在受控环境下收集到的数据集上,无法适应现实生活中的复杂场景,开放环境下经常存在的如面部遮挡和姿态偏转等问题均可能给情感识别任务带来负面影响,造成识别精度降低。本文分别设计模型解决开放环境下面部情感识别任务中影响精度的两个主要问题:面部遮挡和姿态偏转。针对面部遮挡问题,本文提出一个面部去遮挡情感识别模型,该模型可以检测图像中遮挡物位置,修复面部被遮挡区域的像素信息,然后进行情感分类,本文同时提出一个使用单一无遮挡图像训练模型去遮挡能力的自监督算法,以解决现实生活中无成对遮挡-无遮挡图像训练生成对抗网络的问题,并提出遮挡物损失用于约束生成器的去遮挡过程。针对面部姿态偏转问题,本文提出一个人脸正面化情感识别模型,该模型可对输入的不同角度面部图像进行正面重构,然后对正面图像进行情感分类,本文同时使用生成对抗网络提取输入图像中的姿态特征辅助模型的正面重构工作,并根据人脸正面对称的先验知识提出对称损失加入生成器损失中,以提高重构图像质量。本文设计实验分别在CK+和Affect Net数据集上验证面部去遮挡情感识别模型在不同场景下的有效性,以及在KDEF数据集上验证人脸正面化情感识别模型的有效性,并使用多个指标对模型的情感识别准确性和重构图像质量等方面进行评估。实验结果显示面部去遮挡情感识别模型在CK+数据集上情感识别1均值达到94.99%,在Affect Net数据集上分类平均1值达到60.21%,人脸正面化情感识别模型在KDEF数据集上分类平均1值达到92.75%,证明本文提出的两个模型可以有效解决开放环境下的面部遮挡和姿态偏转问题。
本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:代码助手 ,原文地址:https://m.bishedaima.com/lunwen/48538.html