给大家分享5篇关于纵向联邦学习的计算机专业论文

今天分享的是关于纵向联邦学习的5篇计算机毕业论文范文, 如果你的论文涉及到纵向联邦学习等主题,本文能够帮助到你 基于差分隐私的推荐系统研究与应用 这是一篇关于推荐系统

今天分享的是关于纵向联邦学习的5篇计算机毕业论文范文, 如果你的论文涉及到纵向联邦学习等主题,本文能够帮助到你

基于差分隐私的推荐系统研究与应用

这是一篇关于推荐系统,差分隐私,随机游走,纵向联邦学习,逻辑回归的论文, 主要内容为推荐系统能够帮助用户在海量的数据中筛选出更符合个人意愿的物品,同时,在用户不断选择与拒绝的过程中,推荐结果会逐渐改善。但此过程中也会随之产生大量的用户私人信息,这些私人信息在推荐系统的使用过程中,难免会面临一些隐私泄露的风险。一旦用户隐私得不到保障,出现一些负面案例,便会动摇用户对系统的信任,轻则导致用户活跃度降低或提供不真实的数据,使得推荐效果会变差,重则导致用户大规模流失,项目难以为继。本文针对推荐系统中隐私保护问题,主要从以下三个方面进行研究。第一,在现有的随机游走过程中,根据不同用户对物品的操作得出二分图,再由二分图得到转移矩阵迭代,但这个过程中无法保证推荐目标用户的隐私安全。因此,利用差分隐私机制,将Laplace噪声加入用户评分中,重新计算游走的权重。迭代计算之后,可以直接排序得到Top N的推荐结果。如果需要唯一的推荐结果,则以计算得到的点击概率为打分函数,用指数机制的方法得到推荐结果。通过实验表明,在基于差分隐私的随机游走算法中,攻击者无法通过多账号查询作差,进而不会得到目标用户或者其他用户对物品的操作行为。因此该算法保证了推荐过程中个人信息的安全性,同时能够较好地提供推荐结果。第二,对于拥有大量数据的不同企业,通常情况下不会直接分享私有用户数据,且缺乏可以互信的信息沟通机制,导致信息交互相对封闭。为了让不同企业之间共享数据的信息,关键在于如何不泄露企业原始数据也能共同训练得到结果。因此,考虑利用同态加密和差分隐私机制,引入第三方负责发放同态加密密钥,使得在联邦学习训练模型中,参与方能够不直接使用对方的数据,也能得到模型结果。通过对比有无融合差分隐私的纵向联邦学习,发现训练模型准确率差别不大,且加入差分隐私后,也没有明显的负面情况,并且避免了第三方泄露密钥的潜在危险,保证了联邦学习过程中的数据安全。第三,基于以上两方面的研究,搭建出一套基于差分隐私的电影推荐系统,在给用户推荐电影的同时,保证用户和企业的隐私。两方企业提供数据和标签,对于不能匹配上的用户,使用基于差分隐私的随机游走算法得到推荐结果;能够相互匹配上的用户,在融合差分隐私的纵向联邦学习下,构造出逻辑回归模型,并通过第三方计算出目标用户电影点击率,结合随机游走得到的点击率,加权得到新的点击率,同时显示推荐电影结果。

基于区块链和纵向联邦学习的贷款违约预测系统

这是一篇关于区块链,纵向联邦学习,贷款违约预测的论文, 主要内容为互联网金融给人们的生活带来了极大的便利,在方便信用卡贷款的同时也带来了贷款违约的风险隐患,银行通过建立贷款违约预测模型来评估客户的贷款逾期风险,预测模型的精确度往往受到数据集的限制而到达瓶颈,然而根据相关隐私数据安全保护法规的规定,银行无法直接联合其他企业数据集训练预测模型。基于以上背景,本文针对银行贷款违约预测的实际业务需求,结合区块链技术和纵向联邦学习等隐私计算技术,设计实现了一个数据安全的贷款违约预测系统。在该系统中,本文针对多方联合训练模型过程中隐私数据暴露的问题,基于纵向联邦学习技术设计了模型训练模块以保障各参与方的数据安全。在该模块中,本文实现了基于布隆滤波器的不经意隐私集合求交方案以求得训练参与方的共同用户;本文实现了联合模型训练算法以保护联合模型训练中数据的隐私安全性,并针对不诚实参与方在联合训练过程中推测数据标签方样本数据标签的问题进行优化,防止数据标签信息泄露;本文实现了联合预测算法,并针对不诚实参与方在联合预测过程中窃取数据标签方样本业务信息的问题进行优化,防止样本业务信息泄露。本文还针对纵向联邦学习训练过程中各参与方缺乏信任的问题,基于区块链技术设计了信任安全模块以提供可信的信任机制。在该模块中,本文设计使用区块链技术实现去中心化的身份认证机制以提高传统密钥身份认证的安全性;本文设计使用区块链技术实现可信任的数据存证以构造可信的数据存证方案;本文结合区块链智能合约技术发挥银行金融属性设计了激励机制以保障各参与方的权益。最后本文按照软件工程思想对贷款预测系统进行了分析和设计并实现贷款违约系统。基于以上研究,本文在基于区块链和纵向联邦学习的基础上设计并实现了贷款违约系统。该系统能够在保护多方隐私数据的前提下安全联合训练模型,并提供信任激励机制以保障各方权益,促进多方更好的联合训练模型,打破数据孤岛,释放数据价值。

基于差分隐私的推荐系统研究与应用

这是一篇关于推荐系统,差分隐私,随机游走,纵向联邦学习,逻辑回归的论文, 主要内容为推荐系统能够帮助用户在海量的数据中筛选出更符合个人意愿的物品,同时,在用户不断选择与拒绝的过程中,推荐结果会逐渐改善。但此过程中也会随之产生大量的用户私人信息,这些私人信息在推荐系统的使用过程中,难免会面临一些隐私泄露的风险。一旦用户隐私得不到保障,出现一些负面案例,便会动摇用户对系统的信任,轻则导致用户活跃度降低或提供不真实的数据,使得推荐效果会变差,重则导致用户大规模流失,项目难以为继。本文针对推荐系统中隐私保护问题,主要从以下三个方面进行研究。第一,在现有的随机游走过程中,根据不同用户对物品的操作得出二分图,再由二分图得到转移矩阵迭代,但这个过程中无法保证推荐目标用户的隐私安全。因此,利用差分隐私机制,将Laplace噪声加入用户评分中,重新计算游走的权重。迭代计算之后,可以直接排序得到Top N的推荐结果。如果需要唯一的推荐结果,则以计算得到的点击概率为打分函数,用指数机制的方法得到推荐结果。通过实验表明,在基于差分隐私的随机游走算法中,攻击者无法通过多账号查询作差,进而不会得到目标用户或者其他用户对物品的操作行为。因此该算法保证了推荐过程中个人信息的安全性,同时能够较好地提供推荐结果。第二,对于拥有大量数据的不同企业,通常情况下不会直接分享私有用户数据,且缺乏可以互信的信息沟通机制,导致信息交互相对封闭。为了让不同企业之间共享数据的信息,关键在于如何不泄露企业原始数据也能共同训练得到结果。因此,考虑利用同态加密和差分隐私机制,引入第三方负责发放同态加密密钥,使得在联邦学习训练模型中,参与方能够不直接使用对方的数据,也能得到模型结果。通过对比有无融合差分隐私的纵向联邦学习,发现训练模型准确率差别不大,且加入差分隐私后,也没有明显的负面情况,并且避免了第三方泄露密钥的潜在危险,保证了联邦学习过程中的数据安全。第三,基于以上两方面的研究,搭建出一套基于差分隐私的电影推荐系统,在给用户推荐电影的同时,保证用户和企业的隐私。两方企业提供数据和标签,对于不能匹配上的用户,使用基于差分隐私的随机游走算法得到推荐结果;能够相互匹配上的用户,在融合差分隐私的纵向联邦学习下,构造出逻辑回归模型,并通过第三方计算出目标用户电影点击率,结合随机游走得到的点击率,加权得到新的点击率,同时显示推荐电影结果。

基于纵向联邦学习的混合隐私保护技术研究

这是一篇关于隐私保护,纵向联邦学习,差分隐私,同态加密,隐私保护交集的论文, 主要内容为近年来,随着包括推荐系统和自然语言处理在内的人工智能驱动服务的激增,数据隐私和安全引起了全世界的关注。越来越严格的数据隐私和安全要求成为世界各国法律法规的新兴趋势。联邦学习作为一项比较前沿的新技术,它是利用分散在各参与方的数据集,通过隐私保护技术融合多方数据信息,协同构建全局模型的一种分布式训练方式。本文在已有关于联邦学习的隐私问题研究的基础上,针对纵向联邦学习参与方之间频繁互动直接交换模型训练中间结果可能会泄露训练数据,而且会产生大量计算开销的问题,设计了一种更灵活、更高效的混合安全技术,在保证隐私的情况下达到优化模型的目的。本文主要的研究成果如下:(1)本文去除了第三方协调者的角色,采用了基于RSA盲签名的隐私集合求交协议,应用了纵向联邦学习的混合差分隐私框架分析了敏感性,并在每次训练迭代中直接扰乱了参与者的中间结果,不需要损失函数的泰勒近似。而且为此系统实现了并行分布式逻辑回归来处理大量训练数据,两方进行连续的局部梯度更新,在唯一的通信信道上相互传输中间结果。随后理论证明了隐私保证和效用分析这两方面,最后实验验证了当设定合适的隐私预算ε=1,算法Hybrid-VFL达到可接受的准确性-隐私权衡,此外调整超参数轮数e和权重约束k也将对准确度产生一些影响,运行时间开销相比同态加密的方法慢2~3倍,同时在数据集上的AUC收敛效果明显,系统具备可扩展性,其工作节点得到了线性加速。(2)本文在带有第三方协调者的纵向联邦学习系统框架中进行模型训练,并提出了一种分类交叉熵损失函数,以在客户端而不是集中式服务器上部署基于梯度的优化器。接着在联邦模型训练过程中采用隐私保护实体对齐技术获得双方共同的ID,引入Paillier加法同态加密方案进行加解密被动方B发给主动方A的部分梯度,该算法的安全性建立在大整数分解问题的难度之上,而且计算准确的梯度而无需近似。随后理论证明了性能和隐私这两方面,最后实验验证了当迭代10~50轮数,算法CCE-VFL能以相似的速度最小化训练损失至0.45左右,准确度和精确度以一定速度提高至74%和77%,AUC面积达到0.75左右,这些都展示出了可接受的训练结果,也消除了对浮点精度的担忧,表明在保护参与方数据隐私的情形下也降低了系统的通信成本。

基于纵向联邦学习的混合隐私保护技术研究

这是一篇关于隐私保护,纵向联邦学习,差分隐私,同态加密,隐私保护交集的论文, 主要内容为近年来,随着包括推荐系统和自然语言处理在内的人工智能驱动服务的激增,数据隐私和安全引起了全世界的关注。越来越严格的数据隐私和安全要求成为世界各国法律法规的新兴趋势。联邦学习作为一项比较前沿的新技术,它是利用分散在各参与方的数据集,通过隐私保护技术融合多方数据信息,协同构建全局模型的一种分布式训练方式。本文在已有关于联邦学习的隐私问题研究的基础上,针对纵向联邦学习参与方之间频繁互动直接交换模型训练中间结果可能会泄露训练数据,而且会产生大量计算开销的问题,设计了一种更灵活、更高效的混合安全技术,在保证隐私的情况下达到优化模型的目的。本文主要的研究成果如下:(1)本文去除了第三方协调者的角色,采用了基于RSA盲签名的隐私集合求交协议,应用了纵向联邦学习的混合差分隐私框架分析了敏感性,并在每次训练迭代中直接扰乱了参与者的中间结果,不需要损失函数的泰勒近似。而且为此系统实现了并行分布式逻辑回归来处理大量训练数据,两方进行连续的局部梯度更新,在唯一的通信信道上相互传输中间结果。随后理论证明了隐私保证和效用分析这两方面,最后实验验证了当设定合适的隐私预算ε=1,算法Hybrid-VFL达到可接受的准确性-隐私权衡,此外调整超参数轮数e和权重约束k也将对准确度产生一些影响,运行时间开销相比同态加密的方法慢2~3倍,同时在数据集上的AUC收敛效果明显,系统具备可扩展性,其工作节点得到了线性加速。(2)本文在带有第三方协调者的纵向联邦学习系统框架中进行模型训练,并提出了一种分类交叉熵损失函数,以在客户端而不是集中式服务器上部署基于梯度的优化器。接着在联邦模型训练过程中采用隐私保护实体对齐技术获得双方共同的ID,引入Paillier加法同态加密方案进行加解密被动方B发给主动方A的部分梯度,该算法的安全性建立在大整数分解问题的难度之上,而且计算准确的梯度而无需近似。随后理论证明了性能和隐私这两方面,最后实验验证了当迭代10~50轮数,算法CCE-VFL能以相似的速度最小化训练损失至0.45左右,准确度和精确度以一定速度提高至74%和77%,AUC面积达到0.75左右,这些都展示出了可接受的训练结果,也消除了对浮点精度的担忧,表明在保护参与方数据隐私的情形下也降低了系统的通信成本。

本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:源码货栈 ,原文地址:https://m.bishedaima.com/lunwen/55239.html

相关推荐

发表回复

登录后才能评论