给大家分享5篇关于脉冲神经网络的计算机专业论文

今天分享的是关于脉冲神经网络的5篇计算机毕业论文范文, 如果你的论文涉及到脉冲神经网络等主题,本文能够帮助到你 用于脑机接口的高精度可重构脉冲神经网络硬件设计 这是一篇关于脑机接口

今天分享的是关于脉冲神经网络的5篇计算机毕业论文范文, 如果你的论文涉及到脉冲神经网络等主题,本文能够帮助到你

用于脑机接口的高精度可重构脉冲神经网络硬件设计

这是一篇关于脑机接口,脉冲神经网络,可重构设计,Izhikevich,地址事件表示方法的论文, 主要内容为人类的神经系统是先进的大规模生物信息处理网络,通过收集、处理和评估有关身体内部状态和外部环境信息来控制其他体内系统和肌肉细胞。神经系统的病理过程经常影响沟通能力,沟通能力的受损会进一步导致感觉功能障碍、运动功能障碍或认知功能障碍。为了解决这类难题,研究人员建立了许多用于脑机接口的人工神经网络模型,用于提供检测和治疗的临床手段。但现有的工作中很少有对这类神经网络进行高效硬件设计的。本文考虑了此类用于脑机接口的神经网络对仿生高精度、可扩展性以及可配置等要求,设计了用于脑机接口研究的高精度可重构的仿生脉冲神经网络处理单元。本文从神经元级、突触级、网络级对脉冲神经网络硬件进行了三种层面的创新设计。在神经元级,针对基于传统乘法器实现的Izhikevich神经元硬件开销大的问题以及基于传统坐标旋转数字计算方法(COordinate Rotation DIgital Computer,CORDIC)实现Izhikevich神经元精度较低、计算速度低等问题,本文提出了基于快速收敛CORDIC的高精度Izhikevich神经元在硬件开销、精度以及能效方面取得更加优越的综合性能。在突触级,为了降低神经网络突触权重更新计算的能量消耗,提高片上神经网络的学习效率,本文不仅提出了基于快速收敛CORDIC的经典脉冲时间依赖可塑性(Spike-Timing Dependent Plasticity,STDP)算法的硬件实现,还进行 了简化 STDP 算法的硬件实现以减少硬件开销和能量消耗。在网络级,本文针对脉冲神经网络的稀疏性以及脉冲驱动特点进行了基于地址事件表示方法的设计,并可通过寄存器对用于脑机接口的仿生脉冲神经网络进行可重构的配置。本文对基于快速收敛CORDIC的高精度神经元设计在同一 Xilinx XC7Z020 FPGA平台下进行了验证,其神经元波形ERRT误差与NRMSD误差相比基于传统CORDIC的Izhikevich神经元分别降低了 77.2%与73.6%,计算延时缩短了 42.4%,面积、精度和能效的综合性能提升了 4.67倍。对本文所提用于脑机接口的高精度可重构脉冲神经网络处理单元设计在Xilinx XCVU9P-FLGA104 FPGA平台上进行实现评估,本设计的资源开销为58703个LUT、24188个FF和217.5 KB的BRAM,其最高工作频率为244 MHz,在200 MHz工作频率下功耗为2.559 W。此外,本文基于TSMC 65 nm工艺库对所提设计进行了面向ASIC设计的硬件实现,其硬件资源开销等效为53.2万个二输入与非逻辑门单元,面积为0.849 mm2,最高频率为206 MHz,在100 MHz工作频率下的功耗为152.23mW。最后,本文还使用癫痫患者发病过程的脑电图数据库,通过对脉冲神经网络处理单元的可重构配置,实现了一个仿生脉冲神经网络以复现癫痫发病过程的脑电图,验证了所提设计的应用可行性。

基于深度脉冲神经网络的光学器件传输信号识别研究

这是一篇关于脉冲神经网络,光子晶体,超表面,残差结构,时间卷积的论文, 主要内容为光学器件传输信号的研究对诸如传感器等其他许多领域的研究都有着重要意义,随着人工智能的发展,研究人员逐渐尝试将光学器件传输信号与深度学习相结合。然而,光学器件传输信号不易大量采集,且大多是有噪声的,这就导致了传统人工神经网络(ANN)在完成识别任务时没有取得很理想的结果。近年来,有研究指出脉冲神经网络(SNN)可以在小样本有噪声问题的研究中超越ANN,所以考虑将SNN应用于光学器件传输信号的研究中。本文的主要研究内容如下:1、针对光学器件传输信号不易大量采集,且大多是有噪声的这一特点,我们将光学器件传输信号视为“小样本有噪声”问题进行研究。所以我们首先基于公共数据集验证了SNN更适用于研究小样本有噪声问题,进而说明了基于深度脉冲神经网络研究光学器件传输信号识别的可行性。2、针对SNN大多还局限于浅层结构,识别准确率较低这一问题,我们通过在全连接SNN的基础上加入残差结构和ECA-Net两个模块,构建了一种脉冲残差注意力网络(RASNN)。然后在我们建立的一维光子晶体传输信号数据集上进行了对比实验,证明了提出的RASNN可以取得更好的识别效果。最后,我们还基于MIT-BIH心律失常数据集,与现有研究常用的ANN进行了对比实验,证明了RASNN还可以为其他不易大量采集的一维信号的识别问题提供一个健壮的解决方案。3、建立超表面传输信号数据集,并通过在全连接SNN的基础上加入时间卷积模块和残差结构两个模块构建了一个时间卷积脉冲神经网络(TCSNN)。然后基于超表面传输信号数据集进行对比实验,评估网络性能。最后,分别在一维光子晶体传输信号数据集和超表面传输信号数据集上,对比RASNN和TCSNN的识别效果,结果表明,提出的两个深度脉冲神经网络模型的识别效果相当,都可以准确高效地对光学器件传输信号进行识别。

基于FPGA的脉冲神经网络处理器研究

这是一篇关于卷积神经网络,脉冲神经网络,图像识别,LIF神经元模型,SNN转换算法,FPGA的论文, 主要内容为卷积神经网络(Convolutional Neural Network,CNN)已在深度学习领域得到了广泛应用。但随着任务复杂度的提升,神经网络模型的参数量和计算量急剧增加,模型训练和推理所消耗的硬件资源和功耗也随之增大,给算法模型的硬件部署带来了巨大挑战。而脉冲神经网络(Spiking Neural Network,SNN)的事件触发机制具有计算和存储需求少、功耗低的优点,因此逐渐成为深度学习领域的研究热点。但SNN的激活值为离散值,CNN的训练方法无法直接应用。鉴于此,将完成训练的CNN转换为SNN已成为提升SNN准确率的有效方法。同时由于计算机处理器并行度低、功耗大,而类脑芯片开发成本高,因此基于FPGA开发具有高硬件执行效率的脉冲神经网络处理器对于SNN的工程应用具有重要意义。现有的SNN转换算法可以实现准确率较高的CNN到SNN转换过程,但该方法对输入值的脉冲编码过程以及最大池化层和Softmax层转换算法存在复杂的逻辑运算和大量乘法计算,硬件资源消耗仍然较高。因此,本文针对性地提出了动态阈值激发频率编码算法,通过神经元的累积激发过程将像素值转换为脉冲序列,以大幅度减少像素值脉冲编码过程的乘法计算。此外,还提出了基于脉冲计数的最大池化层和Softmax层转换方法,该方法通过统计脉冲值数量的方法将脉冲序列转换为脉冲频率,以简化计算逻辑。在CIFAR10数据集上的测试实验结果表明,CNN转换得到的SNN,其图像分类准确率为86.17%,与原CNN网络的准确率接近。随后本文基于FPGA设计了脉冲神经网络处理器。针对神经网络参数存储量和计算量大的问题,本文采用int8量化算法将模型参数值从32位浮点数映射为8位整型数。本文根据脉冲神经元的累积激发机制特别设计的脉冲计算单元,将卷积的乘加计算转换为累加并激发脉冲的过程,利用事件激发的稀疏性降低计算动态功耗。对于最大池化层和输出结果统计层,本文设计了基于脉冲计数的频率计算模块,并根据脉冲序列的地址确定输出结果。为了提升数据传输效率,还针对设计了多层并行复用机制,实现不同计算模块间数据的高效传输。原型仿真实验结果表明,与CNN处理器相比,该处理器的功耗降低了 77.4%。且该处理器在MNIST测试集中得到了 96.31%的准确率,在规模更大的CIFAR10测试集中得到85.61%的准确率,与CNN模型的准确率接近。本文设计的SNN处理器能以更低功耗实现图像识别任务,为SNN在计算机视觉算法中的应用部署提供了技术支撑。

直接训练高性能脉冲神经网络的方法研究

这是一篇关于脉冲神经网络,代理梯度,低开销的论文, 主要内容为脉冲神经网络被认为是下一代神经网络的基础架构之一,使用0、1的脉冲形式在层与层之间传递信号,具有理论上更高的计算效率,更适合于神经形态计算芯片。但正是因为脉冲信号的形式,脉冲神经网络存在固有的不可微分的问题,使得传统的反向传播(BP)算法不可行。目前从头直接训练高性能脉冲神经网络的方法主要是借助代理梯度(SG),代理梯度是对狄拉克函数的近似,从而在反向传播过程中提供一个相对平滑的梯度,可以一定程度上帮助缓解不可微分的问题。然而,大多数的研究都为所有神经元层保留固定的代理梯度,而忽略了在给定数据集下,代理梯度函数的有效梯度区域与其对狄拉克函数的逼近程度之间存在权衡的事实,使用固定的代理梯度可能会损害模型的整体表现。为了指导代理梯度在脉冲神经网络中自适应的进行优化,本文提出了指标,它表示反向传播中具有非零梯度的参数的比例。此外,本文提出了基于指标的算法CPNG,用于在代理梯度的形状与其有效区域间进行权衡,并进行了一系列消融实验进行验证。值得一提的是,本文提出的算法只需要极低的额外开销,可以简单的集成到现有的训练流程中。本文的主要贡献如下:(1)本文研究了代理梯度的形状对脉冲神经网络训练结果的影响。(2)本文提出了统计指标用来表示代理梯度的有效区域,并提出了基于的算法CPNG,在训练过程中自适应地调整代理梯度的形状,引导代理梯度向着函数逼近,并保持脉冲神经网络可以正常训练。(3)本文提出了CPNG算法提高了脉冲神经网络在静态图像数据集(CIFAR10,CIFAR100,Image Net)以及基于事件的图像数据集(CIFAR10-DVS)上的分类准确率。本文提出的算法使用SEW-Res Net34模型在Image Net数据集上实现了68.93%的准确率。(4)本文提出的方法在时间步长为1的时候仍然有效,这可能会给二值神经网络的训练带来启发。

基于FPGA的脉冲神经网络处理器研究

这是一篇关于卷积神经网络,脉冲神经网络,图像识别,LIF神经元模型,SNN转换算法,FPGA的论文, 主要内容为卷积神经网络(Convolutional Neural Network,CNN)已在深度学习领域得到了广泛应用。但随着任务复杂度的提升,神经网络模型的参数量和计算量急剧增加,模型训练和推理所消耗的硬件资源和功耗也随之增大,给算法模型的硬件部署带来了巨大挑战。而脉冲神经网络(Spiking Neural Network,SNN)的事件触发机制具有计算和存储需求少、功耗低的优点,因此逐渐成为深度学习领域的研究热点。但SNN的激活值为离散值,CNN的训练方法无法直接应用。鉴于此,将完成训练的CNN转换为SNN已成为提升SNN准确率的有效方法。同时由于计算机处理器并行度低、功耗大,而类脑芯片开发成本高,因此基于FPGA开发具有高硬件执行效率的脉冲神经网络处理器对于SNN的工程应用具有重要意义。现有的SNN转换算法可以实现准确率较高的CNN到SNN转换过程,但该方法对输入值的脉冲编码过程以及最大池化层和Softmax层转换算法存在复杂的逻辑运算和大量乘法计算,硬件资源消耗仍然较高。因此,本文针对性地提出了动态阈值激发频率编码算法,通过神经元的累积激发过程将像素值转换为脉冲序列,以大幅度减少像素值脉冲编码过程的乘法计算。此外,还提出了基于脉冲计数的最大池化层和Softmax层转换方法,该方法通过统计脉冲值数量的方法将脉冲序列转换为脉冲频率,以简化计算逻辑。在CIFAR10数据集上的测试实验结果表明,CNN转换得到的SNN,其图像分类准确率为86.17%,与原CNN网络的准确率接近。随后本文基于FPGA设计了脉冲神经网络处理器。针对神经网络参数存储量和计算量大的问题,本文采用int8量化算法将模型参数值从32位浮点数映射为8位整型数。本文根据脉冲神经元的累积激发机制特别设计的脉冲计算单元,将卷积的乘加计算转换为累加并激发脉冲的过程,利用事件激发的稀疏性降低计算动态功耗。对于最大池化层和输出结果统计层,本文设计了基于脉冲计数的频率计算模块,并根据脉冲序列的地址确定输出结果。为了提升数据传输效率,还针对设计了多层并行复用机制,实现不同计算模块间数据的高效传输。原型仿真实验结果表明,与CNN处理器相比,该处理器的功耗降低了 77.4%。且该处理器在MNIST测试集中得到了 96.31%的准确率,在规模更大的CIFAR10测试集中得到85.61%的准确率,与CNN模型的准确率接近。本文设计的SNN处理器能以更低功耗实现图像识别任务,为SNN在计算机视觉算法中的应用部署提供了技术支撑。

本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:毕设客栈 ,原文地址:https://m.bishedaima.com/lunwen/54539.html

相关推荐

发表回复

登录后才能评论