深度脉冲神经网络训练架构的能耗计算方法及相关设备

    公开(公告)号:CN119940458A

    公开(公告)日:2025-05-06

    申请号:CN202411827416.0

    申请日:2024-12-11

    Abstract: 本申请实施例提出的深度脉冲神经网络训练架构的能耗计算方法及相关设备,方法包括:首先,获取深度脉冲神经网络训练任务中脉冲卷积、膜电位梯度卷积和权重梯度中逻辑判别、浮点加和浮点乘的操作数量;其次,分别获取多个变量在深度脉冲神经网络训练架构的DRAM、SRAM和寄存器中进行读写操作的重用因子;接下来,基于操作数量、重用因子和各级存储器的单位读写能耗,计算得到任务读写能耗;然后,基于逻辑判别数量、浮点加和浮点乘累加操作对应的累加操作数量及其单位操作能耗,计算得到任务计算能耗;最后,累加任务读写能耗和任务计算能耗得到深度脉冲神经网络训练的任务能耗,可以精准地计算得到深度神经网络训练任务对应的任务能耗。

    基于大模型量化的文本生成方法、装置、设备及存储介质

    公开(公告)号:CN120087360A

    公开(公告)日:2025-06-03

    申请号:CN202510058078.7

    申请日:2025-01-13

    Abstract: 本申请实施例提供了基于大模型量化的文本生成方法、装置、设备及存储介质,应用于昇腾计算架构。通过将原始文本输入至目标大语言模型,目标大语言模型包括多个依次级联的特征提取层,每个特征提取层包括全连接层,通过目标大语言模型中的多个依次级联的特征提取层,基于原始文本对应的文本特征进行逐层级递增的特征提取,并配合昇腾计算架构的量化方法对每个特征提取层中全连接神经元的权重参数和激活值进行量化处理,输出目标文本特征,以简化全连接阶段的计算,从而实现大语言模型下的轻量级计算。基于目标文本特征生成目标文本,通过利用轻量级的大语言模型进行文本生成任务,减少了大模型在文本推理过程中的复杂计算,提高了文本生成的效率。

    一种基于数据压缩的脉冲神经网络加速方法和装置

    公开(公告)号:CN114595802A

    公开(公告)日:2022-06-07

    申请号:CN202210068359.7

    申请日:2022-01-20

    Abstract: 本发明公开了一种基于数据压缩的脉冲神经网络加速方法和装置,所述方法包括:获取脉冲神经网络的神经元输出的第一数据,并将所述第一数据进行类型转换,得到第二数据;其中,所述第一数据由两个数字组成,分别为零和非零数字;将所述第二数据进行压缩处理,得到第三数据;基于量化和反量化的方式,将所述第三数据进行卷积运算,得到目标卷积结果。本发明实施例通过将神经元输出的数据进行类型转换和对第二数据的压缩处理来提高卷积运算的速率,从而提高脉冲神经网络训练的效率。

Patent Agency Ranking