用于存储器内计算加速器架构的二维网格

    公开(公告)号:CN118974745A

    公开(公告)日:2024-11-15

    申请号:CN202380030169.9

    申请日:2023-03-13

    IPC分类号: G06N3/065 G06N3/063 G06F15/78

    摘要: 本文公开的实施例包括用于深度神经网络(DNN)的存储器内计算(CIM)加速器架构。CIM加速器架构可以包括具有多个存储器内计算(CIM)模拟瓦片的第一模拟结构引擎。每个CIM模拟瓦片可以被配置为存储根据输入向量产生输出向量的权重操作数矩阵,并且执行存储器内计算。第一模拟结构还可以包括多个计算核心。每个CIM模拟瓦片和每个计算核心可以包括被配置为执行指令集的微控制器。第一模拟结构还可以包括将多个CIM模拟瓦片中的所有CIM模拟瓦片通信地连接到计算核心的片上互连。

    一种基于电阻连接的S型忆阻神经元耦合硬件电路

    公开(公告)号:CN118821878A

    公开(公告)日:2024-10-22

    申请号:CN202410796886.9

    申请日:2024-06-20

    IPC分类号: G06N3/065

    摘要: 本发明公开了一种基于电阻连接的S型忆阻神经元耦合硬件电路,包括两个S型局部有源忆阻器、两个直流电流源、两个电容和一个耦合电阻。S型局部有源忆阻器M1与电容C01并联,M1的负极与地相连,直流电流源ID1连接M1的正极提供偏置电流构成忆阻神经元1;S型局部有源忆阻器M2与电容C02并联,M2的负极与地相连,直流电流源ID2连接M2的正极提供偏置电流构成忆阻神经元2;M1的正极与M2的正极通过耦合电阻连接。本发明耦合前的两个忆阻神经元工作在混沌边缘域且处于静息状态,通过电阻连接后构成忆阻神经元耦合电路,忆阻神经元被唤醒产生振荡行为。

    一种神经网络电路性能评估方法及装置

    公开(公告)号:CN118673979A

    公开(公告)日:2024-09-20

    申请号:CN202411013361.X

    申请日:2024-07-26

    发明人: 孙博 谢晓燕

    IPC分类号: G06N3/065 G06N3/06 G06F18/214

    摘要: 本发明公开了一种神经网络电路性能评估方法及装置,包括将获取的评估样本数据集作为待评估神经网络电路的神经网络的输入,输出第一准确率;对待评估神经网络电路中的神经网络单元注入预置噪声故障,确定噪声故障神经网络电路;采用噪声故障神经网络电路根据第一准确率和评估样本数据集,生成待评估神经网络电路的硬件电路性能结果;采用预置符号搜索技术对待评估神经网络电路进行性能评估,生成待评估神经网络电路的第一存储器性能评估结果;采用预置突触故障技术对待评估神经网络电路进行性能评估,生成待评估神经网络电路的第二存储器性能评估结果;解决了现有的神经网络电路性能评估方法导致网络性能的评估结果的可靠性较差的技术问题。

    卷积运算电路、装置以及方法

    公开(公告)号:CN112784973B

    公开(公告)日:2024-09-13

    申请号:CN201911067252.5

    申请日:2019-11-04

    摘要: 本公开实施例公开了一种卷积运算电路、装置以及方法。其中该卷积运算电路包括:卷积运算控制电路;运算单元阵列,所述运算单元阵列包括多个运算单元;所述卷积运算控制电路用于接收卷积运算指令,按照所述卷积运算指令所指示的运算顺序逐个将所述输入数据和所述权重数据传送至所述多个运算单元中参与运算的运算单元,所述参与运算的运算单元根据所述指令的指示,对所述输入数据和所述权重数据执行卷积运算操作,其中,所述指令为单条指令。通过上述方法,解决了现有技术中的在进行卷积计算时计算效率低、功耗大的技术问题。

    神经网络量化方法和装置、神经网络加速器、设备和介质

    公开(公告)号:CN118627576A

    公开(公告)日:2024-09-10

    申请号:CN202310222143.6

    申请日:2023-03-09

    摘要: 本公开实施例公开了一种神经网络量化方法和装置、神经网络加速器、设备和介质,涉及神经网络技术、量化技术和存算一体技术,通过利用校准数据集对初始神经网络进行量化参数的初始化,得到第一神经网络,再利用训练数据集对第一神经网络进行训练直至满足第一预设条件,得到第二神经网络,然后,以量化参数候选列表作为量化参数约束条件,利用训练数据集对第二神经网络进行训练直至满足第二预设条件,得到量化后神经网络,其中的量化参数候选列表包括多个整型数值,该量化参数候选列表基于待部署量化后神经网络的硬件平台的硬件开销参数和第一神经网络的量化参数确定,从而降低对ADC单元的电压分辨率要求,降低硬件成本。

    一种基于脉动阵列的可配置卷积运算加速装置及方法

    公开(公告)号:CN118627565A

    公开(公告)日:2024-09-10

    申请号:CN202411105645.1

    申请日:2024-08-13

    申请人: 南京大学

    IPC分类号: G06N3/065 G06N3/0464 G06F9/30

    摘要: 本发明公开了一种基于脉动阵列的可配置卷积运算加速装置及方法,属于超大规模集成电路的神经网络硬件加速技术领域。本发明方案针对现有卷积运算加速装置存在的问题,提出一种改进运算方式的脉动阵列,即采用行方向上广播、列方向上脉动的运算方式,将中间计算结果固定在PE中,无需停止运算以更新权重,大大提高了PE利用率,使得实际算力接近理论峰值算力,而且由于采用了行方向上广播的方式,每行PE工作状态相同,从而使得每个周期需要输出运算结果的PE数量相同,有效保证了输入输出数据吞吐率的稳定,充分利用输出通道的数据带宽。

    模拟域实现Softmax激活函数的电路、神经网络处理装置、芯片及电子设备

    公开(公告)号:CN118627564A

    公开(公告)日:2024-09-10

    申请号:CN202411092375.5

    申请日:2024-08-09

    IPC分类号: G06N3/065 G06N3/048

    摘要: 本发明公开模拟域实现Softmax激活函数的电路、神经网络处理装置、芯片及电子设备,涉及神经网络技术领域,解决了Softmax激活函数消耗大量功耗和面积的技术问题。该Softmax激活函数的电路包括:自然指数模拟处理电路,基于模拟电路将输入电压的值进行自然指数计算及复制计算自然指数的结果;第二电流镜电路基于电流镜将汇聚的输出电流#imgabs0#进行累加,输出电流#imgabs1#为自然指数求和的结果;以及由若干个开关管形成的模拟除法器电路,用于实现除法运算。本发明在模拟域实现Softmax激活函数计算,相较数字域实现,大幅减少晶体管数量,降低了芯片面积与功耗,提供更优的能效比与面效比。

    自适应仿生神经元电路及仿生神经元自适应模拟方法

    公开(公告)号:CN114648108B

    公开(公告)日:2024-09-03

    申请号:CN202210418444.1

    申请日:2022-04-20

    发明人: 杨蕊 高森 缪向水

    IPC分类号: G06N3/065 G11C11/54 G11C17/16

    摘要: 本发明公开了一种基于忆阻器的自适应仿生神经元电路及利用该电路实现仿生神经元自适应模拟地方法,激励脉冲和电容C1形成第一充电回路;易失性忆阻器M1、恒定电压源V1以及电容C1构成第一反向充电回路;易失性忆阻器M1、恒定电压源V1以及电容C2构成第二反向充电回路;易失性忆阻器M2、恒定电压源V2以及电容C2构成第二充电回路。利用电容充电行为使得易失性忆阻器发生阈值转变行为,加以恒定电压源的持续输出,实现神经元产生动作电位的基本功能,在激励脉冲的工作过程中,易失性忆阻器的阈值电压逐渐发生变化,实现了在恒定激励下与生物神经元相似的多模式动作电位发放以及放电频率的变化,即实现神经元自适应能力。

    一种加权求和存内计算电路及存储器

    公开(公告)号:CN116451758B

    公开(公告)日:2024-08-30

    申请号:CN202310350594.8

    申请日:2023-04-04

    申请人: 北京大学

    摘要: 本发明提供一种加权求和存内计算电路及存储器,其中的电路包括:呈对称分布的第一阵列(阵列A)和第二阵列(阵列B),以及外围电路;其中,当使用第一阵列进行存内计算时,首先把第一阵列和第二阵列通过外围电路断开连接,向第一阵列输入预充电压及脉冲信号,并通过第一阵列执行按位矩阵向量乘法运算;随后第一阵列和第二阵列通过外围电路实现连接,第一阵列和第二阵列组成开关电容电路,以通过第二阵列获取与脉冲信号对应的模拟求和及模拟加权求和运算,并输出运算结果。当使用第二阵列进行存内计算时,过程与上述过程相似。利用上述发明能够保持位线上的电压稳定,减少ADC的开启次数,提高系统的能效与面积效率。

    一种基于三维片上网络的神经网络加速器的映射方法

    公开(公告)号:CN118504635A

    公开(公告)日:2024-08-16

    申请号:CN202410660335.X

    申请日:2024-05-27

    摘要: 本申请公开了一种基于三维片上网络的神经网络加速器的映射方法,属于片上网络领域,包括:将神经网络每层的工作负载进行分组;根据每层的平均工作负载大小对神经网络层进行排序,平均工作负载最高的层具有最高映射优先级;在最高映射优先级对应层的芯片中,选择散热器预设范围内的空闲结点作为映射范围;随机将每个分组映射到映射范围内的结点,生成映射序列;计算映射序列中数据包的平均传输距离之和;将映射序列按照链路流量负载约束条件进行筛选;计算接收的每个映射序列中各结点的温度,选择结点温度小于阈值的映射序列作为当前神经网络层的最佳映射;针对现有技术中神经网络加速器芯片温度过高的问题,本申请有效降低了芯片的峰值温度。