一种针对ReRAM的神经网络加速器
    1.
    发明公开

    公开(公告)号:CN115965067A

    公开(公告)日:2023-04-14

    申请号:CN202310049117.8

    申请日:2023-02-01

    摘要: 本发明公开了一种基于ReRAM的神经网络加速器,属于神经网络加速器设计领域,其加速器包括ReRAM原位计算阵列、输入寄存器、累加缓存器、向量逻辑单元、全局缓存器、计算控制单元和特征数据读写DMA;所述输入寄存器和累加缓存器连接ReRAM原位计算阵列。本发明采用一种新颖的神经网络权重的映射方法用于神经网络的推理计算,并采用高效的直接存储器访问和灵活的数据摆放格式,在提高数据流和计算流并行度的同时,解决了推理过程中数据阻塞的问题,提升架构的数据吞吐率。

    一种用于存算处理单元的寻址方法

    公开(公告)号:CN115687181B

    公开(公告)日:2023-05-12

    申请号:CN202211382855.6

    申请日:2022-11-07

    IPC分类号: G06F12/06 G06N3/02

    摘要: 本发明公开了一种用于存算处理单元的寻址方法,主要解决现有技术卷积计算bank访问易冲突、数据访问延迟及并行度低、读取时跳转编程复杂的技术问题。本发明将三维数据组织为单元‑条带‑平面‑立方体结构,以平面为单位将三维数据并行放置于多个bank上,多个dma并行搬运数据时各个dma能在bank之间回环跳转。本发明降低三维数据存取复杂度,提高数据访问并行度,能同时并行读取数据,极大提高数据带宽;减少bank冲突,简化数据sram的调度管理;数据成横向条带,方便回收使用过的空间,bank间碎片空间由于bank间横向跳转自动合并为更大更方便分配的空间。

    存内计算匹配权重的特征形变方法

    公开(公告)号:CN115509467B

    公开(公告)日:2023-04-28

    申请号:CN202211472617.4

    申请日:2022-11-23

    发明人: 伍骏 董光达

    IPC分类号: G06F3/06 G06F17/15

    摘要: 本发明公开了存内计算匹配权重的特征形变方法,包括以下步骤:将待形变的NCHWC’格式数据从SRAM存储器搬运并填充到寄存器组iReg中,填充地址随卷积核的不同而不同;在iReg中对NCHWC’格式进行NCWH形变;从形变好的数据中截取输出数据传递给广播到存内计算单元接口与权重进行乘加计算。本发明的形变将有效数据汇聚,解决了Feature与Weight的空间间隙浪费问题,同时结合卷积计算滑动窗口下数据的复用特点,缓存复用的数据,提高dma搬运数据的效率,增强卷积计算的性能。

    一种针对ReRAM部署神经网络的权重分配方法

    公开(公告)号:CN116306811B

    公开(公告)日:2023-10-27

    申请号:CN202310178399.1

    申请日:2023-02-28

    IPC分类号: G06N3/0464 G06N3/063

    摘要: 本发明公开了一种针对ReRAM部署神经网络的权重分配方法,属于神经网络技术领域,其方法包括:遍历神经网络结构,将权重进行转换,适配到存算神经网络计算引擎,每层的权重形成一个3维的小立方体;使用3d背包算法,遍历所有的权重立方体,将小立方体放到存算阵列转换的大立方体中,并获取对应的坐标信息。本发明转换了存算阵列视角,将权重存放问题抽象为传统的3d背包问题,便于使用成熟的算法解决陌生的问题,提高了权重存放的效率;同时适用于多数神经网络的权重存放,可复用性高,更利于神经网络的部署与存算神经网络计算引擎的迭代改进。

    一种针对ReRAM神经网络计算引擎网络的部署方法

    公开(公告)号:CN116089095A

    公开(公告)日:2023-05-09

    申请号:CN202310178428.4

    申请日:2023-02-28

    IPC分类号: G06F9/50

    摘要: 本发明公开了一种针对ReRAM神经网络计算引擎网络的部署方法,属于神经网络技术领域,其方法包括:步骤1:解析神经网络,获取各层的基础信息;步骤2:进行ReRAM资源分配,得到ReRAM资源分配信息;步骤3:进行DMA资源分配,生成rdma与wdma的配置信息;步骤4:进行gbuf资源分配,生成分配信息;步骤5:遍历神经网络,将上述分配信息整合到各层,生成整个网络的配置部署信息。本发明可快速提供部署网络需要的引擎配置,提高了存算颗粒摆放权重的效率。

    一种针对ReRAM的神经网络加速器

    公开(公告)号:CN115965067B

    公开(公告)日:2023-08-25

    申请号:CN202310049117.8

    申请日:2023-02-01

    摘要: 本发明公开了一种基于ReRAM的神经网络加速器,属于神经网络加速器设计领域,其加速器包括ReRAM原位计算阵列、输入寄存器、累加缓存器、向量逻辑单元、全局缓存器、计算控制单元和特征数据读写DMA;所述输入寄存器和累加缓存器连接ReRAM原位计算阵列。本发明采用一种新颖的神经网络权重的映射方法用于神经网络的推理计算,并采用高效的直接存储器访问和灵活的数据摆放格式,在提高数据流和计算流并行度的同时,解决了推理过程中数据阻塞的问题,提升架构的数据吞吐率。

    一种针对ReRAM神经网络计算引擎网络的部署方法

    公开(公告)号:CN116089095B

    公开(公告)日:2023-10-27

    申请号:CN202310178428.4

    申请日:2023-02-28

    IPC分类号: G06F9/50

    摘要: 本发明公开了一种针对ReRAM神经网络计算引擎网络的部署方法,属于神经网络技术领域,其方法包括:步骤1:解析神经网络,获取各层的基础信息;步骤2:进行ReRAM资源分配,得到ReRAM资源分配信息;步骤3:进行DMA资源分配,生成rdma与wdma的配置信息;步骤4:进行gbuf资源分配,生成分配信息;步骤5:遍历神经网络,将上述分配信息整合到各层,生成整个网络的配置部署信息。本发明可快速提供部署网络需要的引擎配置,提高了存算颗粒摆放权重的效率。

    一种基于ReRAM的神经网络权重映射方法

    公开(公告)号:CN116702845A

    公开(公告)日:2023-09-05

    申请号:CN202310048900.2

    申请日:2023-02-01

    IPC分类号: G06N3/063 G06N3/0464

    摘要: 本发明公开了一种基于ReRAM神经网络加速器的权重映射方法,属于神经网络加速器领域,方法包括:步骤1:以ReRAM阵列的Bank作为第一映射优先级,用来放置卷积输入通道;步骤2:以ReRAM阵列的Bank‑Row方向作为第二映射优先级,在卷积核的输出通道维度上,把不同通道的卷积核摆放置不同的Bank‑Row位置上,直到完成所有输入和输出通道的数据映射要求;步骤3:每个权重数据按照比特位的特定顺序规则排列在计算阵列的交叉电路中。本发明提出一种新颖的高并行度权重映射算法设计,极大程度挖掘了卷积和矩阵乘法计算的并行性的同时,也降低硬件复杂度的。

    一种针对ReRAM部署神经网络的权重分配方法

    公开(公告)号:CN116306811A

    公开(公告)日:2023-06-23

    申请号:CN202310178399.1

    申请日:2023-02-28

    IPC分类号: G06N3/0464 G06N3/063

    摘要: 本发明公开了一种针对ReRAM部署神经网络的权重分配方法,属于神经网络技术领域,其方法包括:遍历神经网络结构,将权重进行转换,适配到存算神经网络计算引擎,每层的权重形成一个3维的小立方体;使用3d背包算法,遍历所有的权重立方体,将小立方体放到存算阵列转换的大立方体中,并获取对应的坐标信息。本发明转换了存算阵列视角,将权重存放问题抽象为传统的3d背包问题,便于使用成熟的算法解决陌生的问题,提高了权重存放的效率;同时适用于多数神经网络的权重存放,可复用性高,更利于神经网络的部署与存算神经网络计算引擎的迭代改进。