-
公开(公告)号:CN112215349B
公开(公告)日:2024-01-12
申请号:CN202010972552.4
申请日:2020-09-16
Applicant: 中国科学院计算技术研究所
IPC: G06N3/082 , G06N3/0464
Abstract: 本发明提供一种基于数据流架构的稀疏卷积神经网络加速方法,其包括:通过计算输入激活和权值矩阵的运算,得到输出激活的正负值标记信息;根据所述输出激活的正负值标记信息,对与所述输出激活相关的指令的有效与无效进行标记,得到指令标记信息;根据所述指令标记信息,筛选出所述指令中被标记为有效的指令;跳过所述被标记为无效的指令,仅执行所述被标记为有效的指令。
-
公开(公告)号:CN112015472B
公开(公告)日:2023-12-12
申请号:CN202010685107.X
申请日:2020-07-16
Applicant: 中国科学院计算技术研究所
IPC: G06F9/30 , G06F9/32 , G06N3/10 , G06N3/0464 , G06N3/0495 , G06N3/082
Abstract: 本发明提出一种数据流架构中无效指令检测并跳过执行的方法,适用于数据流架构下稀疏卷积神经网络的加速。该发明对于稀疏神经网络,包括卷积层和全连接层。通过对编译器编译的指令,依据数据特征生成指令标记信息,指令检测单元又依据指令标记信息对指令进行检测,并跳过无效指令的执行,从而实现稀疏卷积神经网络的加速。
-
公开(公告)号:CN111738703B
公开(公告)日:2023-06-02
申请号:CN202010474004.9
申请日:2020-05-29
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供一种加速安全散列算法的加速器,包括:存储模块、PE运算模块、任务划分模块、算法映射模块。本发明相比于现有技术,首先可以降低计算的时间开销,提高计算性能;其次,可以降低计算带来的功耗开销;此外,本发明可以实现安全散列函数的高通量计算,显著提高哈希率,使用本发明设计的计算机系统具有良好的可扩展性和兼容性。
-
公开(公告)号:CN113298245B
公开(公告)日:2022-11-29
申请号:CN202110631644.0
申请日:2021-06-07
Applicant: 中国科学院计算技术研究所
Abstract: 本发明实施例提供了一种基于数据流架构的多精度神经网络计算装置,包括:微控制器以及与之连接的PE阵列,PE阵列的每个PE中配置有原始精度和精度低于原始精度的多种低精度的计算部件,精度越低的计算部件中配置越多并行的乘法累加器以充分利用片上网络带宽,为每个PE中每种低精度的计算部件配置充足的寄存器以避免数据溢出;所述微控制器被配置为:响应于对特定卷积神经网络的加速请求,控制PE阵列中与所述特定卷积神经网络精度匹配的原始精度或者低精度的计算部件执行相应的卷积操作中的运算并将中间计算结果存储至相应的寄存器。从而可以为不同精度的卷积神经网络进行加速,降低计算时延和能耗,提高用户体验。
-
公开(公告)号:CN112311695B
公开(公告)日:2022-09-30
申请号:CN202011134155.6
申请日:2020-10-21
Applicant: 中国科学院计算技术研究所
IPC: H04L47/52 , H04L47/76 , H04L49/109
Abstract: 本发明提出一种片上带宽动态分配方法和系统,包括:发射模块接受存储系统的任务请求,将请求封装为发射块,将多个发射块组织为堆结构,动态维护堆结构,向分配模块传输发射块;分配模块由带窗口的队列组成,其功能为接受发射块,为发射块匹配等待队列,更新发射块内容并将其回传存储系统;每个宽度的带宽对应一个等待队列,等待队列中是需要传输的数据。本发明采用硬件与软件协同的方式带宽分配方法,可以提高带宽的利用率,增加芯片的吞吐率,实现高通量的计算需求;本发明控制逻辑、结构简单,不占用计算资源,实现简单,在多种芯片系统中具有普适性。
-
公开(公告)号:CN112288085A
公开(公告)日:2021-01-29
申请号:CN202011147836.6
申请日:2020-10-23
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提出一种卷积神经网络加速方法及系统,包括将待特征分析的图像作为输入激活输入卷积神经网络,分解该卷积神经网络中滤波器的权值向量,得到滤波器中权值对应的符号向量;通过符号向量与输入激活向量执行卷积运算,得到第一卷积结果,通过补偿因子与输入激活向量执行卷积运算,得到第二卷积结果,将该第一卷积结果和第二卷积结果相加,得到预测结果;该卷积神经网络执行卷积计算时根据该预测结果跳过0值相关的运算,得到卷积结果。本发明可预知输出激活的稀疏度,以指导原始的神经网络运算跳过0值相关的运算,从而减少原始网络的计算量,节省计算资源、降低功耗并提升性能。
-
公开(公告)号:CN112015473A
公开(公告)日:2020-12-01
申请号:CN202010719417.9
申请日:2020-07-23
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提出一种基于数据流架构的稀疏卷积神经网络加速方法及系统。针对稀疏卷积应用,使用软件方式设计了一套指令共享检测装置和稀疏卷积加速方法。通过对编译器生成的指令进行检测和对比,标记所有指令中指令内容完全相同的指令,将这些指令的地址设置为相同的地址,实现稀疏卷积中指令共享,从而减少了指令加载对内存的访问,提升了稀疏卷积运行的时间。
-
-
-
-
-
-