-
-
公开(公告)号:CN113296957B
公开(公告)日:2024-03-05
申请号:CN202110676326.6
申请日:2021-06-18
Applicant: 中国科学院计算技术研究所
IPC: G06F9/50
Abstract: 本发明实施例提供了一种用于动态分配片上网络带宽的方法及装置,该方法获取用户自定义配置的配置文件;根据配置文件将片上网络带宽划分为多个不同优先级的子带宽以及对片上网络上传输的任务进行优先级划分;为各优先级的子带宽分别维护与之对应的任务队列,将相应优先级的任务预分配到与之相同优先级的任务队列;基于轮询机制在每个时间片查询各个任务队列中的可用时间片以及判断相应任务的实时性需求能否满足,若不能满足,则根据所述可用时间片对任务队列中的任务进行重组以跨优先级利用子带宽,本发明可以在片上网络中充分利用带宽,更好地满足片上网络带宽中复杂的任务传输需求。
-
公开(公告)号:CN115391731A
公开(公告)日:2022-11-25
申请号:CN202210921474.4
申请日:2022-08-02
Applicant: 中国科学院计算技术研究所
Abstract: 本申请公开了一种基于数据流架构的Cholesky分解加速计算方法,所述方法包括:数据准备步骤、矩阵2×2分块计算步骤及矩阵1×1分块计算步骤;将数据流架构中处理单元PE阵列分为多个PE组,将不规则的待计算矩阵按照预定划分规则划分为规则的多个矩阵块,判断规模为N×N的待计算矩阵的N大于预定阈值,则采用基于2×2分块的cholesky拆分算法,循环迭代计算各个PE组中的矩阵块,且通过不同PE组对cholesky分解计算的数据依赖关系,实现PE组间数据传递,待计算矩阵的规模动态调整缩小;判断规模为N×N的所述待计算矩阵的N小于等于预定阈值,采用基于1×1分块的cholesky拆分算法,循环迭代计算,直至计算完成输出计算结果,完成基于数据流架构的Cholesky分解的加速计算。
-
公开(公告)号:CN115390923A
公开(公告)日:2022-11-25
申请号:CN202210843537.9
申请日:2022-07-18
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提出一种基于多模式的SIMD应用高效执行方法和系统,包括:一种能灵活控制SIMD部件运行在不同粒度的SIMD部件架构,使得SIMD部件可以在不同的应用,以及同应用但不同规模等场景下保持高效的利用率。以及与之相配套的搜寻应用最佳粒度并生成应用在对应粒度下的映射方案的方法,以充分发挥多模式SIMD部件的能力。这种多模式SIMD部件能够应用于多种类型的芯片当中。
-
公开(公告)号:CN114925826A
公开(公告)日:2022-08-19
申请号:CN202210553741.7
申请日:2022-05-20
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供一种用于分布式训练同步阶段的自动优化方法,所述方法包括在每个回合执行如下步骤:S1、获取在当前回合网络状态满足预设的系统要求的节点组成激活节点列表;S2、基于激活节点列表中的所有节点构建自动优化策略以从激活节点列表中选出使分布式系统效率最大的激活节点组合作为自动优化策略,并将自动优化策略对应的节点加入分布式训练。其中,所述激活节点列表包括当前回合已存在的激活节点列表以及当前回合新加入的新增激活节点列表,其中,所述当前回合新加入的新增激活节点列表是在当前回合网络状态满足系统要求的非激活节点组成的列表,所述非激活节点是指当前回合之前未加入分布式训练的节点。
-
公开(公告)号:CN113313251A
公开(公告)日:2021-08-27
申请号:CN202110522385.8
申请日:2021-05-13
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提出一种基于数据流架构的深度可分离卷积融合方法和系统,包括:将输入图像数据、卷积参数从主存DRAM搬运到数据缓存SPM;PE阵列通过从数据缓存SPM中读取该输入图像数据、卷积参数,以执行DW卷积,并将得到的DW卷积结果存储在PE内的寄存器中;PE阵列对寄存器中DW卷积结果进行激活计算得到该输入图像数据的初步结果Act_out,将该初步结果Act_out写回数据缓存SPM后,进一步存回主存;PE阵列通过从数据缓存SPM中读取初步结果Act_out与卷积参数,执行PW卷积得到最终结果Output;将最终结果Output写回数据缓存SPM后,进一步存回主存DRAM。本发明减少了数据的存储与访问带来的开销,使得深度可分离式卷积计算在数据流架构上的计算实现加速。
-
公开(公告)号:CN113298236A
公开(公告)日:2021-08-24
申请号:CN202110676008.X
申请日:2021-06-18
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供一种基于数据流结构的低精度神经网络计算装置,包括输入缓存区,输出缓存区、权重缓存区以及PE阵列,其中,PE阵列中的每个PE包括乘加部件,所述乘加部件以SIMD方式进行乘加运算。本发明还提供一种基于上述装置的低精度神经网络加速方法。本发明节省了计算资源,减少了访存带来的开销。
-
公开(公告)号:CN113297131A
公开(公告)日:2021-08-24
申请号:CN202110660411.3
申请日:2021-06-15
Applicant: 中国科学院计算技术研究所
IPC: G06F15/82 , G06F15/173
Abstract: 本发明提供一种基于路由信息的数据流指令映射方法,包括:步骤M1,遍历数据流图的节点,对节点进行标号;步骤M2,依节点标号顺序以及PE阵列的PE状态表,对所述数据流图进行n层节点搜索,选取路由代价最小的方式对节点指令进行映射。本发明还提供基于路由信息的数据流指令映射系统。
-
公开(公告)号:CN112861154A
公开(公告)日:2021-05-28
申请号:CN202110209198.4
申请日:2021-02-24
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供一种面向数据流架构的SHA算法执行方法,对于逻辑左移操作,依次处理数据分量n1到数据分量nI。该方法包括:对于寄存器i的数据分量ni,将其与高位为j个1的K位二进制数1...1000...00进行按位与操作;将按位与操作的结果逻辑右移K-j位,得到寄存器i+1的进位值,并存入寄存器i的输出值REG_OUT中;将寄存器i的数据分量ni左移j位后加上寄存器i-1向寄存器i的进位值REG_IN,得到寄存器i的结果值;依次在寄存器1到寄存器I中分别重复执行上述步骤。
-
公开(公告)号:CN112215349A
公开(公告)日:2021-01-12
申请号:CN202010972552.4
申请日:2020-09-16
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供一种基于数据流架构的稀疏卷积神经网络加速方法,其包括:通过计算输入激活和权值矩阵的运算,得到输出激活的正负值标记信息;根据所述输出激活的正负值标记信息,对与所述输出激活相关的指令的有效与无效进行标记,得到指令标记信息;根据所述指令标记信息,筛选出所述指令中被标记为有效的指令;跳过所述被标记为无效的指令,仅执行所述被标记为有效的指令。
-
-
-
-
-
-
-
-
-