一种用于动态分配片上网络带宽的方法及装置

    公开(公告)号:CN113296957B

    公开(公告)日:2024-03-05

    申请号:CN202110676326.6

    申请日:2021-06-18

    Abstract: 本发明实施例提供了一种用于动态分配片上网络带宽的方法及装置,该方法获取用户自定义配置的配置文件;根据配置文件将片上网络带宽划分为多个不同优先级的子带宽以及对片上网络上传输的任务进行优先级划分;为各优先级的子带宽分别维护与之对应的任务队列,将相应优先级的任务预分配到与之相同优先级的任务队列;基于轮询机制在每个时间片查询各个任务队列中的可用时间片以及判断相应任务的实时性需求能否满足,若不能满足,则根据所述可用时间片对任务队列中的任务进行重组以跨优先级利用子带宽,本发明可以在片上网络中充分利用带宽,更好地满足片上网络带宽中复杂的任务传输需求。

    基于数据流架构的Cholesky分解加速计算方法及其系统

    公开(公告)号:CN115391731A

    公开(公告)日:2022-11-25

    申请号:CN202210921474.4

    申请日:2022-08-02

    Abstract: 本申请公开了一种基于数据流架构的Cholesky分解加速计算方法,所述方法包括:数据准备步骤、矩阵2×2分块计算步骤及矩阵1×1分块计算步骤;将数据流架构中处理单元PE阵列分为多个PE组,将不规则的待计算矩阵按照预定划分规则划分为规则的多个矩阵块,判断规模为N×N的待计算矩阵的N大于预定阈值,则采用基于2×2分块的cholesky拆分算法,循环迭代计算各个PE组中的矩阵块,且通过不同PE组对cholesky分解计算的数据依赖关系,实现PE组间数据传递,待计算矩阵的规模动态调整缩小;判断规模为N×N的所述待计算矩阵的N小于等于预定阈值,采用基于1×1分块的cholesky拆分算法,循环迭代计算,直至计算完成输出计算结果,完成基于数据流架构的Cholesky分解的加速计算。

    一种用于分布式训练同步阶段的自动优化方法

    公开(公告)号:CN114925826A

    公开(公告)日:2022-08-19

    申请号:CN202210553741.7

    申请日:2022-05-20

    Abstract: 本发明提供一种用于分布式训练同步阶段的自动优化方法,所述方法包括在每个回合执行如下步骤:S1、获取在当前回合网络状态满足预设的系统要求的节点组成激活节点列表;S2、基于激活节点列表中的所有节点构建自动优化策略以从激活节点列表中选出使分布式系统效率最大的激活节点组合作为自动优化策略,并将自动优化策略对应的节点加入分布式训练。其中,所述激活节点列表包括当前回合已存在的激活节点列表以及当前回合新加入的新增激活节点列表,其中,所述当前回合新加入的新增激活节点列表是在当前回合网络状态满足系统要求的非激活节点组成的列表,所述非激活节点是指当前回合之前未加入分布式训练的节点。

    一种基于数据流架构的深度可分离卷积融合方法及系统

    公开(公告)号:CN113313251A

    公开(公告)日:2021-08-27

    申请号:CN202110522385.8

    申请日:2021-05-13

    Abstract: 本发明提出一种基于数据流架构的深度可分离卷积融合方法和系统,包括:将输入图像数据、卷积参数从主存DRAM搬运到数据缓存SPM;PE阵列通过从数据缓存SPM中读取该输入图像数据、卷积参数,以执行DW卷积,并将得到的DW卷积结果存储在PE内的寄存器中;PE阵列对寄存器中DW卷积结果进行激活计算得到该输入图像数据的初步结果Act_out,将该初步结果Act_out写回数据缓存SPM后,进一步存回主存;PE阵列通过从数据缓存SPM中读取初步结果Act_out与卷积参数,执行PW卷积得到最终结果Output;将最终结果Output写回数据缓存SPM后,进一步存回主存DRAM。本发明减少了数据的存储与访问带来的开销,使得深度可分离式卷积计算在数据流架构上的计算实现加速。

Patent Agency Ranking