一种面向众核架构的神经网络增量编译方法和装置

    公开(公告)号:CN115904394A

    公开(公告)日:2023-04-04

    申请号:CN202310191337.4

    申请日:2023-03-02

    IPC分类号: G06F8/41 G06N3/0464 G06N3/082

    摘要: 本发明公开一种面向众核架构的神经网络增量编译方法和装置,该方法包括:步骤一,获得前次编译结果,并复原为编译器对应的中间表示结构;步骤二,分别对前次编译的模型和当前编译的模型,进行逐层匹配,识别前次编译的模型和当前编译的模型之间产生的变化;步骤三,对产生变化的模型网络层完成增量分析得到增量数据,对与产生变化的网络层相连的层,递归地完成依赖性分析来确认重新编译最小集合;步骤四,对复原的中间表示结构进行解析,定位中间表示结构中涉及增量修改的节点,再进行增量填充和重编译;步骤五,对经过增量填充和重编译的中间表示结构进行部分序列化,生成编译结果文件。本发明能够减少重复编译优化的耗时,提高编译效率。

    类脑计算机操作系统的脉冲神经网络应用表示方法及装置

    公开(公告)号:CN115392443A

    公开(公告)日:2022-11-25

    申请号:CN202211325953.6

    申请日:2022-10-27

    IPC分类号: G06N3/04 G06N3/063 G06N3/08

    摘要: 本发明公开了类脑计算机操作系统的脉冲神经网络应用表示方法及装置,将一个类脑应用所需的全部文件组织成一个dpk,具体包括:模型校验文件、SNN模型描述文件、SNN权重连接文件、可执行模型文件,以及应用配置、数据预处理、脉冲编解码、应用业务逻辑处理等文件。dpk的生成过程分为三步:SNN模型训练或转换、模型编译、应用压缩打包。类脑计算机操作系统导入dpk后进行解压和安装,部署模型到类脑计算机,并基于该神经模型运行类脑应用。本发明对各种脉冲神经网络模型和应用配置信息的表示提供约束和规范,为各种类脑应用接入类脑计算机提供统一入口,有助于提高类脑操作系统的管理效率以及类脑计算机硬件资源的利用率。

    神经元计算机操作系统的资源映射方法和装置

    公开(公告)号:CN117688992B

    公开(公告)日:2024-06-04

    申请号:CN202410141524.6

    申请日:2024-02-01

    IPC分类号: G06N3/049 G06N3/082 G06N3/126

    摘要: 本申请涉及一种神经元计算机操作系统的资源映射方法和装置,其中,该方法包括:获取待运行的应用;将硬件的运行资源抽象为二维网格;基于最大空矩形法将空闲计算核心划分为矩形核心集合并确定最匹配的核心集合;基于硬件中各计算核心之间的脉冲通信代价、输入输出核心与计算核心之间的脉冲通信代价、二维网格中全部计算核心所占面积以及预设的经验常量构建代价函数;基于代价函数确定映射代价最小的映射方案。本申请通过神经元计算机操作系统建立准确估算映射代价的映射代价函数,通过代价函数确定映射代价最小的映射方案,为脉冲神经网络映射硬件资源,解决了相关技术中脉冲神经网络运行性能较低的问题,提高了脉冲神经网络的运行性能。

    神经元计算机操作系统的资源映射方法和装置

    公开(公告)号:CN117688992A

    公开(公告)日:2024-03-12

    申请号:CN202410141524.6

    申请日:2024-02-01

    IPC分类号: G06N3/049 G06N3/082 G06N3/126

    摘要: 本申请涉及一种神经元计算机操作系统的资源映射方法和装置,其中,该方法包括:获取待运行的应用;将硬件的运行资源抽象为二维网格;基于最大空矩形法将空闲计算核心划分为矩形核心集合并确定最匹配的核心集合;基于硬件中各计算核心之间的脉冲通信代价、输入输出核心与计算核心之间的脉冲通信代价、二维网格中全部计算核心所占面积以及预设的经验常量构建代价函数;基于代价函数确定映射代价最小的映射方案。本申请通过神经元计算机操作系统建立准确估算映射代价的映射代价函数,通过代价函数确定映射代价最小的映射方案,为脉冲神经网络映射硬件资源,解决了相关技术中脉冲神经网络运行性能较低的问题,提高了脉冲神经网络的运行性能。

    脉冲神经网络模型资源映射方法、装置和存储介质

    公开(公告)号:CN117648956A

    公开(公告)日:2024-03-05

    申请号:CN202410118627.0

    申请日:2024-01-29

    IPC分类号: G06N3/049 G06N3/084

    摘要: 本申请涉及一种脉冲神经网络模型资源映射方法、装置和存储介质,其中,该脉冲神经网络模型资源映射方法包括:根据脉冲神经网络模型中各神经元簇的步长,对脉冲神经网络模型中各神经元簇进行分层,得到各层神经元簇集合;将各层神经元簇集合部署至类脑芯片的神经拟态核矩阵的各空闲神经拟态核列中;其中,层数越大的神经元簇集合,部署于列序号越大的空闲神经拟态核列中;根据各空闲神经拟态核列中分配资源的初始位置,以及各空闲神经拟态核列中其他位置与初始位置的距离,为各空闲神经拟态核列中部署的神经元簇集合分配类脑芯片的空闲神经拟态核,提高了神经拟态核利用率和类脑模型的运算速度。

    一种神经元计算机两阶段任务动态调度方法

    公开(公告)号:CN116820707A

    公开(公告)日:2023-09-29

    申请号:CN202310530972.0

    申请日:2023-05-08

    IPC分类号: G06F9/48 G06F9/54 G06F9/50

    摘要: 本发明公开了一种神经元计算机两阶段任务动态调度方法,包括:将新任务作为缓存任务存入缓存队列,依据新任务的预计执行时长、缓存队列的任务吞吐率以及正在执行队列的任务完成情况计算延迟调度的等待调度时长;当等待调度时长到达时,基于Johnson法则优化两阶段任务的最优调度求解策略对缓存队列进行求解得到延迟最优调度序列,并按照延迟最优调度序列将缓存任务添加到正在执行队列,这样在任务的动态调度中根据实时环境的变化延迟缓存不同时刻任务队列,在局部最优调度的基础上寻求全局最优,形成了快速响应反馈调度方式,有效解决了两阶段任务动态调度问题,提高了两阶段关联任务调度的可靠性。

    神经元计算机节点负载均衡的方法、系统以及存储介质

    公开(公告)号:CN116541177A

    公开(公告)日:2023-08-04

    申请号:CN202310669851.4

    申请日:2023-06-07

    IPC分类号: G06F9/50 G06N3/006 G06N3/063

    摘要: 本申请涉及一种神经元计算机节点负载均衡的方法、神经元计算机系统以及存储介质。所述方法包括:各节点上处理器核心的资源占用状态,生成各所述节点的资源动态特征矩阵;基于所述资源动态特征矩阵,获取各节点上与待部署应用所需资源格式相匹配的放置方案,并计算各所述放置方案的适应值;基于所述适应值,获取各所述节点的最大适应值,并计算对应的可分配系数;基于所述可分配系数,确定所述待部署应用的部署节点。采用本方法能够及时评估各节点负载情况并根据节点负载情况进行负载均衡决策,解决了现有技术中因负载信息描述不足而导致的节点负载均衡决策困难的问题,提高了神经元计算机系统的资源利用率以及负载均衡的可靠性。

    一种面向众核架构的神经网络增量编译方法和装置

    公开(公告)号:CN115904394B

    公开(公告)日:2023-07-04

    申请号:CN202310191337.4

    申请日:2023-03-02

    IPC分类号: G06F8/41 G06N3/0464 G06N3/082

    摘要: 本发明公开一种面向众核架构的神经网络增量编译方法和装置,该方法包括:步骤一,获得前次编译结果,并复原为编译器对应的中间表示结构;步骤二,分别对前次编译的模型和当前编译的模型,进行逐层匹配,识别前次编译的模型和当前编译的模型之间产生的变化;步骤三,对产生变化的模型网络层完成增量分析得到增量数据,对与产生变化的网络层相连的层,递归地完成依赖性分析来确认重新编译最小集合;步骤四,对复原的中间表示结构进行解析,定位中间表示结构中涉及增量修改的节点,再进行增量填充和重编译;步骤五,对经过增量填充和重编译的中间表示结构进行部分序列化,生成编译结果文件。本发明能够减少重复编译优化的耗时,提高编译效率。