-
公开(公告)号:CN116225689A
公开(公告)日:2023-06-06
申请号:CN202211612049.3
申请日:2022-12-15
摘要: 本发明公开了基于静态中继的神经元操作系统任务资源配置方法及装置,根据任务的不同状态,分别维护任务队列new list、delay list、ready list、running list;进行静态中继配置,基于硬件约束条件,提供所有计算核心可达的数据通路;通过计算资源分配,采用最大空矩形算法,给任务分配可用的计算资源;最后,对计算资源回收,在任务到达截止时间后,回收任务占用的资源,实现重复利用。本发明通过静态中继方案,解决了芯片中的核心超过一定距离数据包无法到达的问题;通过维护最大空矩形列表的方式管理空闲资源,实现了资源分配与回收的功能,能够使任务充分利用类脑芯片提供的计算资源。
-
公开(公告)号:CN116070682A
公开(公告)日:2023-05-05
申请号:CN202310354756.5
申请日:2023-04-06
摘要: 本发明公开了神经元计算机操作系统的SNN模型动态映射方法及装置,通过根据节点之间连接关系、设置的初始解空间映射,以及输入、输出虚拟节点相对物理神经元拟态核边缘核心的位置,构建脉冲通信代价计算模型,计算前继节点与后继节点对应物理坐标间的距离,基于节点间的距离和对应的权重信息,得到脉冲通信代价;同时,基于初始解空间,通过贪心算法遍历逻辑神经元拟态核在不同空闲物理神经元拟态核时的脉冲通信代价,得到最小脉冲通信代价时,逻辑神经元拟态核与物理神经元拟态核的映射关系。从而解决了类脑硬件资源因碎片化而无法直接将模型的逻辑神经元拟态核相对位置一一映射到物理神经元拟态核的问题。
-
公开(公告)号:CN114492782B
公开(公告)日:2022-09-16
申请号:CN202210407390.9
申请日:2022-04-19
摘要: 本发明公开了基于强化学习的神经网络的片上核心编译映射方法及装置,通过将传统映射规划问题放入强化学习框架,构造状态描述、奖励函数和行动空间,通过强化学习训练获得的策略深度网络,依次将神经元放置在片上网络的多个核心内。以通信代价、映射面积和核心内部使用率构造映射收益,并利用Actor‑Critic算法训练策略网络以获得更高的映射收益,训练强化学习策略网络学习任意脉冲神经网络神经元的最佳映射位置,最后利用训练完成的策略网络完成所需部署的神经网络到片上核心阵列的,降低了互连神经元片上通信距离代价,有效提高了芯片计算效率并降低整体功耗。
-
公开(公告)号:CN114492782A
公开(公告)日:2022-05-13
申请号:CN202210407390.9
申请日:2022-04-19
摘要: 本发明公开了基于强化学习的神经网络的片上核心编译映射方法及装置,通过将传统映射规划问题放入强化学习框架,构造状态描述、奖励函数和行动空间,通过强化学习训练获得的策略深度网络,依次将神经元放置在片上网络的多个核心内。以通信代价、映射面积和核心内部使用率构造映射收益,并利用Actor‑Critic算法训练策略网络以获得更高的映射收益,训练强化学习策略网络学习任意脉冲神经网络神经元的最佳映射位置,最后利用训练完成的策略网络完成所需部署的神经网络到片上核心阵列的,降低了互连神经元片上通信距离代价,有效提高了芯片计算效率并降低整体功耗。
-
公开(公告)号:CN114330698A
公开(公告)日:2022-04-12
申请号:CN202210249465.5
申请日:2022-03-15
IPC分类号: G06N3/063 , G06F11/14 , G06F16/13 , G06F16/172
摘要: 本发明公开了一种类脑计算机操作系统的神经模型存储系统及方法,将神经模型保存在三个计算节点上,节点的选择根据节点的空闲核心数量、可用存储空间、故障次数及每次故障的时间,动态计算权重来确定;神经模型的读取实现同节点读取和跨计算节点读取;非主控节点故障的恢复;主控节点故障的恢复;整机重启或故障的恢复。本发明实现了神经模型在类脑计算机上的多节点冗余存储、跨节点读取、存储节点的动态选择、节点故障后的自我修复,提升了神经模型存储的可靠性、神经模型读取的便利性,以及类脑计算机整体的运行效率与稳定性。
-
公开(公告)号:CN114492770B
公开(公告)日:2024-10-15
申请号:CN202210104658.1
申请日:2022-01-28
摘要: 本发明公开了一种面向循环脉冲神经网络的类脑计算芯片映射方法,包括:S1,获取循环脉冲神经网络的输入,转换为逻辑图结构;S2,计算单节点树突表能容纳的最大突触数量;S3,结合循环脉冲神经网络的逻辑图结构,进行神经元节点的分配;S4,逐层进行各节点轴突表约束检查,若不满足约束,进行S5,若满足约束,则进行S6;S5,对不满足轴突表约束的节点进行分裂,并回到步骤S4进行各节点轴突表约束检查;S6,所有节点满足硬件约束时,分配节点坐标;S7,生成二进制芯片的配置信息,完成将循环脉冲神经网络部署到类脑计算芯片上的映射。本发明可以解决RSNN映射到芯片过程中的死锁问题,使RSNN准确映射部署在类脑计算芯片上。
-
公开(公告)号:CN117648956B
公开(公告)日:2024-06-04
申请号:CN202410118627.0
申请日:2024-01-29
摘要: 本申请涉及一种脉冲神经网络模型资源映射方法、装置和存储介质,其中,该脉冲神经网络模型资源映射方法包括:根据脉冲神经网络模型中各神经元簇的步长,对脉冲神经网络模型中各神经元簇进行分层,得到各层神经元簇集合;将各层神经元簇集合部署至类脑芯片的神经拟态核矩阵的各空闲神经拟态核列中;其中,层数越大的神经元簇集合,部署于列序号越大的空闲神经拟态核列中;根据各空闲神经拟态核列中分配资源的初始位置,以及各空闲神经拟态核列中其他位置与初始位置的距离,为各空闲神经拟态核列中部署的神经元簇集合分配类脑芯片的空闲神经拟态核,提高了神经拟态核利用率和类脑模型的运算速度。
-
公开(公告)号:CN117170843A
公开(公告)日:2023-12-05
申请号:CN202311113941.1
申请日:2023-08-31
摘要: 本发明公开了一种基于时间片的神经元计算机任务调度方法,应用于神经元计算机操作系统,包括:通过对任务运行进行动态特征提取,将任务所占资源划分为计算单元资源、运行模式资源、通讯资源和独立同步源资源;基于此,将神经元计算机硬件的计算切分为时间片分时运行以同时运行占用不同资源的任务,利用贪心算法求解可以运行最多任务数的时间片,从而提高硬件的并行计算效率,并且利用任务冲突频率特征来定向迁移任务,进一步提高了神经计算资源的利用率。本发明利用资源特征抽象化方法增强异构神经形态计算硬件的可适配性和运行多任务的能力,从而有效提高了多任务运行场景下的资源利用率。
-
公开(公告)号:CN116070682B
公开(公告)日:2023-08-15
申请号:CN202310354756.5
申请日:2023-04-06
摘要: 本发明公开了神经元计算机操作系统的SNN模型动态映射方法及装置,通过根据节点之间连接关系、设置的初始解空间映射,以及输入、输出虚拟节点相对物理神经元拟态核边缘核心的位置,构建脉冲通信代价计算模型,计算前继节点与后继节点对应物理坐标间的距离,基于节点间的距离和对应的权重信息,得到脉冲通信代价;同时,基于初始解空间,通过贪心算法遍历逻辑神经元拟态核在不同空闲物理神经元拟态核时的脉冲通信代价,得到最小脉冲通信代价时,逻辑神经元拟态核与物理神经元拟态核的映射关系。从而解决了类脑硬件资源因碎片化而无法直接将模型的逻辑神经元拟态核相对位置一一映射到物理神经元拟态核的问题。
-
公开(公告)号:CN114548384A
公开(公告)日:2022-05-27
申请号:CN202210456279.9
申请日:2022-04-28
摘要: 本发明属于神经网络领域,具体涉及一种具有抽象资源约束的脉冲神经网络模型构建方法和装置,该方法包括:步骤一:基于面向对象编程模型,构建脉冲神经网络模型,同时约束模型的抽象资源信息;步骤二:对构建完成的脉冲神经网络模型进行训练和检查,并根据检查结果进行调整,以得到满足抽象资源约束的模型;步骤三:标准化各个模型开发工具间的输入和输出,并根据标准化的模型开发工具,将所述满足抽象资源约束的模型转换生成在神经拟态计算平台上可运行的模型。本发明降低了各个工具之间的耦合和替换成本,提升了工具开发效率,模型构建过程中嵌入抽象资源约束信息,有效降低模型开发成本。
-
-
-
-
-
-
-
-
-