一种基于混合存储的存内计算的方法与装置

    公开(公告)号:CN112015673B

    公开(公告)日:2021-03-16

    申请号:CN202011137494.X

    申请日:2020-10-22

    IPC分类号: G06F12/02

    摘要: 本发明涉及计算机内存计算领域,具体涉及一种基于混合存储的存内计算方法与装置,该方法包括:首先通过混合存储区将数据进行混合存储,然后利用数据转存区通过字线驱动器和控制器对某一指定行的数据进行移位操作,最后基于混合存储和移位操作进行数据的乘法计算。本发明结合非易失存储与内存计算,一方面计算数据以纳秒级的速度从非易失器件中获得,特别是对于深度神经网络推理这种场景,可将模型参数事先存放于非易失存储区,计算时能减少了数据访问的时间,提高了系统性能;另一方面通过改进电路操作流程,减少了不必要的数据搬移时间,使得移位时间也能缩短至纳秒级别,提升了对于乘法计算这种有大量移位操作的计算效率,提高了系统性能。

    一种基于人脑记忆机制的深度神经网络训练数据采样方法

    公开(公告)号:CN112418422A

    公开(公告)日:2021-02-26

    申请号:CN202011307776.X

    申请日:2020-11-20

    IPC分类号: G06N3/08

    摘要: 本发明公开了一种基于人脑记忆机制的深度神经网络训练数据采样方法,包括如下步骤:S1,在初始训练周期,设置下一轮要训练的序列为整个训练集;S2,将训练序列中包含的数据根据批大小打包为多个批,放入神经网络进行训练,并获得样本的训练损失值;S3,根据损失值将样本序列划分为困难、中间、简单三种类型;S4,整个训练序列的样本都增加一个基本时钟,中间和简单的样本需要根据倒计时等待函数分别计算样本的额外增加的时钟数;S5,整个训练集的样本都减少一个时钟数,将时钟数为0的样本放入下一轮将要训练的序列之中;S6,重复步骤2‑5,直到神经网络收敛或者训练周期数结束。

    一种基于人脑记忆机制的深度神经网络训练数据采样方法

    公开(公告)号:CN112418422B

    公开(公告)日:2022-05-27

    申请号:CN202011307776.X

    申请日:2020-11-20

    IPC分类号: G06N3/08

    摘要: 本发明公开了一种基于人脑记忆机制的深度神经网络训练数据采样方法,包括如下步骤:S1,在初始训练周期,设置下一轮要训练的序列为整个训练集;S2,将训练序列中包含的数据根据批大小打包为多个批,放入神经网络进行训练,并获得样本的训练损失值;S3,根据损失值将样本序列划分为困难、中间、简单三种类型;S4,整个训练序列的样本都增加一个基本时钟,中间和简单的样本需要根据倒计时等待函数分别计算样本的额外增加的时钟数;S5,整个训练集的样本都减少一个时钟数,将时钟数为0的样本放入下一轮将要训练的序列之中;S6,重复步骤2‑5,直到神经网络收敛或者训练周期数结束。

    基于Tensor访问的深度学习内存管理方法及系统

    公开(公告)号:CN112306697B

    公开(公告)日:2021-04-27

    申请号:CN202011619848.4

    申请日:2020-12-31

    IPC分类号: G06F9/50 G06N3/04 G06N3/08

    摘要: 本发明提供了一种基于Tensor访问的深度学习内存管理方法,该方法通过收集神经网络的执行信息和硬件平台的性能信息获得相关决策下的内存空间开销和时间开销,并建立整数线性规划模型,通过在约束条件下优化求解最优的Tensor调度策略,从而解决内存不足问题的同时获得较高的深度学习训练性能。相比于现有技术,相同的硬件性能下,本发明可以实现更大的batchsize的神经网络训练。本发明同时还提出了一种内存管理系统,包括profile模块、决策模块和执行模块;该系统可直接添加在深度学习框架上,使用方便。

    基于Tensor访问的深度学习内存管理方法及系统

    公开(公告)号:CN112306697A

    公开(公告)日:2021-02-02

    申请号:CN202011619848.4

    申请日:2020-12-31

    IPC分类号: G06F9/50 G06N3/04 G06N3/08

    摘要: 本发明提供了一种基于Tensor访问的深度学习内存管理方法,该方法通过收集神经网络的执行信息和硬件平台的性能信息获得相关决策下的内存空间开销和时间开销,并建立整数线性规划模型,通过在约束条件下优化求解最优的Tensor调度策略,从而解决内存不足问题的同时获得较高的深度学习训练性能。相比于现有技术,相同的硬件性能下,本发明可以实现更大的batchsize的神经网络训练。本发明同时还提出了一种内存管理系统,包括profile模块、决策模块和执行模块;该系统可直接添加在深度学习框架上,使用方便。

    一种数据快速读取方法、装置、电子设备及存储介质

    公开(公告)号:CN112597113B

    公开(公告)日:2021-06-01

    申请号:CN202110246172.7

    申请日:2021-03-05

    IPC分类号: G06F16/16 G06F16/14 G06F3/06

    摘要: 本发明公开了一种数据快速读取方法、装置、电子设备及存储介质,该方法包括:将数据集划分成若干份图片子集,对每个图片子集进行归一化处理,并分别聚合为一个文件;给数据集中的每个图片分配一个请求编号;通过继承深度学习平台的数据集抽象类,根据所述请求编号分别哈希计算出每个图片所在的文件地址和文件内所述的偏移信息,从而获得每张图片到该图片所属文件的映射;根据所述映射,快速读取数据集中的所有图片。将每个所述图片子集聚合为一个文件,减少了海量小样本元数据管理的开销,优化了数据集的组织形式,极大地提升了图片的读取速度;图片读取时通过多级地址映射,取代了原本低效的海量图片中随机查找的过程,极大地提升了读取速率。

    一种数据快速读取方法、装置、电子设备及存储介质

    公开(公告)号:CN112597113A

    公开(公告)日:2021-04-02

    申请号:CN202110246172.7

    申请日:2021-03-05

    IPC分类号: G06F16/16 G06F16/14 G06F3/06

    摘要: 本发明公开了一种数据快速读取方法、装置、电子设备及存储介质,该方法包括:将数据集划分成若干份图片子集,对每个图片子集进行归一化处理,并分别聚合为一个文件;给数据集中的每个图片分配一个请求编号;通过继承深度学习平台的数据集抽象类,根据所述请求编号分别哈希计算出每个图片所在的文件地址和文件内所述的偏移信息,从而获得每张图片到该图片所属文件的映射;根据所述映射,快速读取数据集中的所有图片。将每个所述图片子集聚合为一个文件,减少了海量小样本元数据管理的开销,优化了数据集的组织形式,极大地提升了图片的读取速度;图片读取时通过多级地址映射,取代了原本低效的海量图片中随机查找的过程,极大地提升了读取速率。

    一种基于混合存储的存内计算的方法与装置

    公开(公告)号:CN112015673A

    公开(公告)日:2020-12-01

    申请号:CN202011137494.X

    申请日:2020-10-22

    IPC分类号: G06F12/02

    摘要: 本发明涉及计算机内存计算领域,具体涉及一种基于混合存储的存内计算方法与装置,该方法包括:首先通过混合存储区将数据进行混合存储,然后利用数据转存区通过字线驱动器和控制器对某一指定行的数据进行移位操作,最后基于混合存储和移位操作进行数据的乘法计算。本发明结合非易失存储与内存计算,一方面计算数据以纳秒级的速度从非易失器件中获得,特别是对于深度神经网络推理这种场景,可将模型参数事先存放于非易失存储区,计算时能减少了数据访问的时间,提高了系统性能;另一方面通过改进电路操作流程,减少了不必要的数据搬移时间,使得移位时间也能缩短至纳秒级别,提升了对于乘法计算这种有大量移位操作的计算效率,提高了系统性能。