-
公开(公告)号:CN115374935A
公开(公告)日:2022-11-22
申请号:CN202211122342.1
申请日:2022-09-15
申请人: 重庆大学 , 中国人民解放军陆军军医大学第一附属医院
摘要: 本发明提出了一种神经网络的剪枝方法,包括以下步骤:S1,根据硬件资源的规模、时序约束、以及先验知识,确定脉动阵列规模,再根据硬件资源的规模、时序约束、以及先验知识、脉动阵列规模,确定最大筛选通道数和过滤器分组的最小数量;S2,将S1得到的最大筛选通道数和过滤器分组的最小数量以及其它约束条件训练神经网络;S3,训练完毕后,通过编译器产生指令,对加速器的剪枝模式进行配置;S4,然后加速器接收解码后的指令,将输入特征图数据、经过训练压缩后的权重数据、根据训练生成的剪枝模式配置信息、以及经过训练生成的通道选择数据加载至加速器内部的硬件缓存单元中;S5,数据全部加载至硬件内部资源后,加速器开始进行卷积计算,脉动阵列开始工作,最终得到卷积结果。本发明能够在满足脉动阵列SA工作模式,保证其工作效率的前提下,减少了模型的参数量,提高了模型推理的速度。
-
公开(公告)号:CN115374935B
公开(公告)日:2023-08-11
申请号:CN202211122342.1
申请日:2022-09-15
申请人: 重庆大学 , 中国人民解放军陆军军医大学第一附属医院
摘要: 本发明提出了一种神经网络的剪枝方法,包括以下步骤:S1,根据硬件资源的规模、时序约束、以及先验知识,确定脉动阵列规模,再根据硬件资源的规模、时序约束、以及先验知识、脉动阵列规模,确定最大筛选通道数和过滤器分组的最小数量;S2,将S1得到的最大筛选通道数和过滤器分组的最小数量以及其它约束条件训练神经网络;S3,训练完毕后,通过编译器产生指令,对加速器的剪枝模式进行配置;S4,然后加速器接收解码后的指令,将输入特征图数据、经过训练压缩后的权重数据、根据训练生成的剪枝模式配置信息、以及经过训练生成的通道选择数据加载至加速器内部的硬件缓存单元中;S5,数据全部加载至硬件内部资源后,加速器开始进行卷积计算,脉动阵列开始工作,最终得到卷积结果。本发明能够在满足脉动阵列SA工作模式,保证其工作效率的前提下,减少了模型的参数量,提高了模型推理的速度。
-
公开(公告)号:CN115169553A
公开(公告)日:2022-10-11
申请号:CN202210801703.9
申请日:2022-07-07
申请人: 重庆大学
摘要: 本发明提出了一种可重构的稀疏神经网络加速器,其特征在于,包括:输入特征图存储模块、指令存储模块、权重存储模块、偏置存储模块、输出特征图存储模块、特征图Bitmap存储模块、控制模块、计算控制模块、地址映射模块、PE阵列模块和PU通用数据处理模块。控制模块与输入特征图存储模块、指令存储模块、权重存储模块、偏置存储模块、特征图Bitmap存储模块相连接;计算控制模块与输入特征图存储模块、指令存储模块、权重存储模块、偏置存储模块、输出特征图存储模块、特征图Bitmap存储模块、PE阵列运算模块相连接;地址映射模块与输入特征图存储模块、特征图Bitmap存储模块、输出特征图存储模块相连接,PE阵列运算模块与输入特征图存储模块、输出特征图存储模块、权重存储模块和偏置存储模块相连接;PU通用数据处理模块与指令存储模块、输出特征图存储模块、DDR模块相连接。本发明能够使用较少的资源同时支持多种卷积计算以提升神经网络加速器的通用性。
-
公开(公告)号:CN118152910A
公开(公告)日:2024-06-07
申请号:CN202410101807.8
申请日:2024-01-24
申请人: 重庆大学
IPC分类号: G06F18/2413 , G06F18/22
摘要: 本发明提出了一种用于点云KNN搜索的加速电路及其工作方法,包括:点桶建立模块,用于将参考点云数据和搜索点云数据分别存储至参考点桶和搜索点桶;点云划分模块,用于将参考点云数据和搜索点云数据存储至按块划分的RAM空间中,所划分的块为桶块,用于存储对应的参考点云数据和搜索点云数据;最近邻搜索模块,通过最近邻搜索确定N个搜索单元中搜索点桶N个点的最近邻点。
-
-
-