-
公开(公告)号:CN111242295A
公开(公告)日:2020-06-05
申请号:CN202010067775.6
申请日:2020-01-20
Applicant: 清华大学
Abstract: 本发明公开了一种可配置池化算子的方法,在池化计算之前设置一个片上的池化缓存,先按照卷积计算中的排列次序将数据存入池化缓存,然后再按照池化运算的顺序从池化缓存的相应位置依次取出数据进行计算,本发明还提供了一种可配置池化算子的电路,并公开了最大池化计算模块和平均池化计算模块的具体结构,在平均池化计算模块中,通过复用所述平均池化计算模块若干次,并在第三个加法器的输出与移位器的输入之间设置累加器,从而实现全局平均池化,通过改变复用平均池化计算模块的次数,实现任意尺寸下的全局平均池化计算。本发明不仅可以省去使用处理器计算池化的时间,优化加速器的性能,而且具有良好的通用性。
-
公开(公告)号:CN109871940A
公开(公告)日:2019-06-11
申请号:CN201910100113.1
申请日:2019-01-31
Applicant: 清华大学
Abstract: 一种脉冲神经网络的多层训练算法,利用逐层训练的方式,允许层内连接,并将权值训练和结构训练相结合,锐化数据之间的关联性,具体包括:1)数据预处理:将输入数据通过转换函数转化为脉冲序列;2)网络层初始化:设置脉冲神经网络层数、每层神经元数量和层内神经元分布状态;3)层间结构预训练:在初始网络中,网络层间不设置连接,层间连接采用逐层递推的方式生成;4)层间权值归一化:通过对层间权值的归一化操作消除数据差异带来的影响;5)进行层内结构训练:利用神经网络的结构训练算法,进行网络层内的结构训练;6)进行网络权值因果性训练。本发明算法训练的网络具备自组织、自生长能力,算法规则简单,计算量小,对模型精度要求低,易于仿真。
-
公开(公告)号:CN104765590B
公开(公告)日:2017-06-13
申请号:CN201510213002.3
申请日:2015-04-29
Applicant: 清华大学
IPC: G06F9/38
Abstract: 一种支持超标量与超长指令字混合架构处理器的分支预测方法,首先在取指级从BTB表中取得跳转指令所在分发包的NDA,然后根据此NDA来判断包含跳转指令的取指包中跳转指令后面的指令是否会执行,并以valid值标识出来,在分发级根据valid值标识的不同来判断该跳转指令是在超标量还是超长指令字模式下,在超标量模式下,分发包中跳转指令后的指令不能执行,如预测错误则从跳转指令后一条指令重新执行;在超长指令字模式下,分发包中跳转指令后面指令允许和跳转指令并行执行,如预测错误则从下个分发包首地址处重新执行;本发明能使混合架构处理器在两种模式下都能够进行分支预测,在吸收两种模式长处的同时减少了跳转指令周期损失,提高了处理器性能。
-
公开(公告)号:CN105573959A
公开(公告)日:2016-05-11
申请号:CN201610077605.X
申请日:2016-02-03
Applicant: 清华大学
IPC: G06F15/16
CPC classification number: G06F15/161
Abstract: 一种计算存储一体的分布式计算机架构,包括中央处理器和一个或多个计算单元,所述计算单元基于3D封装工艺封装于DDR芯片中,每个DDR芯片封装多层DRAM和一层逻辑电路层,逻辑电路层包括一个DMA和一个或多个计算单元,其中所述计算单元直接对DRAM进行访问,所述中央处理器经存储控制器通过分层的存储体系对DRAM进行访问,所述中央处理器和计算单元通过所述DMA实现快速块数据交换,中央处理器运行操作系统,并实现必要的控制类操作,计算单元负责完成计算任务。本发明基于3D封装技术,实现了计算单元和中央处理器的交互配置,由集中式的计算模式转换为分布式计算模式,大大减小了中央处理器的负担。
-
公开(公告)号:CN104915195A
公开(公告)日:2015-09-16
申请号:CN201510258018.6
申请日:2015-05-20
Applicant: 清华大学
Abstract: 本发明涉及一种基于现场可编程门阵列实现神经网络计算的方法,属于神经网络计算技术领域。首先建立现场可编程门阵列中基本逻辑单元与神经网络各组成部分的映射关系,用编程语言,描述现场可编程门阵列各个基本逻辑单元的功能,建立现场可编程门阵列中的所有基本逻辑单元的模型,通过FPGA与神经网络结构的映射关系来模拟神经网络,通过FPGA基本逻辑单元间互联关系的重新配置以及其自身的运算能力完成网络的自学习过程,相比现阶段追求与真实神经网络结构一致的方法,本发明在模拟相同复杂度的神经网络时能较大的减少硬件开销。其次,本发明在现场可编程门阵列软件模型上完成神经网络的学习过程,大大地减少了学习的周期,节省了时间成本。
-
公开(公告)号:CN103244004B
公开(公告)日:2015-05-20
申请号:CN201310174163.7
申请日:2013-05-13
Applicant: 清华大学
Abstract: 本发明涉及一种电动车窗防夹参数自动匹配方法,其包括以下步骤:当车窗防夹控制器初次安装到车窗时,将车窗控制器通电,中断单元定时发送中断请求信号分别到电流采集器和霍尔计数器;按下车窗玻璃的自动上升按钮,启动防夹参数自动匹配过程,防夹参数自动匹配单元令车窗玻璃自动下降到底,然后再自动上升到顶,在此过程中,防夹参数自动匹配单元对电机电流和车窗高度阈值两个防夹参数进行自动匹配,得到电机电流阈值和车窗高度阈值;判断单元对匹配完成的防夹参数的有效性进行判断;当车窗控制器检测到电机电流大于电流阈值时,认为电机产生了赌转,此时检查车窗位置,若处于防夹区间内时,则判定车窗发生夹持;若处于顶区以内时,则认为车窗已经到顶。本发明可以广泛应用于汽车的车窗控制中。
-
公开(公告)号:CN104461939A
公开(公告)日:2015-03-25
申请号:CN201410785020.4
申请日:2014-12-16
Applicant: 清华大学
IPC: G06F12/08
Abstract: 本发明公开一种扩展处理器寄存器堆容量的方法,主要为了解决寄存器容量受限的问题。所述方法包括:判断指令为条件执行还是非条件执行,若指令为条件执行且条件是AL,则选择扩展的寄存器堆S1;若指令为非条件指令,则选择扩展的寄存器堆S0;若指令为条件指令,但条件不是AL,则选择扩展的寄存器堆S0。本发明针对支持条件执行的指令集,不需要对原指令集做任何的修改,对原处理器的应用程序能够完全兼容。
-
公开(公告)号:CN102799418B
公开(公告)日:2014-10-08
申请号:CN201210279663.2
申请日:2012-08-07
Applicant: 清华大学
IPC: G06F9/38
Abstract: 一种融合了顺序和VLIW的处理器体系结构,在处理器取指令单元与译码单元之间增设有超长指令字分发单元和顺序执行分发单元,通过一个由执行方式切换指令控制的执行方式选择开关来决定当前所取指令流向其中一个分发单元,如果流向超长指令字分发单元,则由硬件识别出指令编码中预先设置好的并行信息,将并行的指令逐组依次分发即可;如果流向顺序执行分发单元,则由硬件进行指令间的数据依赖关系判断和物理资源限制判断,维护正在执行指令的寄存器依赖表,决定哪些指令可以分发,哪些指令需要等待前面的计算完成后才能分发,本发明在同一款处理器内部实现两种指令分发单元,并且可以针对不同的应用需求自由地在两种执行方式之间进行切换。
-
公开(公告)号:CN101526893B
公开(公告)日:2014-02-19
申请号:CN200810101451.9
申请日:2008-03-06
IPC: G06F9/38
Abstract: 一种电子技术领域中超长指令字指令并行执行方法,获取超长指令字包;根据获取的超长指令字包中各指令对应的功能单元的编号大小判断当前指令是否能够与下一指令并行执行;根据上述判断结果执行各指令。本发明实施例还提供一种超长指令字指令并行执行装置。本发明实施例根据功能单元的编号大小来判断当前指令与下一指令是否可以并行执行,解决了指令中需要额外信息来指示多指令在多功能单元并行执行带来的编码效率低的问题。减少了并行指示位,扩大了编码空间,降低了并行执行信息在整个指令中占用的存储空间。
-
公开(公告)号:CN103244004A
公开(公告)日:2013-08-14
申请号:CN201310174163.7
申请日:2013-05-13
Applicant: 清华大学
IPC: E05F15/20
Abstract: 本发明涉及一种电动车窗防夹参数自动匹配方法,其包括以下步骤:当车窗防夹控制器初次安装到车窗时,将车窗控制器通电,中断单元定时发送中断请求信号分别到电流采集器和霍尔计数器;按下车窗玻璃的自动上升按钮,启动防夹参数自动匹配过程,防夹参数自动匹配单元令车窗玻璃自动下降到底,然后再自动上升到顶,在此过程中,防夹参数自动匹配单元对电机电流和车窗高度阈值两个防夹参数进行自动匹配,得到电机电流阈值和车窗高度阈值;判断单元对匹配完成的防夹参数的有效性进行判断;当车窗控制器检测到电机电流大于电流阈值时,认为电机产生了赌转,此时检查车窗位置,若处于防夹区间内时,则判定车窗发生夹持;若处于顶区以内时,则认为车窗已经到顶。本发明可以广泛应用于汽车的车窗控制中。
-
-
-
-
-
-
-
-
-