-
公开(公告)号:CN114330653A
公开(公告)日:2022-04-12
申请号:CN202111586693.3
申请日:2021-12-23
Applicant: 杭州电子科技大学
Abstract: 本发明属于深度学习领域,公开了一种计算和访存高效的CNN网络模型计算调度映射方法。包括如下步骤:步骤1:根据片上SRAM存储配置确定存储映射方案;步骤2:根据片上可并发MAC计算单元配置确定计算映射方案;步骤3:根据网络模型、存储和计算映射方案,确定流水调度优化方案。本发明的一种计算和访存高效的CNN网络模型计算调度映射方法包括单位MAC计算单元算力、可并发强度、片上缓存颗粒度、缓存大小,并结合算法网络结构特点,为每个网络层实现优化映射,提出计算、存储、访存带宽多目标优化的网络结构映射实现方法。
-
公开(公告)号:CN111405264B
公开(公告)日:2022-04-12
申请号:CN202010068774.3
申请日:2020-01-20
Applicant: 杭州电子科技大学
IPC: H04N13/122 , H04N13/128 , H04N13/15
Abstract: 本发明公开了一种基于深度调整的3D视频舒适度改善方法。解决了一般3D视频观看不舒适、视觉体验不佳的问题。本发明包括以下步骤:S1:对左视点图、右视点图的深度图都进行预处理,得到预处理图;S2:对预处理图进行深度滤波,得到滤波图;S3:对滤波图进行深度去纹理,得到去纹理图;S4:根据去纹理图进行虚拟视点绘制,获得虚拟右视点彩色图;S5:用虚拟右视点彩色图和原始视点图进行替换得到改善的3D视频。本发明的增益效果是降低了视差、梯度变化、纹理对观感体验的影响,实现了整体舒适度的改善。
-
公开(公告)号:CN110428447B
公开(公告)日:2022-04-08
申请号:CN201910638477.5
申请日:2019-07-15
Applicant: 杭州电子科技大学
Abstract: 本发明公开一种基于策略梯度的目标跟踪方法与系统,属于计算机视觉领域。方法包括:(1)将目标图像输入到卷积神经网络中,得到目标外观模板Z;(2)将搜索图像输入到卷积神经网络中,等到搜索区域特征图;(3)将模板图像Z和搜索区域特征图通过相似度度量函数f计算得到响应图ht;(4)将(3)中得到的响应图ht和历史响应图hi输入到策略网络中,选择分数最高的那个动作加入到集合Ct(i=1~N);(5)重复(4)直到遍历响应图模板池中的每一个历史响应图;最后执行集合Ct(i=1~N)中出现次数最多的那个动作。所述系统包括跟踪器和决策器。避免了错误的模板更新,并在目标丢失的时候能够及时发现并重新找到目标。
-
公开(公告)号:CN113365062A
公开(公告)日:2021-09-07
申请号:CN202110577832.X
申请日:2021-05-26
Applicant: 杭州电子科技大学
IPC: H04N19/124 , H04N19/70 , H04N19/60 , H04N19/176 , H04N19/12 , G06N3/04 , G06N3/08
Abstract: 本发明属于视频编码领域,公开了一种基于H.266/VVC的分步全零块判决快速算法,包括如下步骤:首先,通过公式推导,得到一个真全零块(G‑AZB)预判决公式,所谓G‑AZB,即经过硬决策量化(HDQ)后为全零的变换块(TU);然后,对于那些经过HDQ后的非全零块,即伪全零块(P‑AZB),利用基于统计和经验得出的自适应阈值公式实现预判决;最后,对于剩余的一些“狡猾”的P‑AZB,利用机器学习,找寻了8个影响TU变成全零或者非全零块的影响因子,通过离线训练,实现预判决。本发明在保证性能基本不变的前提下,减少了计算复杂度;本发明在新一代视频编码标准VVC上进行,创新度较高。
-
公开(公告)号:CN110113616B
公开(公告)日:2021-06-01
申请号:CN201910488842.9
申请日:2019-06-05
Applicant: 杭州电子科技大学
Inventor: 殷海兵
IPC: H04N19/42 , H04N19/136 , H04N19/142 , H04N19/20 , H04N19/70
Abstract: 本发明公开一种多层级监控视频高效压缩编码、解码装置及方法,属于海量摄像头城域级视频监控应用技术领域。包括:(1)特定语义对象编码:检测出特定语义对象dn,重构对象通过跟踪技术和关键点检测技术检测出关键点序列,传输给解码器;(2)长期背景帧建模:设置多个场景类别,用背景帧场景索引序号区分这些场景类别;编码器里检测场景类别,将背景帧索引序号传输给解码器;(3)短期背景帧建模:采用多模式预测方法,获得当前帧的短期背景帧预测值通过优化选择多模式参考预测,将编码控制参数传输给解码器;(4)前景编码:预测残差经过HEVC编码产生前景码流,经过解码后获得重构前景预测残差通过信道传输给解码器。
-
公开(公告)号:CN112784698A
公开(公告)日:2021-05-11
申请号:CN202011637358.7
申请日:2020-12-31
Applicant: 杭州电子科技大学
Abstract: 本发明公开了基于深层次时空信息的无参考视频质量评价方法,包括如下步骤:S1,内容感知特征提取,利用Resnet‑50预训练的深度神经网络,提取顶层的语义层特征后进行聚合,对特征图进行均值聚合与标准差聚合;S2,对时间记忆效应进行建模,在特征整合方面,采用GRU网络对长期依赖关系进行建模,在质量聚合方面,提出主观启发的时间池化模型并将其嵌入到网络中;现有的NR‑VQA方法无法很好地对VQA任务中的长期依赖关系建模,为了解决这个问题,我们求助于GRU,它是带有门控制的递归神经网络模型,能够集成特征并学习长期依赖关系,本发明中使用GRU集成内容感知功能并预测逐帧质量得分。
-
公开(公告)号:CN112188212A
公开(公告)日:2021-01-05
申请号:CN202011082884.1
申请日:2020-10-12
Applicant: 杭州电子科技大学
IPC: H04N19/40 , H04N19/136 , H04N7/18 , G06K9/00 , G06N3/04
Abstract: 本发明公开了一种高清监控视频智能转码的方法及装置,方法包括:S1,解码;S2,缩放;S3,目标检测,通过卷积神经网络学得的特征,将图像分割成单元格,单元格用于预测边界框,从而检测中心落在单元格中的目标对象;S4,跟踪,对比前后两帧中预测的边界框,实现对目标对象的跟踪;S5,丢帧,采用自适应丢帧操作,根据目标对象的位移矢量大小,判断关键帧的间隔长短,丢弃关键帧之间的非关键帧;S6,编码;装置包括:用于解码的GV9531芯片和用于编码VC8000E芯片,还包括分别与GV9531芯片和VC8000E芯片连接的CSKY860芯片,CSKY860芯片决定需要编码的图像帧。
-
公开(公告)号:CN108965879B
公开(公告)日:2020-08-25
申请号:CN201811016478.8
申请日:2018-08-31
Applicant: 杭州电子科技大学
IPC: H04N19/13 , H04N19/147 , H04N19/567
Abstract: 本发明公开了一种空时域自适应恰可察觉失真的度量方法,其特征在于包括如下步骤:步骤一、将模式掩蔽效应PM和亮度适应性LA进行融合,得到空域JND阈值JNDS;步骤二、将相对运动I(vr)、背景运动U(vg)、时域持续时间I(τ)和残差波动强度U(δ)四个时域感知参量进行融合得到时域JND调节权重系数z;步骤三、在空域JND阈值JNDS基础上,用时域JND调节权重系数z对其进行调整,得到空时域JND阈值JNDST。
-
公开(公告)号:CN110428447A
公开(公告)日:2019-11-08
申请号:CN201910638477.5
申请日:2019-07-15
Applicant: 杭州电子科技大学
Abstract: 本发明公开一种基于策略梯度的目标跟踪方法与系统,属于计算机视觉领域。方法包括:(1)将目标图像输入到卷积神经网络中,得到目标外观模板Z;(2)将搜索图像输入到卷积神经网络中,等到搜索区域特征图;(3)将模板图像Z和搜索区域特征图通过相似度度量函数f计算得到响应图ht;(4)将(3)中得到的响应图ht和历史响应图hi输入到策略网络中,选择分数最高的那个动作加入到集合Ct(i=1~N);(5)重复(4)直到遍历响应图模板池中的每一个历史响应图;最后执行集合Ct(i=1~N)中出现次数最多的那个动作。所述系统包括跟踪器和决策器。避免了错误的模板更新,并在目标丢失的时候能够及时发现并重新找到目标。
-
公开(公告)号:CN109035178A
公开(公告)日:2018-12-18
申请号:CN201811017139.1
申请日:2018-08-31
Applicant: 杭州电子科技大学
IPC: G06T5/00
CPC classification number: G06T5/002
Abstract: 本发明公开了一种应用于图像去噪的多参数取值调优方法,给定目标复杂度Cbudget,在保持其他参数取值不变的情况下,分别计算多个参数当前取值与其下一个候选值的能效比,确定能效比最大的参数,将其候选值调整为当前值,即完成一次参数调优;每完成一次参数调优,需计算当前参数组合复杂度,判断此时的参数组合复杂度是否符合目标复杂度约束,若不满足,执行前述步骤继续进行参数调优,直到满足给定复杂度约束,停止调整。
-
-
-
-
-
-
-
-
-