-
公开(公告)号:CN110675360B
公开(公告)日:2022-04-01
申请号:CN201910712025.7
申请日:2019-08-02
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于深度图像的实时平面检测及提取的方法。本发明包括如下步骤:步骤1:对深度图像做预处理,并对深度图像提取区块信息;步骤2:对区块的几何参数分布做降维统计;步骤3:对估计的各个平面法向量查找平行平面;步骤4:平面参数优化。本发明根据深度图像的成像原理及平面结构的空间特性,使得计算机可以实时地通过深度图像获取环境中的平面结构信息,使得三维重建结果更加准确。从而准确高效地从深度图像中提取平面结构信息。
-
公开(公告)号:CN114139705A
公开(公告)日:2022-03-04
申请号:CN202111466079.3
申请日:2021-12-03
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于图像频率响应的结构化剪枝方法,首先训练深度神经网络获取预训练模型,然后获取数据集中图像不同频率分量,再对不同频率分量做重要性排序;根据预训练模型中不同通道对重要频率的响应大小进行剪枝操作,最后对模型进行微调。本发明从频域角度出发考虑剪枝问题,剪枝的依据是各个滤波器本身的频率特性以及对不同频率的响应,适用于大多数常见的深度神经网络。
-
公开(公告)号:CN114125460A
公开(公告)日:2022-03-01
申请号:CN202111265265.0
申请日:2021-10-28
Applicant: 杭州电子科技大学
IPC: H04N19/182 , H04N19/18 , H04N19/86 , H04N19/48 , H04N19/186 , H04N19/124 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种定码率压缩视频质量增强方法,首先将原始视频压缩成对应的定码率压缩视频;然后搭建图像增强网络模型,训练图像增强网络模型;最后,将压缩后的定码率压缩视频输入视频增强网络模型得到增强后的高质量视频。本发明方法通过采用提出的定码率压缩视频质量增强网络模型作为视频增强模型,对定码率压缩视频进行增强,使经过网络增强后的定码率压缩视频的观感质量获得提升。
-
公开(公告)号:CN113554566A
公开(公告)日:2021-10-26
申请号:CN202110863831.1
申请日:2021-07-29
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于可学习频域先验的去摩尔纹系统及方法。本发明使用一个统一的框架来执行摩尔纹消除和颜色恢复两个任务,通过学习频域先验从图像中分离出摩尔纹,再进行全局和局部的色调映射以实现精确的颜色恢复。通过在索贝尔滤波中引入膨胀率来构造三维索贝尔损失,可以在多个尺度上感知结构高频信息,并显著提高去摩尔纹的性能,改进后的索贝尔滤波器提供了2个45度的附加滤波器。可以使用任何块大小的通带来拟合莫尔条纹的频率先验。通过几个不同密集块大小的可学习滤波带通来拟合频率先验,带来了明显的性能增益,但几乎没有增加额外的计算负担。
-
公开(公告)号:CN113553973A
公开(公告)日:2021-10-26
申请号:CN202110865486.5
申请日:2021-07-29
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于双向注意力的伪装物体检测方法。首先获取伪装物体检测数据集,然后对伪装物体检测图像进行预处理,再将预处理后的伪装物体检测图像输入到伪装对象检测网络中,使用ResNet50骨干网络提取多级特征,使用搜索模块融合三个深层的特征,从而得到粗略的预测结果;最后使用双向注意力模块通过级联的方式得到精确的预测结果。本发明设基于双向注意力来构建伪装对象检测模型,对伪装对象图像的特征进行精确提取并且细节保留完整,利用显著性目标检测中效果较好的结构损失函数对结果进行监督学习,使得预测结果更加准确,具有较强的鲁棒性,从而实现对伪装对象的精确分割,对社会具有重要意义。
-
公开(公告)号:CN113538458A
公开(公告)日:2021-10-22
申请号:CN202110726063.5
申请日:2021-06-29
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于FTL损失函数和注意力的U‑Net图像分割方法。本发明对U‑Net模型进行重新设计,在U‑Net模型基础上结合FocalTverskyLoss和Attention注意力机制。本发明具体步骤:步骤1、图像预处理;步骤2、构建损失函数:用FTL损失函数来评价分割结果;步骤3、构建注意力机制:在模型的上采样过程中加入Attention注意力模块,使得模型在输出高水平特征图时不会丢失空间细节信息;步骤4、训练网络模型:将划分好的数据集输入到搭建好的网络模型中,通过训练集和验证集完成训练后,将测试集输入到网络模型中,得到分割结果。本发明改进了准确率和召回率的不平衡问题,并且对于多尺度输入的图像有更好的输出特征表示。
-
公开(公告)号:CN113538442A
公开(公告)日:2021-10-22
申请号:CN202110624851.3
申请日:2021-06-04
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种使用自适应特征融合的RGB‑D显著目标检测方法,首先使用2个结构相同的编码器网络分别对RGB图像和Depth图像这2个数据流编码,编码后对2个数据流分别获得m个层级的特征;然后在RGB和Depth两个数据流的解码过程中分别使用自适应特征融合;在联合数据流中对2个数据流的特征融合;最后使用损失函数对该网络模型优化。本发明所述的方法,可以提高RGB‑D显著目标检测的效果。通过使用自适应特征融合,可以有效融合数据流内不同层级的特征。通过使用数据流间特征融合方法,可以有效融合2个数据流的特征。
-
公开(公告)号:CN113537488A
公开(公告)日:2021-10-22
申请号:CN202110725493.5
申请日:2021-06-29
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于稀疏向量矩阵计算的神经网络加速器及加速方法。神经网络加速器包括多个稀疏向量矩阵计算单元,稀疏向量矩阵计算单元包括激活队列FIFO、地址读取单元、稀疏权重SRAM、算术运算单元、输出缓存模块、relu模块以及非零数据检测单元。本发明利用CSC稀疏数据压缩算法和稀疏向量矩阵计算单元,减少了计算量和对外部存储器的访问,对神经网络的inference进行加速,可以提高CNN的实时性,实现了更高的计算性能,同时降低了能耗。
-
公开(公告)号:CN113536977A
公开(公告)日:2021-10-22
申请号:CN202110720374.0
申请日:2021-06-28
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种面向360度全景图像的显著目标检测方法。本发明的输入是一张等距柱状投影图片,进入模型后会经过预处理得到六张等角度立方体贴图。而后深度特征提取网络将分别提取这两种图片的多级深度空间特征。接着在双型特征融合网络中采用通道注意力机制对其进行特征强化,并利用多尺度空洞卷积模块融合等距柱状投影和等角度立方体贴图的各层深度特征。最后将融合得到的多层复合特征信息依次投入多层信息融合记忆网络,将高级与低级语义信息逐级记忆、筛选、融合,最后得到显著性目标预测图。本发明有效地利用360度全景图像的等角度立方体贴图多角度空间信息来应对等距柱状投影产生的畸变问题,更精准地实现对360度全景图片的显著性目标的预测。
-
公开(公告)号:CN113536973A
公开(公告)日:2021-10-22
申请号:CN202110718760.6
申请日:2021-06-28
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于显著性的交通标志检测方法,本发明方提出一种端到端的卷积神经网络模型。本方法针对交通标志检测任务做出优化,提出了一个以基于VGGNet的特征金字塔网络为主干的显著性检测模型。网络在自下而上过程中的不同尺度特征图上提取了图片中的不同层级的信息,并在金字塔网络自上而下通路中进行融合。通过将特征聚合模块添加在自上而下通路中的每个融合操作之前,可以有助于全局引导模块中包含的深层次特征图中的高级语义信息与较浅层次的特征无缝进行融合。通过这两个建立在池化操作上的模块有助于高级语义信息逐步精细,使本网络模型生成的显著性图拥有更加丰富的细节。其结果为一张像素值在[0,1]的灰度图,图中的1表示为交通标志所在区域,0表示为背景区域,成功实现对交通标志的检测任务。
-
-
-
-
-
-
-
-
-