-
公开(公告)号:CN109886880A
公开(公告)日:2019-06-14
申请号:CN201910003354.4
申请日:2019-01-03
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于U-Net分割网络的光学图像相位解缠绕方法。本发明包括如下步骤:步骤1、利用Zernike多项式产生相位未缠绕的光学图像;步骤2、利用相位未缠绕的光学图像进行相位缠绕操作,得到相位缠绕图像;步骤3、利用U-Net分割网络训练模型;步骤4、利用训练好的模型进行光学图像相位解缠绕。本发明利用了U-Net分割网络,该方法的针对性很强,主要针对于光学图像的相位解缠绕。在光学成像研究领域有着很大的应用前景,且本发明提出的基于U-Net分割网络的相位解缠绕方法,像素分割准确率很高,从而求解准确率也很高。同时在CPU i5-8600K和GPU NVIDIA TITAN Xp的环境下,求解时间只需0.037秒。
-
公开(公告)号:CN109801319A
公开(公告)日:2019-05-24
申请号:CN201910003328.1
申请日:2019-01-03
Applicant: 杭州电子科技大学
IPC: G06T7/38 , G06F16/182
Abstract: 本发明公开了一种基于Hadoop并行加速的分级图分组配准方法。本发明步骤如下:1.将图像上传至HDFS文件系统中,确定blocksize为64Mb,系统把文件划分成多个块,并分散地存储于3个数据节点,每个数据节点尽量均匀存储图像,且每个数据节点上的块信息复制2份存储于其他数据节点上。2.读入图像并计算相似度矩阵;3.基于MapRedue的分布式AP聚类,将所有的图像聚类分成Ω个小组;4.构建分级图的连接体系;5.计算变形场;6.配准以及写入图像;7.将步骤5和6循环迭代,直到达到所期望的迭代次数。本发明在保证了配准精度的前提下,提高多张脑图像分组配准的运行速度。
-
公开(公告)号:CN108447019A
公开(公告)日:2018-08-24
申请号:CN201810122341.4
申请日:2018-02-07
Applicant: 杭州电子科技大学
IPC: G06T3/40
Abstract: 本发明公开了一种基于对偶图的图像超分辨率方法。本发明通过引进图模型来探索图像内部像素的拓扑特性和自相似性。提出了基于向量的行图模型和基于向量的列图模型,将每个像素看成是一个节点的图模型,而是通过构造相似块组从而将每一列或每一行看成是一个节点,节点间的距离计算即为列向量或行向量之间的欧氏距离。最终得到的超分辨率的表达式的正则项为对偶图,二次项为超分辨组与字典的乘积、待处理组之间的偏差。最后引入了图像正则化技术,将图像处理后的偏差进行一个回传正则化迭代,进一步对提出的方法进行优化。本发明将图模型延伸到了向量节点模式,并非单一的像素节点模式,并应用在了图像超分辨率领域。
-
公开(公告)号:CN108416733A
公开(公告)日:2018-08-17
申请号:CN201810122736.4
申请日:2018-02-07
Applicant: 杭州电子科技大学
IPC: G06T3/40
Abstract: 本发明公开了一种不降低质量且快速的图像超分辨率方法。本发明包括如下步骤:步骤1、对一张低质量图象进行的线性插值得到IL。步骤2、根据角度、深度和相关度性质对不同的像素进行分类。步骤3、利用一个角度的片推导其他角度的片。推导规则如下:步骤4、根据片中不同种类的像素点,训练滤波器。步骤5、线性插值处理后的低质量图象IL与滤波后的图象Ⅰ进行有权重的融合。本发能够在占用较少的硬件资源的基础上,快速地将一张低质量图片转化为高质量图片,并且本算法生成的图片的效果足够好,与现在最优的几种算法效果相近。本算法适合在需要快速生成图像和硬件水平较低的情形下使用。
-
公开(公告)号:CN111612803B
公开(公告)日:2023-10-17
申请号:CN202010363326.6
申请日:2020-04-30
Applicant: 杭州电子科技大学
IPC: G06T7/12 , G06T7/187 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于图像清晰度的车辆图像语义分割方法。本发明设计了一个清晰度判别模块,并将结果导入总的损失函数中,实现更加精确的分割效果,具体实现如下:步骤1、采用Tenengrad函数来对输入的车辆图像进行清晰度判定;步骤2、采用DeepLab V3+作为语义分割主干网络进行训练;步骤3、用训练完的网络输出语义分割结果。本发明对于清晰度做出判定,根据判别结果,本发明设计了相应的损失函数LD,并将其加入到语义分割主干网络的损失函数中,从而使网络具有判别车辆图像清晰度的能力,增加了网络对车辆图像语义分割的针对性,提高语义分割主干网络的分割精度。
-
公开(公告)号:CN111914852B
公开(公告)日:2023-10-03
申请号:CN202010494739.8
申请日:2020-06-03
Applicant: 杭州电子科技大学
IPC: G06V10/46 , G06V10/764 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 本发明提供一种基于编解码结构的多模态显著性对象检测方法。本发明在已有的彩色图像算法模型的基础之上,将深度图像作为先验信息,补充到算法之中。本发明方法可分为两部分:一部分以彩色图像为输入,基于编解码结构的深度学习技术,实现显著性检测;另一部分用于处理深度图像,用轻量级的神经网络学习深度特征,并将特征信息补充到第一部分,从而提高整体模型的识别精度。本发明方法能够简单高效的利用深度图像,从中学习特征,增强算法的识别精度和稳定性,能够为现有部署的显著性检测算法提供快捷、低廉的更新手段。
-
公开(公告)号:CN111611877B
公开(公告)日:2023-05-02
申请号:CN202010363324.7
申请日:2020-04-30
Applicant: 杭州电子科技大学
IPC: G06V40/16 , G06V10/764 , G06V10/82 , G06V10/80 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于多时空信息融合的抗年龄干扰人脸识别方法。本发明中提取的初始人脸特征是由每个训练样本中同一个人的不同年龄的人脸图像从时间维度和空间维度提取人脸特征后再进行信息融合后得到的,不仅能够充分表示每个人的身份特征,而且对年龄干扰具有一定的鲁棒性。此外在得到身份特征和年龄投影特征后进一步进行相似度度量,并通过相似性损失函数的约束逐渐降低提取的每个人相应的身份特征和年龄特征的相关性,相关性越小,则身份特征越不容易受年龄因素的影响,跨年龄识别人脸的准确度就越高。
-
公开(公告)号:CN110942423B
公开(公告)日:2023-04-28
申请号:CN201910949691.2
申请日:2019-10-08
Applicant: 杭州电子科技大学
IPC: G06T3/40
Abstract: 本发明公开了一种基于傅里叶叠层成像的远场超分辨率重建方法。本发明通过获取到的一系列低分辨率图像,快速重建出远场样本的幅值信息以及相位信息;将低成本的散射装置放置于样本与物镜之间,且置于物镜的焦平面处,对经相干光照射后的样本信息进行调制;样本置于物镜的远场中,距离物镜焦平面50cm~80cm处,由相干光进行照射;在低分辨率图像获取过程中,通过有规律的将散射片进行上下、左右移动,以获得更加完善的样本调制信息;通过多散射片对样本信息的调制,获得超出物镜衍射极限的分辨率,以此实现样本超分辨率重建。本发明突破了样本与散射装置之间距离的限制。且极大的降低算法复杂度,减少重建时间。
-
公开(公告)号:CN110992365B
公开(公告)日:2023-04-18
申请号:CN201911066221.8
申请日:2019-11-04
Applicant: 杭州电子科技大学
IPC: G06T7/10 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种基于图像语义分割的损失函数及其设计方法。本发明步骤如下:1。参数wi的确立。在网络训练过程中,从标签标注信息中提取此张图片中包含的语义类别个数n以及每个语义类别在图片中所占的面积s。在得到此两种标签信息后,将面积从大到小排列,并分别计算最大面积与各个面积之间的倍数,而后再将这些倍数关系归一化到[1,n]之间,即训练时每个损失函数计算时,不同类别对应的权重取值wi。2.参数Υ的确立。首先确定Υ>0,而后在网络训练过程中通过网格寻优的方式,对Υ的值进行进一步的确立。本发明设计损失带有权重的损失函数进行改进,以使训练的卷积神经网络得到更好的图像分割效果。
-
公开(公告)号:CN111353984B
公开(公告)日:2023-04-07
申请号:CN202010132818.4
申请日:2020-02-29
Applicant: 杭州电子科技大学
Abstract: 本发明一种自适应鲁棒的灰度图像中液位高精度检测方法。本发明针对瓶装产品的液面检测问题,首先灰度图像进行去噪、直方图均衡化处理、分段线性变换函数进行对比度拉伸,使用改进的边缘检测模板检测图像边缘,根据自适应的算法检测液面的高度,能自动确定图像中半瓶的情况,对图像中多个瓶装产品的液位高度都能进行很好的检测和确定,将液位边缘的下层高度减去瓶底边缘的上层高度,就可以精确的得到瓶中液体的高度,进而判断瓶装量是否达到要求。本发明采用的新的边缘检测算法保证了边缘的强度,效果更好,视觉体验更好,更能适应复杂的花境,本发明方法更加鲁棒、精度高,应用的场所更多。
-
-
-
-
-
-
-
-
-