-
公开(公告)号:CN106886978B
公开(公告)日:2020-01-03
申请号:CN201710084743.5
申请日:2017-02-16
申请人: 清华大学深圳研究生院 , 深圳市未来媒体技术研究院
IPC分类号: G06T3/40
摘要: 本发明公开了一种图像的超分辨率重建方法,包括以下步骤:A1,计算待处理的低分辨率图像对应的高分辨率图像,将得到的初始的高分辨率图像分块,计算各图像块的中心像素点的位置向量p所对应的结构张量Sw(p);A2,计算各图像块的结构张量Sw(p)的特征值,判断图像块是否为平滑图像块;A3,在图像块为平滑图像块时,将初始的高分辨率图像块作为该图像块的最终高分辨率图像块;A4,在图像块为非平滑图像块时,结合图论进行重建计算;A5,待所有图像块得到最终的高分辨率图像块后,得到最终重建的高分辨率图像;重建时,对于重叠区域的像素点,取该像素点对应的两高分辨率像素值的平均值。本发明的超分辨率重建方法,可降低计算的复杂度,节省处理时间。
-
公开(公告)号:CN107103589B
公开(公告)日:2019-09-06
申请号:CN201710170590.6
申请日:2017-03-21
申请人: 深圳市未来媒体技术研究院 , 清华大学深圳研究生院
IPC分类号: G06T5/00
摘要: 一种基于光场图像的高光区域修复方法,包括:获取四维光场图像以及对应的深度图像;从四维光场图像提取中心视点图像,初步确定高光目标点的空间域坐标,依照输入的深度图像对四维光场图像进行重聚焦,获取高光目标点的角度域特性并划分成饱和高光点与非饱和高光点;对一个视点或多个视点的图像进行本征图像分解,得到图像本征反射属性,找到高光目标点对应的本征反射信息;对非饱和高光点,利用多视点下的局部区域特性分离出漫反射分量,结合步骤A3确定的本征反射信息,对非饱和高光点进行修复;A5:对饱和高光点,利用临近像素点的漫反射分量进行传播,结合步骤A3确定的本征反射信息,对饱和高光点进行修复。利用本发明能够提高含有高光表面的图像的质量。
-
公开(公告)号:CN105741248B
公开(公告)日:2019-02-22
申请号:CN201610075166.9
申请日:2016-02-02
申请人: 深圳市未来媒体技术研究院 , 清华大学深圳研究生院
IPC分类号: G06T5/00
摘要: 本发明涉及数字图像处理领域,尤其是涉及一种单幅图像去阴霾的技术:消除阴霾导致图像退化的方法。本发明基于大气光散射模型,并引入表征近似黑体辐射的暗点来作为图像先验知识来去除图像的阴霾退化,恢复清晰图像。具体的步骤有:输入图像;盒式滤波以获得亮度图和局部最小值点;图像分割以区分天空区域和地面目标;对天空区域作大气光估计;对地面目标作暗点选取;阴霾分布估计;衰减补偿计算;无衰减图像重建;色彩还原;输出图像。本发明实现了从一幅阴霾退化的图像中恢复一个等效晴天拍摄的清晰图像,即去阴霾。
-
公开(公告)号:CN108470324A
公开(公告)日:2018-08-31
申请号:CN201810236089.X
申请日:2018-03-21
申请人: 深圳市未来媒体技术研究院 , 清华大学深圳研究生院
摘要: 本发明公开了一种鲁棒的双目立体图像拼接方法,包括:采用双目相机采集两组图像,分别计算每组图像的左右视图之间的视差图;提取每组图像的特征点,并对所述特征点进行描述;将每组图像的特征点进行GMS特征点匹配,筛选出错误的匹配以得到准确的特征点对集合;根据视图差以及特征点对集合设定新的特征约束条件,得到使所述特征约束条件最优的单应性变换,利用该单应性变换对第二组图像进行全局变换,对第二组图像中相对于第一组图像的非重叠区域采用局部形状保持变换;分别融合变换后的左视图和右视图,得到拼接后的左视图和右视图,再进行合成得到最终的立体图。本发明不仅可以实现无缝拼接,而且算法具有一定的鲁棒性。
-
公开(公告)号:CN105657402B
公开(公告)日:2017-09-29
申请号:CN201610031320.2
申请日:2016-01-18
申请人: 深圳市未来媒体技术研究院 , 清华大学深圳研究生院
摘要: 本发明公开了一种深度图恢复方法,包括如下步骤:A1:由相当大数量的各类物体的深度图构成训练集;A2:建立卷积神经网络(CNN),采取核分离方法,获得隐藏层的参数,建立卷积网络结构,利用训练集中的深度图训练网络结构、调整网络权重;A3:在CNN的输出层,针对可能的结果建立自回归(AR,auto‑regression)模型,并建立评价指标;A4:将深度传感器获得的原始深度图输入CNN中,通过去噪、分类后,由AR模型恢复,通过评价指标检测,若不合要求则将结果图输入A2中,直到得到高质量深度图或终止循环。本发明采用了深度卷积网络来恢复从深度传感器获得的低分辨率、低信噪比的图像。利用本发明能够显著提高深度图的质量,同时也简化了获得深度图的方法。
-
公开(公告)号:CN106886978A
公开(公告)日:2017-06-23
申请号:CN201710084743.5
申请日:2017-02-16
申请人: 清华大学深圳研究生院 , 深圳市未来媒体技术研究院
IPC分类号: G06T3/40
摘要: 本发明公开了一种图像的超分辨率重建方法,包括以下步骤:A1,计算待处理的低分辨率图像对应的高分辨率图像,将得到的初始的高分辨图像分块,计算各图像块的中心像素点的位置向量p所对应的结构张量Sw(p);A2,计算各图像块的结构张量Sw(p)的特征值,判断图像块是否为平滑图像块;A3,在图像块为平滑图像块时,将初始的高分辨率图像块作为该图像块的最终高分辨率图像块;A4,在图像块为非平滑图像块时,结合图论进行重建计算;A5,待所有图像块得到最终的高分辨率图像块后,得到最终重建的高分辨率图像;重建时,对于重叠区域的像素点,取该像素点对应的两高分辨率像素值的平均值。本发明的超分辨率重建方法,可降低计算的复杂度,节省处理时间。
-
公开(公告)号:CN105701813A
公开(公告)日:2016-06-22
申请号:CN201610018667.3
申请日:2016-01-11
申请人: 深圳市未来媒体技术研究院 , 清华大学深圳研究生院
IPC分类号: G06T7/00
CPC分类号: G06T2207/10148
摘要: 本发明公开了一种光场图像的显著性检测方法,包括如下步骤:S1、对光场图像的不同位置进行重聚焦得到N个聚焦图像,将所述N个聚焦图像融合得到全聚焦图像,N为正整数;S2、计算每个聚焦图像中各个像素点的聚焦度F(x,y):其中,x和y分别表示像素点(x,y)的横坐标和纵坐标,Gx和Gy分别表示像素点(x,y)x方向和y方向的灰度梯度值;S3、计算每一个聚焦图像的一维聚焦度分布;S4、计算每个聚焦图像的背景层近似度;S5、将最大的背景层近似度BLS(Ii)对应的聚焦图像作为所述全聚焦图像的背景层。本发明能够将背景准确地检测并分离出来,能对前景信息进行颜色对比度等处理从而获取到准确的显著图。
-
公开(公告)号:CN105657402A
公开(公告)日:2016-06-08
申请号:CN201610031320.2
申请日:2016-01-18
申请人: 深圳市未来媒体技术研究院 , 清华大学深圳研究生院
CPC分类号: H04N13/275 , H04N13/128
摘要: 本发明公开了一种深度图恢复方法,包括如下步骤:A1:由相当大数量的各类物体的深度图构成训练集;A2:建立卷积神经网络(CNN),采取核分离方法,获得隐藏层的参数,建立卷积网络结构,利用训练集中的深度图训练网络结构、调整网络权重;A3:在CNN的输出层,针对可能的结果建立自回归(AR,auto-regression)模型,并建立评价指标;A4:将深度传感器获得的原始深度图输入CNN中,通过去噪、分类后,由AR模型恢复,通过评价指标检测,若不合要求则将结果图输入A2中,直到得到高质量深度图或终止循环。本发明采用了深度卷积网络来恢复从深度传感器获得的低分辨率、低信噪比的图像。利用本发明能够显著提高深度图的质量,同时也简化了获得深度图的方法。
-
公开(公告)号:CN106204467B
公开(公告)日:2021-07-09
申请号:CN201610481440.2
申请日:2016-06-27
申请人: 深圳市未来媒体技术研究院 , 清华大学深圳研究生院
IPC分类号: G06T5/00
摘要: 本发明公开了一种基于级联残差神经网络的图像去噪方法,包括以下步骤:搭建级联残差神经网络模型,所述级联残差神经网络模型由多个残差单元串联而成,其中每个所述残差单元包括多个卷积层、每个所述卷积层后的激活层和单位跳跃连接单元;选取训练集,并设置所述级联残差神经网络模型的训练参数;根据所述级联残差神经网络模型及其训练参数,以最小化损失函数为目标训练所述级联残差神经网络模型形成图像去噪神经网络模型;将待处理的图像输入到所述图像去噪神经网络模型,输出去噪后的图像。本发明公开的基于级联残差神经网络的图像去噪方法,极大地增强神经网络的学习能力,建立起噪声图像到干净图像的准确映射,可以实现实时去噪。
-
公开(公告)号:CN107197260B
公开(公告)日:2019-09-13
申请号:CN201710439132.8
申请日:2017-06-12
申请人: 清华大学深圳研究生院 , 深圳市未来媒体技术研究院
IPC分类号: H04N19/117 , H04N19/85 , H04N19/124 , G06N3/08
摘要: 基于卷积神经网络的视频编码后置滤波方法,包括卷积神经网络模型训练步骤和滤波步骤,训练步骤包括:设置视频压缩的量化参数为20至51对原始视频进行编码压缩,得到压缩视频;对所有视频进行帧提取得到多个压缩视频帧‑原始视频帧的帧对;将提取得到帧对按帧类型和量化参数的不同划分为多个组;搭建卷积神经网络框架并初始化网络参数,使用前述划分的组分别对神经网络进行训练,得到对应于不同量化参数和帧类型的多个神经网络模型。滤波步骤包括:将得到的多个神经网络模型嵌入至视频编码器的后置滤波环节;对待处理的原始视频执行前述的编码压缩和帧提取得到待处理帧对,并依据待处理帧对的量化参数和帧类型选择对应的神经网络模型进行滤波处理。
-
-
-
-
-
-
-
-
-