-
公开(公告)号:CN105657402B
公开(公告)日:2017-09-29
申请号:CN201610031320.2
申请日:2016-01-18
申请人: 深圳市未来媒体技术研究院 , 清华大学深圳研究生院
摘要: 本发明公开了一种深度图恢复方法,包括如下步骤:A1:由相当大数量的各类物体的深度图构成训练集;A2:建立卷积神经网络(CNN),采取核分离方法,获得隐藏层的参数,建立卷积网络结构,利用训练集中的深度图训练网络结构、调整网络权重;A3:在CNN的输出层,针对可能的结果建立自回归(AR,auto‑regression)模型,并建立评价指标;A4:将深度传感器获得的原始深度图输入CNN中,通过去噪、分类后,由AR模型恢复,通过评价指标检测,若不合要求则将结果图输入A2中,直到得到高质量深度图或终止循环。本发明采用了深度卷积网络来恢复从深度传感器获得的低分辨率、低信噪比的图像。利用本发明能够显著提高深度图的质量,同时也简化了获得深度图的方法。
-
公开(公告)号:CN105784113B
公开(公告)日:2017-09-22
申请号:CN201610130319.5
申请日:2016-03-08
申请人: 深圳市未来媒体技术研究院 , 清华大学深圳研究生院
IPC分类号: G01J3/28
摘要: 本发明公开了区分荧光辐射光谱图像和反射光谱图像的成像系统及方法,该系统包括:物镜、第一光栅、第一凸透镜、第二凸透镜、蒙板、第三凸透镜和光传感器,场景辐射的荧光和反射的光依次经过所述物镜、第一光栅、第一凸透镜、第二凸透镜、蒙板和第三凸透镜到达所述光传感器。本发明在两次曝光后捕获的编码图像中能够恢复两组不同特性的高光谱图像,能够实现对动态场景的分析。本发明使用了空间维度和光谱维度的联合编码,克服了之前高光谱成像中在时间、空间维度做出的牺牲。本发明恢复的结果具有对噪声的鲁棒性。
-
公开(公告)号:CN105701813A
公开(公告)日:2016-06-22
申请号:CN201610018667.3
申请日:2016-01-11
申请人: 深圳市未来媒体技术研究院 , 清华大学深圳研究生院
IPC分类号: G06T7/00
CPC分类号: G06T2207/10148
摘要: 本发明公开了一种光场图像的显著性检测方法,包括如下步骤:S1、对光场图像的不同位置进行重聚焦得到N个聚焦图像,将所述N个聚焦图像融合得到全聚焦图像,N为正整数;S2、计算每个聚焦图像中各个像素点的聚焦度F(x,y):其中,x和y分别表示像素点(x,y)的横坐标和纵坐标,Gx和Gy分别表示像素点(x,y)x方向和y方向的灰度梯度值;S3、计算每一个聚焦图像的一维聚焦度分布;S4、计算每个聚焦图像的背景层近似度;S5、将最大的背景层近似度BLS(Ii)对应的聚焦图像作为所述全聚焦图像的背景层。本发明能够将背景准确地检测并分离出来,能对前景信息进行颜色对比度等处理从而获取到准确的显著图。
-
公开(公告)号:CN105657402A
公开(公告)日:2016-06-08
申请号:CN201610031320.2
申请日:2016-01-18
申请人: 深圳市未来媒体技术研究院 , 清华大学深圳研究生院
CPC分类号: H04N13/275 , H04N13/128
摘要: 本发明公开了一种深度图恢复方法,包括如下步骤:A1:由相当大数量的各类物体的深度图构成训练集;A2:建立卷积神经网络(CNN),采取核分离方法,获得隐藏层的参数,建立卷积网络结构,利用训练集中的深度图训练网络结构、调整网络权重;A3:在CNN的输出层,针对可能的结果建立自回归(AR,auto-regression)模型,并建立评价指标;A4:将深度传感器获得的原始深度图输入CNN中,通过去噪、分类后,由AR模型恢复,通过评价指标检测,若不合要求则将结果图输入A2中,直到得到高质量深度图或终止循环。本发明采用了深度卷积网络来恢复从深度传感器获得的低分辨率、低信噪比的图像。利用本发明能够显著提高深度图的质量,同时也简化了获得深度图的方法。
-
公开(公告)号:CN105551050B
公开(公告)日:2018-07-17
申请号:CN201511019609.4
申请日:2015-12-29
申请人: 深圳市未来媒体技术研究院 , 清华大学深圳研究生院
IPC分类号: G06T7/50
摘要: 本发明涉及一种新的基于光场的图像深度估计方法。这种方法主要由三个重要部分组成:光场原始数据视点提取方法、基于块匹配的深度估计算法和基于显著特征约束的深度优化算法。所提出的光场原始数据视点提取方法,对未经去马赛克的光场数据进行视点分离;所采用的基于块匹配的深度估计算法仅对与中心视点处于同一行或同一列的视点对上并且记录相同光线颜色的对应块进行相似性度量;为优化深度估计结果,本发明提出基于显著特征约束的深度优化算法,提取显著特征点并进行匹配,将显著特征点的视差作为强约束条件。本发明的方法避免了插值过程引起的视点混淆,提升了深度估计准确性。
-
公开(公告)号:CN105844589A
公开(公告)日:2016-08-10
申请号:CN201610160745.3
申请日:2016-03-21
申请人: 深圳市未来媒体技术研究院 , 清华大学深圳研究生院
IPC分类号: G06T3/40
CPC分类号: G06T3/4053
摘要: 本发明涉及一种基于混合成像系统的实现光场图像超分辨的方法,属于光场成像领域。该方法通过引入一张额外的高分辨普通图像解决了手持式光场相机空间分辨率低下的问题。它首先将场景中的点进行分成两类,第一类点对应的像素出现在光场相机所有的视点中,剩下的点归为另一类。对于第一类点,采用改善的块匹配超分辨,第二类点用字典学习超分辨。最后将两种超分辨的结果整合起来,可以得到一张清晰的高分辨图像。
-
公开(公告)号:CN106204467B
公开(公告)日:2021-07-09
申请号:CN201610481440.2
申请日:2016-06-27
申请人: 深圳市未来媒体技术研究院 , 清华大学深圳研究生院
IPC分类号: G06T5/00
摘要: 本发明公开了一种基于级联残差神经网络的图像去噪方法,包括以下步骤:搭建级联残差神经网络模型,所述级联残差神经网络模型由多个残差单元串联而成,其中每个所述残差单元包括多个卷积层、每个所述卷积层后的激活层和单位跳跃连接单元;选取训练集,并设置所述级联残差神经网络模型的训练参数;根据所述级联残差神经网络模型及其训练参数,以最小化损失函数为目标训练所述级联残差神经网络模型形成图像去噪神经网络模型;将待处理的图像输入到所述图像去噪神经网络模型,输出去噪后的图像。本发明公开的基于级联残差神经网络的图像去噪方法,极大地增强神经网络的学习能力,建立起噪声图像到干净图像的准确映射,可以实现实时去噪。
-
公开(公告)号:CN106713929B
公开(公告)日:2019-06-28
申请号:CN201710084742.0
申请日:2017-02-16
申请人: 清华大学深圳研究生院 , 深圳市未来媒体技术研究院
IPC分类号: H04N19/503 , H04N19/124 , H04N19/149
摘要: 本发明公开了一种基于深度神经网络的视频帧间预测增强方法,对不同内容的视频序列分组,并同时对不同的量化参数进行压缩,产生多个不同压缩率的训练集序列、验证集序列对并进行分组,从每个组的所有视频序列对中提取出图片,组成不同压缩率分组下的训练集、验证集图像对;基于深度卷积神经网络训练该压缩率分组下的视频帧间预测增强模型;测试帧间预测增强模型的有效性,在有效的情况下将训练得到模型移植入编码器视频帧间预测模块中;基于GPU利用并行开发工具将测试网络并行化,并编译为动态链接库文件,导入编码器中进行时间复杂度上的优化;既避免了每个量化参数下都分别需要训练的情况,同时也提高了在使用场景下的鲁棒性。
-
公开(公告)号:CN106204468A
公开(公告)日:2016-12-07
申请号:CN201610482594.3
申请日:2016-06-27
申请人: 深圳市未来媒体技术研究院 , 清华大学深圳研究生院
IPC分类号: G06T5/00
CPC分类号: G06T5/002 , G06T2207/20021 , G06T2207/20081 , G06T2207/20084
摘要: 本发明公开了一种基于ReLU卷积神经网络的图像去噪方法,包括以下步骤:搭建ReLU卷积神经网络模型,所述ReLU卷积神经网络模型包括多个卷积层和每个所述卷积层后的激活层,所述激活层为ReLU函数;选取训练集,并设置所述ReLU卷积神经网络模型的训练参数;根据所述ReLU卷积神经网络模型及其训练参数,以最小化损失函数为目标训练所述ReLU卷积神经网络模型形成图像去噪神经网络模型;将待处理的图像输入到所述图像去噪神经网络模型,输出去噪后的图像。本发明公开的基于ReLU卷积神经网络的图像去噪方法,极大地增强神经网络的学习能力,建立起噪声图像到干净图像的准确映射,可以实现实时去噪。
-
公开(公告)号:CN105844589B
公开(公告)日:2018-12-21
申请号:CN201610160745.3
申请日:2016-03-21
申请人: 深圳市未来媒体技术研究院 , 清华大学深圳研究生院
IPC分类号: G06T3/40
摘要: 本发明涉及一种基于混合成像系统的实现光场图像超分辨的方法,属于光场成像领域。该方法通过引入一张额外的高分辨普通图像解决了手持式光场相机空间分辨率低下的问题。它首先将场景中的点进行分成两类,第一类点对应的像素出现在光场相机所有的视点中,剩下的点归为另一类。对于第一类点,采用改善的块匹配超分辨,第二类点用字典学习超分辨。最后将两种超分辨的结果整合起来,可以得到一张清晰的高分辨图像。
-
-
-
-
-
-
-
-
-