基于卷积神经网络的飞行时间深度图像的迭代优化方法

    公开(公告)号:CN113240604A

    公开(公告)日:2021-08-10

    申请号:CN202110553035.8

    申请日:2021-05-20

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于卷积神经网络的飞行时间(Time‑of‑Flight:ToF)深度图像的迭代优化方法。本发明将多频调幅连续波ToF相机成像得到的相关系数图利用基本三角变换以及多频相位去模糊算法,得到场景的初始深度图和反射强度图;然后构建一个基于迭代优化的卷积神经网络,并使用计算机图形学以及三维重建技术构建数据集对该神经网络进行训练为其寻找最优参数;之后将ToF原始相关测量以及初始深度图、反射强度图输入该卷积神经网络,通过多级同构网络的迭代优化,逐步削减多种来源、不同特性的误差影响,实现深度图质量由粗到细的提升。

    一种基于自适应分块的自由立体显示内容生成方法

    公开(公告)号:CN104639932A

    公开(公告)日:2015-05-20

    申请号:CN201410765445.9

    申请日:2014-12-12

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于自适应分块的自由立体显示内容生成方法,包括:(1)获取左右视图;(2)提取左图和右图的对应特征点;(3)对图像进行虚拟的分块,分别计算左图和右图的关注度,并根据关注度进行自适应分块;(4)将图像结构约束、视差约束等约束项量化为能量项的形式,并加权叠加成一个总的能量项;(5)通过最小化总能量项,求解虚拟视点图像与原始视点的映射函数;(6)根据视点间映射函数做反向映射,生成所需的多个虚拟视点。本发明通过对图像进行基于关注度的自适应分块,将不同物体分到不同分块中去,避免同一分块中不同物体的映射关系相互影响,使得通过非线性图像扭曲得到的虚拟视点图像在部分细节上更为自然,瑕疵更少。

    一种基于混合摄像机的室内场景定位方法

    公开(公告)号:CN104517289A

    公开(公告)日:2015-04-15

    申请号:CN201410766903.0

    申请日:2014-12-12

    Applicant: 浙江大学

    CPC classification number: G06T2207/30244

    Abstract: 本发明公开了一种基于混合摄像机的室内场景定位方法,包括:(1)混合相机拍摄室内场景的深度图和彩色图;(2)追踪相机位置;(3)利用标准贪婪森林算法对拍摄的室内场景的深度图和彩色图进行训练,构建回归森林;(4)进行室内场景定位时,只需利用混合摄像机拍摄的当前帧的深度图和彩色图以及训练好的回归森林便可计算出当前摄像机对应的世界坐标,完成定位。本发明采用混合摄像机拍摄,采用回归森林算法来训练一个已知场景中的每个像素点,不需要使用稀疏特征点或者稠密特征点来进行场景定位;节省了特征点检测、描述、匹配的时间,使摄像机定位与状态无关;进而不必承受摄像机追踪的累积误差,有效提高场景定位的精度和效率。

    深度图像后处理的方法

    公开(公告)号:CN102542541A

    公开(公告)日:2012-07-04

    申请号:CN201110460155.X

    申请日:2011-12-31

    Applicant: 浙江大学

    Abstract: 本发明公开了一种深度图像后处理的方法,包括以下步骤:(1)对待处理的左右视点立体图像以及对应的左右视点深度图像,以其中一幅视点图像为主视点,另一视点图像为辅助视点,检测主视点深度图像中的可信点和不可信点;(2)根据滤波窗口的基准尺寸,确定处理主视点深度图像需要的滤波尺度范围;(3)利用主视点图像以及主视点深度图像中每个像素的可信度,对主视点深度图像进行多尺度滤波,保留可信点,逐步修正不可信点。本发明针对立体匹配算法产生的深度图像,可以快速有效地修复深度图像中遮挡区域、低纹理区域的不可信点,并且有效地保持物体的边缘,获取精确平滑的深度图像。

    基于柱镜光栅LCD自由立体显示设备的通用立体图像合成方法

    公开(公告)号:CN101304540B

    公开(公告)日:2010-06-02

    申请号:CN200810062513.X

    申请日:2008-06-19

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于柱镜光栅LCD自由立体显示设备的通用立体图像合成方法。包括以下步骤:1)测量柱镜光栅的实际线数LPI值和实际倾斜角α值;2)根据合成立体图像所需的视点个数N以及分辨率H*V,对N个视点图像进行采样,每个视点图像的垂直分辨率采样成V/v,而水平分辨率采样成H/h,其中,N≥2,v*h=N,v取最接近的整数值;3)根据实际线数LPI值和实际倾斜角α值以及LCD显示器的点距DOT,将经过采样的N个视点图像的RGB分量填充到立体图像的RGB分量中,得到所需的立体图像。本发明适用于具有任意线数LPI值和任意倾斜角α值的柱镜光栅,且能快速而高效地合成具有任意视点个数和任意分辨率的立体图像。

    分层B预测结构压缩性能评测方法

    公开(公告)号:CN101711001A

    公开(公告)日:2010-05-19

    申请号:CN200910155882.8

    申请日:2009-12-29

    Applicant: 浙江大学

    Inventor: 朱政 李东晓 张明

    Abstract: 本发明公开了一种分层B预测结构压缩性能的评测方法。使用一个两参数线性模型,将B图的压缩码率表达为其参考间隔的函数。对于一段视频序列,比较不同参考选择时B图的压缩性能,可以简化为比较其参考间隔的乘积。分层B预测结构的整体压缩性能表示为一个图像组中所有图像的码率之和。特别地,在相同图像组长度下衡量不同分层B预测结构的性能时,评测模型简化为所有B图参考间隔的乘积。本发明通过两参数线性模型对B图以及分层B预测结构作性能评测,克服了非线性模型复杂度高的缺点,在比较给定图像组长度下不同预测结构之间的性能时能够进一步省略参数,具有简单实用的价值。

    一种融合运动信息与几何信息的深度提取方法

    公开(公告)号:CN101640809A

    公开(公告)日:2010-02-03

    申请号:CN200910102153.6

    申请日:2009-08-17

    Applicant: 浙江大学

    Abstract: 本发明公开了一种融合运动信息与几何信息的深度提取方法,包括如下步骤:(1)对每一帧二维视频图像做场景分割,分离静态背景与动态前景;(2)对场景分割图做二值化和滤波处理;(3)基于几何信息产生静态背景的几何深度图;(4)计算前景物体的运动矢量,并换算成运动幅度;(5)根据前景物体所处位置,对其运动幅度做线性变换,得到运动深度图;(6)融合运动深度图和几何深度图,并滤波得到最终深度图。本发明只对分离出的动态前景物体计算运动矢量,消除了背景误匹配点,减少了计算量;同时根据前景物体所处位置线性变换其运动幅度,使之融入到背景深度中,整体提高了深度图的质量。

    基于矩阵分解的摄像机阵列标定方法

    公开(公告)号:CN100588269C

    公开(公告)日:2010-02-03

    申请号:CN200810121238.4

    申请日:2008-09-25

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于矩阵分解的摄像机阵列标定方法。包括以下步骤:1)对摄像机编号并对标定板拍照,同时将所得的图像也按照拍照顺序及其对应的摄像机编号;2)利用标定板上特征点的实际物理坐标数据和拍照获得的图像数据求取摄像机的单应性矩阵;3)利用求得的单应性矩阵及其对应的摄像机和标定板的编号构造测量矩阵,并调整单应性矩阵的比例因子;4)根据摄像机阵列的排列情况——密集或稀疏,选择对应的方法对存在数据缺失的测量矩阵进行矩阵分解;5)添加度量约束,求解摄像机的内外参数;6)对所得数据做非线性优化。本发明适用于以任何方式排列的摄像机阵列,可精确获得所有摄像机的内外参数。

Patent Agency Ranking