一种融合运动信息与几何信息的深度提取方法

    公开(公告)号:CN101640809A

    公开(公告)日:2010-02-03

    申请号:CN200910102153.6

    申请日:2009-08-17

    Applicant: 浙江大学

    Abstract: 本发明公开了一种融合运动信息与几何信息的深度提取方法,包括如下步骤:(1)对每一帧二维视频图像做场景分割,分离静态背景与动态前景;(2)对场景分割图做二值化和滤波处理;(3)基于几何信息产生静态背景的几何深度图;(4)计算前景物体的运动矢量,并换算成运动幅度;(5)根据前景物体所处位置,对其运动幅度做线性变换,得到运动深度图;(6)融合运动深度图和几何深度图,并滤波得到最终深度图。本发明只对分离出的动态前景物体计算运动矢量,消除了背景误匹配点,减少了计算量;同时根据前景物体所处位置线性变换其运动幅度,使之融入到背景深度中,整体提高了深度图的质量。

    一种对三维场景的表达方法及其电视系统

    公开(公告)号:CN101742349A

    公开(公告)日:2010-06-16

    申请号:CN201010039540.2

    申请日:2010-01-05

    Applicant: 浙江大学

    Abstract: 本发明公开了一种对三维场景的表达方法。在本发明涉及的表达方法中,首先根据输入的多路视频图像序列和从各路视频图像序列中提取的信息,对实际场景中的物体的语义及边缘进行识别和提取,并得出三维场景的深度信息,在此基础上,对处于中间视点的一路视频图像进行分割;对分割后的对象,根据其相互之间的遮挡关系,将从其它视点视频图像中提取的遮挡信息加入被遮挡对象被遮挡的位置中;最后根据提取的深度信息,用一个深度函数来表示各对象的深度,或用深度级和深度变化模式共同表示各对象的深度。本发明还同时公开了一种应用该表达方法处理输入的多路视频图像数据的电视系统。

    一种对三维场景的表达方法及其电视系统

    公开(公告)号:CN101742349B

    公开(公告)日:2011-07-20

    申请号:CN201010039540.2

    申请日:2010-01-05

    Applicant: 浙江大学

    Abstract: 本发明公开了一种对三维场景的表达方法。在本发明涉及的表达方法中,首先根据输入的多路视频图像序列和从各路视频图像序列中提取的信息,对实际场景中的物体的语义及边缘进行识别和提取,并得出三维场景的深度信息,在此基础上,对处于中间视点的一路视频图像进行分割;对分割后的对象,根据其相互之间的遮挡关系,将从其它视点视频图像中提取的遮挡信息加入被遮挡对象被遮挡的位置中;最后根据提取的深度信息,用一个深度函数来表示各对象的深度,或用深度级和深度变化模式共同表示各对象的深度。本发明还同时公开了一种应用该表达方法处理输入的多路视频图像数据的电视系统。

    一种融合运动信息与几何信息的深度提取方法

    公开(公告)号:CN101640809B

    公开(公告)日:2010-11-03

    申请号:CN200910102153.6

    申请日:2009-08-17

    Applicant: 浙江大学

    Abstract: 本发明公开了一种融合运动信息与几何信息的深度提取方法,包括如下步骤:(1)对每一帧二维视频图像做场景分割,分离静态背景与动态前景;(2)对场景分割图做二值化和滤波处理;(3)基于几何信息产生静态背景的几何深度图;(4)计算前景物体的运动矢量,并换算成运动幅度;(5)根据前景物体所处位置,对其运动幅度做线性变换,得到运动深度图;(6)融合运动深度图和几何深度图,并滤波得到最终深度图。本发明只对分离出的动态前景物体计算运动矢量,消除了背景误匹配点,减少了计算量;同时根据前景物体所处位置线性变换其运动幅度,使之融入到背景深度中,整体提高了深度图的质量。

Patent Agency Ranking