一种将2D视频转换成3D视频的方法

    公开(公告)号:CN107018400B

    公开(公告)日:2018-06-19

    申请号:CN201710227433.4

    申请日:2017-04-07

    Abstract: 一种将2D视频转换成3D视频的方法,属于模式识别和计算机视觉领域,目的在于消除现有技术场景深度估计和视点合成带来的不可预测误差,同时大大提高计算速度。本发明包括训练阶段和使用阶段,训练阶段依次包括数据输入、特征提取、特征融合、视点合成和参数更新步骤;使用阶段依次包括数据输入、特征提取、特征融合和视点合成步骤。训练阶段对106级的左右格式的3D立体视频电影片进行训练,将场景深度估计和视点合成同时进行优化求解,确定参数,保证了输出右路视图的像素级精度预测,减少了将2D视频转3D视频分成两个任务操作带来的误差;训练完成以后,即可直接进行2D视频到3D视频的转换,可以大大提高转制效率,保证最后输出的3D立体视频的精度。

    一种玉米雄穗性状的自动检测方法

    公开(公告)号:CN104573701B

    公开(公告)日:2017-12-12

    申请号:CN201410722382.9

    申请日:2014-12-02

    Abstract: 本发明公开了一种玉米雄穗性状的自动检测方法,该方法首先对所采集的田间玉米下视图像进行目标性检测,生成雄穗候选框以获得雄穗潜在区域,随后通过多视角图像特征以及费舍尔向量编码方法对雄穗进行特征描述以及目标检测,从而对雄穗所属区域进行确认,同时在检测结果的基础上利用语义分割进一步完成雄穗精细形态的分割,最后建立了图像特征与长度性状、宽度性状、周长性状、直径性状、穗色性状、分枝数性状以及总穗数性状七种具有物理意义的生物量之间的映射关系。本发明方法能实时地对玉米雄穗的生长状态进行连续监测,检测结果准确率高,对玉米的生殖生长研究、玉米基因学与遗传学研究以及产量估计都具有重要的意义。

    一种将2D视频转换成3D视频的方法

    公开(公告)号:CN107018400A

    公开(公告)日:2017-08-04

    申请号:CN201710227433.4

    申请日:2017-04-07

    CPC classification number: G06N3/0454 G06N3/084 H04N13/139

    Abstract: 一种将2D视频转换成3D视频的方法,属于模式识别和计算机视觉领域,目的在于消除现有技术场景深度估计和视点合成带来的不可预测误差,同时大大提高计算速度。本发明包括训练阶段和使用阶段,训练阶段依次包括数据输入、特征提取、特征融合、视点合成和参数更新步骤;使用阶段依次包括数据输入、特征提取、特征融合和视点合成步骤。训练阶段对106级的左右格式的3D立体视频电影片进行训练,将场景深度估计和视点合成同时进行优化求解,确定参数,保证了输出右路视图的像素级精度预测,减少了将2D视频转3D视频分成两个任务操作带来的误差;训练完成以后,即可直接进行2D视频到3D视频的转换,可以大大提高转制效率,保证最后输出的3D立体视频的精度。

    一种玉米雄穗性状的自动检测方法

    公开(公告)号:CN104573701A

    公开(公告)日:2015-04-29

    申请号:CN201410722382.9

    申请日:2014-12-02

    Abstract: 本发明公开了一种玉米雄穗性状的自动检测方法,该方法首先对所采集的田间玉米下视图像进行目标性检测,生成雄穗候选框以获得雄穗潜在区域,随后通过多视角图像特征以及费舍尔向量编码方法对雄穗进行特征描述以及目标检测,从而对雄穗所属区域进行确认,同时在检测结果的基础上利用语义分割进一步完成雄穗精细形态的分割,最后建立了图像特征与长度性状、宽度性状、周长性状、直径性状、穗色性状、分枝数性状以及总穗数性状七种具有物理意义的生物量之间的映射关系。本发明方法能实时地对玉米雄穗的生长状态进行连续监测,检测结果准确率高,对玉米的生殖生长研究、玉米基因学与遗传学研究以及产量估计都具有重要的意义。

    一种基于深度图像信息的坠床行为实时检测方法

    公开(公告)号:CN105868707B

    公开(公告)日:2019-03-08

    申请号:CN201610182274.6

    申请日:2016-03-28

    Abstract: 本发明公开了一种基于深度图像信息的坠床行为实时检测方法,包括:(1)通过深度传感器获取室内场景的深度图像;(2)更新深度图像中的跟踪区域;(3)通过不断变化偏移尺度,提取步骤(2)得到的跟踪区域中各像素的八邻域差分特征;(4)获取头部区域;(5)定位头部中心;(6)获取上半身区域;(7)优化头部定位;(8)人体确认;(9)提取高度特征;(10)坠床检测:采用训练好的坠床分类器对上述高度特征向量进行分类检测,获取坠床检测结果。本发明提出的基于深度图像的坠床行为实时检测方法,通过随机森林分类器获取头部区域,优化头部定位保证定位准确性,使用支撑向量机检测坠床,保证了本方法具有较高的准确度与鲁棒性。

    一种基于深度图像信息的坠床行为实时检测方法

    公开(公告)号:CN105868707A

    公开(公告)日:2016-08-17

    申请号:CN201610182274.6

    申请日:2016-03-28

    CPC classification number: G06K9/00771 G06K9/00362 G06K9/6269

    Abstract: 本发明公开了一种基于深度图像信息的坠床行为实时检测方法,包括:(1)通过深度传感器获取室内场景的深度图像;(2)更新深度图像中的跟踪区域;(3)通过不断变化偏移尺度,提取步骤(2)得到的跟踪区域中各像素的八邻域差分特征;(4)获取头部区域;(5)定位头部中心;(6)获取上半身区域;(7)优化头部定位;(8)人体确认;(9)提取高度特征;(10)坠床检测:采用训练好的坠床分类器对上述高度特征向量进行分类检测,获取坠床检测结果。本发明提出的基于深度图像的坠床行为实时检测方法,通过随机森林分类器获取头部区域,优化头部定位保证定位准确性,使用支撑向量机检测坠床,保证了本方法具有较高的准确度与鲁棒性。

Patent Agency Ranking