一种基于区域匹配的快速电子稳像方法

    公开(公告)号:CN106357958A

    公开(公告)日:2017-01-25

    申请号:CN201610885140.0

    申请日:2016-10-10

    申请人: 山东大学

    IPC分类号: H04N5/21 H04N5/14

    CPC分类号: H04N5/21 H04N5/145

    摘要: 本发明涉及一种基于区域匹配的快速电子稳像方法,具体步骤包括:(1)读出视频图像帧,选取第一帧图像作为参考帧;(2)采用MSER最大极值稳定区域算法,将当前帧依次与参考帧进行区域匹配,得到匹配分数,进行小波变换;将得到的匹配分数从大到小排序,选取前n位的匹配分数对应的区域;(3)对选取的前n位的匹配分数对应的区域进行区域标定,并在标定后的区域进行FAST特征点检测,提取出特征点;(4)进行特征点匹配,估计运动参数;(5)对图像进行反向运动补偿。本发明利用稳像算法实现了图像序列的稳定,因此具有快速、高精度、低功耗等优点。

    一种深度融合显著性检测与先验知识的手部区域分割方法

    公开(公告)号:CN106529432B

    公开(公告)日:2019-05-07

    申请号:CN201610937434.3

    申请日:2016-11-01

    申请人: 山东大学

    IPC分类号: G06K9/00 G06K9/46

    摘要: 本发明涉及一种深度融合显著性检测与先验知识的手部区域分割方法,本方法将像素级的手部区域显著图与区域级的手部区域显著图融合,使得整个手部区域检测算法具有更高的鲁棒性和准确性。利用引入的贝叶斯框架,得到每个像素点的属于手部区域的置信度,并结合阈值分割等相关技术手段,最终获得高准确性的手部区域分割结果。本发明克服了传统手部区域方法只能应用于相对简单背景、无近肤色干扰场景的缺点,在非均匀光照、近肤色背景、人脸噪声等各种干扰的情况下,仍然可以十分精确地获得手部区域的分割图像,因而具有广阔的应用前景。

    一种基于计算机视觉的四足机器人本体位姿跟踪方法

    公开(公告)号:CN106525049A

    公开(公告)日:2017-03-22

    申请号:CN201610979615.2

    申请日:2016-11-08

    申请人: 山东大学

    IPC分类号: G01C21/20

    CPC分类号: G01C21/20

    摘要: 本发明涉及一种基于计算机视觉的四足机器人本体位姿跟踪方法。本发明所述基于计算机视觉的四足机器人本体位姿跟踪方法,通过给四足机器人本体配置两个摄像头,可以实时获取机器人的翻滚角以及俯仰角,通过图像匹配可以达到亚像素级别的精度,优化了传统算法中的精确度问题,同时算法具有较高的鲁棒性,对噪声具有较强的抵抗能力,优化了传统算法带来的累计误差问题。

    一种基于区域匹配的快速电子稳像方法

    公开(公告)号:CN106357958B

    公开(公告)日:2019-04-16

    申请号:CN201610885140.0

    申请日:2016-10-10

    申请人: 山东大学

    IPC分类号: H04N5/21 H04N5/14

    摘要: 本发明涉及一种基于区域匹配的快速电子稳像方法,具体步骤包括:(1)读出视频图像帧,选取第一帧图像作为参考帧;(2)采用MSER最大极值稳定区域算法,将当前帧依次与参考帧进行区域匹配,得到匹配分数,进行小波变换;将得到的匹配分数从大到小排序,选取前n位的匹配分数对应的区域;(3)对选取的前n位的匹配分数对应的区域进行区域标定,并在标定后的区域进行FAST特征点检测,提取出特征点;(4)进行特征点匹配,估计运动参数;(5)对图像进行反向运动补偿。本发明利用稳像算法实现了图像序列的稳定,因此具有快速、高精度、低功耗等优点。

    一种深度融合显著性检测与先验知识的手部区域分割方法

    公开(公告)号:CN106529432A

    公开(公告)日:2017-03-22

    申请号:CN201610937434.3

    申请日:2016-11-01

    申请人: 山东大学

    IPC分类号: G06K9/00 G06K9/46

    摘要: 本发明涉及一种深度融合显著性检测与先验知识的手部区域分割方法,本方法将像素级的手部区域显著图与区域级的手部区域显著图融合,使得整个手部区域检测算法具有更高的鲁棒性和准确性。利用引入的贝叶斯框架,得到每个像素点的属于手部区域的置信度,并结合阈值分割等相关技术手段,最终获得高准确性的手部区域分割结果。本发明克服了传统手部区域方法只能应用于相对简单背景、无近肤色干扰场景的缺点,在非均匀光照、近肤色背景、人脸噪声等各种干扰的情况下,仍然可以十分精确地获得手部区域的分割图像,因而具有广阔的应用前景。

    一种基于计算机视觉的四足机器人本体位姿跟踪方法

    公开(公告)号:CN106525049B

    公开(公告)日:2019-06-28

    申请号:CN201610979615.2

    申请日:2016-11-08

    申请人: 山东大学

    IPC分类号: G01C21/20

    摘要: 本发明涉及一种基于计算机视觉的四足机器人本体位姿跟踪方法。本发明所述基于计算机视觉的四足机器人本体位姿跟踪方法,通过给四足机器人本体配置两个摄像头,可以实时获取机器人的翻滚角以及俯仰角,通过图像匹配可以达到亚像素级别的精度,优化了传统算法中的精确度问题,同时算法具有较高的鲁棒性,对噪声具有较强的抵抗能力,优化了传统算法带来的累计误差问题。