一种基于相关滤波的复杂场景目标跟踪方法及系统

    公开(公告)号:CN111161323A

    公开(公告)日:2020-05-15

    申请号:CN201911419540.2

    申请日:2019-12-31

    IPC分类号: G06T7/246

    摘要: 本发明提供了一种基于相关滤波的复杂场景目标跟踪方法:步骤1、对带有目标标注框的第一帧视频图像,通过传统相关滤波训练方法得到滤波器;步骤2、读取下一帧图像,将当前帧图像的搜索区域与上一帧得到的滤波器进行卷积操作,得到响应图像,对响应图像计算最大值得到当前帧相关滤波跟踪结果;将当前帧相关滤波跟踪结果与基于颜色直方图的目标跟踪结果进行互补融合,得到当前帧跟踪结果;步骤3、通过评价标准对响应图像判断是否属于复杂场景决定当前帧的滤波器训练方式;步骤4、重复步骤2-3,直到读取完视频序列的所有帧,目标跟踪结束。采用本方法避免了背景杂乱以及目标严重形变等复杂场景跟踪漂移的问题。

    一种基于背景感知的相关滤波跟踪方法

    公开(公告)号:CN111161321A

    公开(公告)日:2020-05-15

    申请号:CN201911410671.4

    申请日:2019-12-31

    IPC分类号: G06T7/246 G06T7/73

    摘要: 本发明提供了一种基于背景感知的相关滤波跟踪方法,包括以下过程:步骤1、读取视频第一帧图像与待跟踪目标的位置信息,加入训练集;步骤2、提取训练集中目标区域特征训练带有背景感知的相关滤波器;步骤3、读取下一帧视频图像并提取搜索区域图像特征;步骤4、将提取的搜索区域图像特征与相关滤波器进行卷积操作得到当前帧待跟踪目标位置信息,并将当前帧视频图像与待跟踪目标位置信息加入训练集;步骤5、重复步骤2-4直至读取视频所有帧结束,得到每一帧视频图像中待跟踪目标位置信息。通过采用该方法能够有效利用跟踪过程中的背景信息,更加准确地预测目标位置。

    一种基于深度神经网络的单视觉目标跟踪算法及系统

    公开(公告)号:CN111091582A

    公开(公告)日:2020-05-01

    申请号:CN201911410647.0

    申请日:2019-12-31

    摘要: 本发明涉及视觉目标跟踪领域,公开了一种基于深度神经网络的单视觉目标跟踪算法及系统;其基本原理为:由图像序列中首帧指定跟踪目标,在后续帧中,采用同一卷积网络提取目标特征与待搜索区域特征,进行卷积和前景-背景区分网络获得目标位置,通过回归获得目标框的宽度和高度,从而获得目标所在的区域框;当跟踪目标的置信值低于一定程度时,认为可能出现目标丢失等问题,采取重搜索策略进行重新搜索,以保证目标的跟踪效果。对于不同尺寸的目标,将其尺寸输入尺寸调节模块,从而根据目标大小动态调节样本裁剪大小;以保证模板能够适应不同尺寸、不同运动特点的目标,提高跟踪性能。

    一种基于相关滤波的复杂场景目标跟踪方法及系统

    公开(公告)号:CN111161323B

    公开(公告)日:2023-11-28

    申请号:CN201911419540.2

    申请日:2019-12-31

    IPC分类号: G06T7/246

    摘要: 本发明提供了一种基于相关滤波的复杂场景目标跟踪方法:步骤1、对带有目标标注框的第一帧视频图像,通过传统相关滤波训练方法得到滤波器;步骤2、读取下一帧图像,将当前帧图像的搜索区域与上一帧得到的滤波器进行卷积操作,得到响应图像,对响应图像计算最大值得到当前帧相关滤波跟踪结果;将当前帧相关滤波跟踪结果与基于颜色直方图的目标跟踪结果进行互补融合,得到当前帧跟踪结果;步骤3、通过评价标准对响应图像判断是否属于复杂场景决定当前帧的滤波器训练方式;步骤4、重复步骤2‑3,直到读取完视频序列的所有帧,目标跟踪结束。采用本方法避免了背景杂乱以及目标严重形变等复杂场景跟踪漂移的问题。(56)对比文件CN 109753846 A,2019.05.14CN 110009664 A,2019.07.12CN 110555870 A,2019.12.10US 2010322534 A1,2010.12.23US 2011188744 A1,2011.08.04US 2017134631 A1,2017.05.11US 2018182109 A1,2018.06.28US 2018268559 A1,2018.09.20US 2019156123 A1,2019.05.23US 2019287264 A1,2019.09.19US 6701029 B1,2004.03.02张博.利用视觉显著性和扰动模型的上下文感知跟踪《.光学精密工程》.2018,第26卷(第8期),第2112-2121页.刘波.自适应上下文感知相关滤波跟踪《.中国光学》.2019,第12卷(第2期),第265-273页.候志强.融合检测机制的鲁棒相关滤波视觉跟踪算法《.应用光学》.2019,第40卷(第5期),第795-804页.Suryo Adhi Wibowo等.Visual TrackingBased on Complementary Learners withDistractor Handling《.MathematicalProblems in engineering》.2017,第1-13页.Wancheng Zhang.Siamese VisualTracking with Robust Adaptive Learning.《2019 IEEE International Workshop onAnti-counterfeiting,Security,Identification,ASID》.2019,第153-157页.Guokai Shi.Online adaptivecomplementation tracker《.EURASIP Journalon Wireless Communications andNetworking》.2018,第191页.Matthias Mueller.Context-AwareCorrelation Filter Tracking《.2017 IEEEConference on Computer Vision and PatternRecognition》.2017,第1387-1395页.Luca Bertinetto.Staple: ComplementaryLearners for Real-Time Tracking《.2016IEEE Conference on Computer Vision andPattern Recognition》.2016,第1401-1409页.王赛楠.基于相关滤波的视觉跟踪算法研究《.中国优秀硕士学位论文全文数据库信息科技辑》.2019,(第9(2019)期),第I138-657页.王艳川.基于双模型融合的自适应目标跟踪算法《.计算机应用研究》.2017,第34卷(第12期),第3828-3833页.

    一种基于相关滤波的鲁棒性长时跟踪方法

    公开(公告)号:CN113327272A

    公开(公告)日:2021-08-31

    申请号:CN202110590166.3

    申请日:2021-05-28

    摘要: 本发明公开了一种基于相关滤波的鲁棒性长时跟踪方法,包括利用初始帧图像初始化滤波器;对于后续帧图像,提取当前帧图像搜索区域的特征图,与上一帧图像训练得到的滤波器进行互相关匹配,得到响应图;判断响应图对应跟踪结果的可靠等级,若跟踪结果不可靠,则重新检测目标,否则以响应图中峰值位置作为目标中心位置,并更新滤波器:当跟踪结果为一般可靠,以当前帧搜索区域的显著性图作为目标函数中自适应空间正则项的权重对滤波器进行训练;当跟踪结果为可靠,采用传统的负高斯型空间正则项权重对滤波器进行训练。本发明在目标跟踪失败时进行重检,在跟踪过程中,自适应调整目标函数中空间正则项的权重,增强了复杂场景下目标跟踪的鲁棒性。

    一种基于多层深度特征提取的目标跟踪算法

    公开(公告)号:CN111145221A

    公开(公告)日:2020-05-12

    申请号:CN201911419269.2

    申请日:2019-12-31

    IPC分类号: G06T7/246 G06N3/04 G06N3/08

    摘要: 本发明公开了一种基于多层深度特征提取的目标跟踪算法,涉及图像处理技术领域,包括如下步骤,S1:图像输入;S2:提取特征图;S3:获取最佳匹配模板;S4:更新最佳匹配模板;S5:重复步骤S4,直到完成当前视频的目标跟踪;所述S2具体为,根据第一帧图像中目标的位置和尺寸信息,利用深度神经网络提取多层样本特征图,本发明利用深度神经网络提取多层深度特征作为样本的外观表达,来进行目标跟踪,以获取目标多层深度特征,减少了参数数量,提高了目标跟踪过程的准确性和鲁棒性。

    一种基于背景感知的相关滤波跟踪方法

    公开(公告)号:CN111161321B

    公开(公告)日:2023-07-04

    申请号:CN201911410671.4

    申请日:2019-12-31

    IPC分类号: G06T7/246 G06T7/73

    摘要: 本发明提供了一种基于背景感知的相关滤波跟踪方法,包括以下过程:步骤1、读取视频第一帧图像与待跟踪目标的位置信息,加入训练集;步骤2、提取训练集中目标区域特征训练带有背景感知的相关滤波器;步骤3、读取下一帧视频图像并提取搜索区域图像特征;步骤4、将提取的搜索区域图像特征与相关滤波器进行卷积操作得到当前帧待跟踪目标位置信息,并将当前帧视频图像与待跟踪目标位置信息加入训练集;步骤5、重复步骤2‑4直至读取视频所有帧结束,得到每一帧视频图像中待跟踪目标位置信息。通过采用该方法能够有效利用跟踪过程中的背景信息,更加准确地预测目标位置。

    一种相关滤波目标跟踪深度特征的提取方法

    公开(公告)号:CN113592899A

    公开(公告)日:2021-11-02

    申请号:CN202110593777.3

    申请日:2021-05-28

    IPC分类号: G06T7/246 G06N3/04 G06N3/08

    摘要: 本发明提供了一种相关滤波目标跟踪深度特征的提取方法,包括S1:获取输入视频序列,设定目标跟踪的搜索区域;S2:构建深度特征提取网络模型,在残差网络模型卷积块输出后进行裁剪操作提取当前帧图像的深度特征,将深度特征和高斯标签作为输入训练滤波器;S3:获取下一帧图像数据根据对应搜索区域提取的特征;S4:下一帧图像数据对应提取的图像特征与相关滤波器进行相关操作获得目标预测位置。本发明通过构建模型中的裁剪修正操作,去除了深度特征提取过程中填充补零操作对特征质量的影响,提高了目标预测位置的准确性。