-
公开(公告)号:CN111161323A
公开(公告)日:2020-05-15
申请号:CN201911419540.2
申请日:2019-12-31
申请人: 北京理工大学重庆创新中心 , 北京理工大学
IPC分类号: G06T7/246
摘要: 本发明提供了一种基于相关滤波的复杂场景目标跟踪方法:步骤1、对带有目标标注框的第一帧视频图像,通过传统相关滤波训练方法得到滤波器;步骤2、读取下一帧图像,将当前帧图像的搜索区域与上一帧得到的滤波器进行卷积操作,得到响应图像,对响应图像计算最大值得到当前帧相关滤波跟踪结果;将当前帧相关滤波跟踪结果与基于颜色直方图的目标跟踪结果进行互补融合,得到当前帧跟踪结果;步骤3、通过评价标准对响应图像判断是否属于复杂场景决定当前帧的滤波器训练方式;步骤4、重复步骤2-3,直到读取完视频序列的所有帧,目标跟踪结束。采用本方法避免了背景杂乱以及目标严重形变等复杂场景跟踪漂移的问题。
-
公开(公告)号:CN113327271A
公开(公告)日:2021-08-31
申请号:CN202110589860.3
申请日:2021-05-28
申请人: 北京理工大学重庆创新中心 , 北京理工大学
摘要: 本发明公开了一种基于双光孪生网络决策级目标跟踪方法、系统及存储介质。本发明以孪生候选区域生成网络为基础框架,利用生成对抗网络生成伪红外图像数据集对其进行训练,解决了红外图像样本匮乏的问题,提高了网络对红外特征提取的能力。另外,本发明以上下文约束条件设计可见光分支跟踪和伪红外分支跟踪的融合跟踪策略,解决了对弱光或光照不均引起的跟踪困难的问题,避免了跟踪漂移,使跟踪过程更为鲁棒,跟踪精度更为准确。
-
公开(公告)号:CN111091582A
公开(公告)日:2020-05-01
申请号:CN201911410647.0
申请日:2019-12-31
申请人: 北京理工大学重庆创新中心 , 北京理工大学
摘要: 本发明涉及视觉目标跟踪领域,公开了一种基于深度神经网络的单视觉目标跟踪算法及系统;其基本原理为:由图像序列中首帧指定跟踪目标,在后续帧中,采用同一卷积网络提取目标特征与待搜索区域特征,进行卷积和前景-背景区分网络获得目标位置,通过回归获得目标框的宽度和高度,从而获得目标所在的区域框;当跟踪目标的置信值低于一定程度时,认为可能出现目标丢失等问题,采取重搜索策略进行重新搜索,以保证目标的跟踪效果。对于不同尺寸的目标,将其尺寸输入尺寸调节模块,从而根据目标大小动态调节样本裁剪大小;以保证模板能够适应不同尺寸、不同运动特点的目标,提高跟踪性能。
-
公开(公告)号:CN111161323B
公开(公告)日:2023-11-28
申请号:CN201911419540.2
申请日:2019-12-31
申请人: 北京理工大学重庆创新中心 , 北京理工大学
IPC分类号: G06T7/246
摘要: 本发明提供了一种基于相关滤波的复杂场景目标跟踪方法:步骤1、对带有目标标注框的第一帧视频图像,通过传统相关滤波训练方法得到滤波器;步骤2、读取下一帧图像,将当前帧图像的搜索区域与上一帧得到的滤波器进行卷积操作,得到响应图像,对响应图像计算最大值得到当前帧相关滤波跟踪结果;将当前帧相关滤波跟踪结果与基于颜色直方图的目标跟踪结果进行互补融合,得到当前帧跟踪结果;步骤3、通过评价标准对响应图像判断是否属于复杂场景决定当前帧的滤波器训练方式;步骤4、重复步骤2‑3,直到读取完视频序列的所有帧,目标跟踪结束。采用本方法避免了背景杂乱以及目标严重形变等复杂场景跟踪漂移的问题。(56)对比文件CN 109753846 A,2019.05.14CN 110009664 A,2019.07.12CN 110555870 A,2019.12.10US 2010322534 A1,2010.12.23US 2011188744 A1,2011.08.04US 2017134631 A1,2017.05.11US 2018182109 A1,2018.06.28US 2018268559 A1,2018.09.20US 2019156123 A1,2019.05.23US 2019287264 A1,2019.09.19US 6701029 B1,2004.03.02张博.利用视觉显著性和扰动模型的上下文感知跟踪《.光学精密工程》.2018,第26卷(第8期),第2112-2121页.刘波.自适应上下文感知相关滤波跟踪《.中国光学》.2019,第12卷(第2期),第265-273页.候志强.融合检测机制的鲁棒相关滤波视觉跟踪算法《.应用光学》.2019,第40卷(第5期),第795-804页.Suryo Adhi Wibowo等.Visual TrackingBased on Complementary Learners withDistractor Handling《.MathematicalProblems in engineering》.2017,第1-13页.Wancheng Zhang.Siamese VisualTracking with Robust Adaptive Learning.《2019 IEEE International Workshop onAnti-counterfeiting,Security,Identification,ASID》.2019,第153-157页.Guokai Shi.Online adaptivecomplementation tracker《.EURASIP Journalon Wireless Communications andNetworking》.2018,第191页.Matthias Mueller.Context-AwareCorrelation Filter Tracking《.2017 IEEEConference on Computer Vision and PatternRecognition》.2017,第1387-1395页.Luca Bertinetto.Staple: ComplementaryLearners for Real-Time Tracking《.2016IEEE Conference on Computer Vision andPattern Recognition》.2016,第1401-1409页.王赛楠.基于相关滤波的视觉跟踪算法研究《.中国优秀硕士学位论文全文数据库信息科技辑》.2019,(第9(2019)期),第I138-657页.王艳川.基于双模型融合的自适应目标跟踪算法《.计算机应用研究》.2017,第34卷(第12期),第3828-3833页.
-
公开(公告)号:CN113327271B
公开(公告)日:2022-03-22
申请号:CN202110589860.3
申请日:2021-05-28
申请人: 北京理工大学重庆创新中心 , 北京理工大学
摘要: 本发明公开了一种基于双光孪生网络决策级目标跟踪方法、系统及存储介质。本发明以孪生候选区域生成网络为基础框架,利用生成对抗网络生成伪红外图像数据集对其进行训练,解决了红外图像样本匮乏的问题,提高了网络对红外特征提取的能力。另外,本发明以上下文约束条件设计可见光分支跟踪和伪红外分支跟踪的融合跟踪策略,解决了对弱光或光照不均引起的跟踪困难的问题,避免了跟踪漂移,使跟踪过程更为鲁棒,跟踪精度更为准确。
-
-
-
-