-
公开(公告)号:CN113850842A
公开(公告)日:2021-12-28
申请号:CN202111127342.6
申请日:2021-09-26
申请人: 北京理工大学
摘要: 本发明涉及一种基于注意力掩膜的抗遮挡目标跟踪方法,属于计算机视觉领域。针对现有跟踪方法,在目标存在遮挡的情况下,容易出现跟踪飘移的问题,本方法首先通过加入注意力机制的特征提取网络对候选区域图像进行特征提取;然后,利用AMGN网络,根据提取到的候选区域特征和空间注意力矩阵,得到遮挡特征样本,用以在特征空间模拟多种目标遮挡情况,增强遮挡正样本;最后,利用判别网络,根据第二、三卷积层遮挡特征样本的融合对特征属于目标还是背景进行区分,最终实现遮挡情况下的目标跟踪。本方法适用于视频监控、人机交互及无人驾驶等领域,对运动目标进行精确跟踪。
-
公开(公告)号:CN107657627B
公开(公告)日:2021-07-30
申请号:CN201710733989.0
申请日:2017-08-24
申请人: 北京理工大学
摘要: 本发明公开了一种基于人脑记忆机制的时空上下文目标跟踪方法。该方法将人脑记忆机制的视觉信息处理认知模型引入到STC方法的时空关系模型更新过程,使得每个模板都要经过瞬时记忆、短时记忆和长时记忆三个空间的传输和处理,形成基于记忆的模型更新策略。通过记忆先前出现的场景,使得该方法在当前目标发生光照变化、姿态突变、遮挡、短暂消失后重现等问题时依然能持续鲁棒的跟踪。此外,在根据时空上下文信息计算置信图时,设置N个目标中心位置候选点,从中选取与目标模板相似度最大的目标中心位置作为最终跟踪结果,从而减少了置信图引起的误差,提高了跟踪精度。最终,形成一种精度高、鲁棒性强的运动目标跟踪方法。
-
公开(公告)号:CN110276776B
公开(公告)日:2021-06-15
申请号:CN201910521356.2
申请日:2019-06-17
申请人: 北京博睿维讯科技有限公司 , 北京理工大学
摘要: 本发明公开的是一种基于SPCNN的自适应目标检测方法,属于计算机视觉技术领域。本发明实现方法为:计算图像静态属性参数;根据斯蒂文斯定律推导出理论公式,计算阈值衰减时间常数αe,使阈值衰减时间常数αe能够根据目标图像的整体灰度特征自适应设定;基于自适应侧抑制机制,利用双曲正切函数对抑制系数计算模型进行改进,用抑制系数计算模型计算每个像素点的链接权值矩阵;将图像输入参数自适应设置完好的SPCNN中,不断迭代并产生二值化分割结果,提取候选目标;基于神经元同步中的快速连接机制,结合灰度图像准则,通过计算相邻迭代分割结果的相似度并寻找相似度极大值实现最佳分割结果的自动输出,同时自动控制迭代,提高目标检测方法的效率和智能化。
-
公开(公告)号:CN106251344B
公开(公告)日:2019-02-01
申请号:CN201610595943.2
申请日:2016-07-26
申请人: 北京理工大学
IPC分类号: G06T7/13
摘要: 本发明公开的一种基于视觉感受野的多尺度红外目标自适应检测方法,涉及多尺度红外目标自适应检测方法,属于计算机视觉技术领域。本发明利用边缘检测器计算差分算子计算出图像的梯度方向θ,得到各像素点的朝向信息分布图;根据红外图像中局部特征相似的背景信息进行局部背景预测;利用简单细胞感受野的数学模型Gabor滤波器对目标图像进行滤波处理,初步检测出目标,其中Gabor滤波器的方向参数θ由各像素点的朝向信息分布自适应确定;通过对各像素点灰度调节得到背景被抑制、目标被增强的图像,提高检测精度。本发明能够提高红外目标检测方法的鲁棒性、抗干扰能力及对不同尺度目标的适用性,且运算量小。
-
公开(公告)号:CN105320823B
公开(公告)日:2018-02-16
申请号:CN201510894007.7
申请日:2015-12-08
申请人: 北京理工大学
IPC分类号: G06F17/50
摘要: 本发明属于人体通信技术领域,具体涉及一种基于电流耦合型IBC的信息交互建模方法及其装置。该方法首先,对基于电流耦合型IBC的信息交互通道进行电路建模,形成总体电路模型。其次,依据所提出的总体电路模型,对肢体接触所导致的接触阻抗进行电路建模。而后,结合总体电路模型,形成基于电流耦合型IBC的信息交互完整电路模型。最后,基于所建立的完整电路模型,经电路分析获得基于电流耦合型IBC的信息交互数学模型。对比现有技术,本发明为基于电流耦合型IBC的信息交互提供了安全保障,为基于电流耦合型IBC的信息交互装置的设计提供了系统设计依据,解决了两个生物体与电子装置之间的几何建模、电路建模和数学建模问题,为相关研究与设计提供借鉴。
-
公开(公告)号:CN107657627A
公开(公告)日:2018-02-02
申请号:CN201710733989.0
申请日:2017-08-24
申请人: 北京理工大学
CPC分类号: G06T7/248 , G06T7/262 , G06T7/277 , G06T2207/10016 , G06T2207/20076
摘要: 本发明公开了一种基于人脑记忆机制的时空上下文目标跟踪方法。该方法将人脑记忆机制的视觉信息处理认知模型引入到STC方法的时空关系模型更新过程,使得每个模板都要经过瞬时记忆、短时记忆和长时记忆三个空间的传输和处理,形成基于记忆的模型更新策略。通过记忆先前出现的场景,使得该方法在当前目标发生光照变化、姿态突变、遮挡、短暂消失后重现等问题时依然能持续鲁棒的跟踪。此外,在根据时空上下文信息计算置信图时,设置N个目标中心位置候选点,从中选取与目标模板相似度最大的目标中心位置作为最终跟踪结果,从而减少了置信图引起的误差,提高了跟踪精度。最终,形成一种精度高、鲁棒性强的运动目标跟踪方法。
-
公开(公告)号:CN106251344A
公开(公告)日:2016-12-21
申请号:CN201610595943.2
申请日:2016-07-26
申请人: 北京理工大学
IPC分类号: G06T7/00
CPC分类号: G06T2207/10048 , G06T2207/20004 , G06T2207/20024 , G06T2207/20228
摘要: 本发明公开的一种基于视觉感受野的多尺度红外目标自适应检测方法,涉及多尺度红外目标自适应检测方法,属于计算机视觉技术领域。本发明利用边缘检测器计算差分算子计算出图像的梯度方向θ,得到各像素点的朝向信息分布图;根据红外图像中局部特征相似的背景信息进行局部背景预测;利用简单细胞感受野的数学模型Gabor滤波器对目标图像进行滤波处理,初步检测出目标,其中Gabor滤波器的方向参数θ由各像素点的朝向信息分布自适应确定;通过对各像素点灰度调节得到背景被抑制、目标被增强的图像,提高检测精度。本发明能够提高红外目标检测方法的鲁棒性、抗干扰能力及对不同尺度目标的适用性,且运算量小。
-
公开(公告)号:CN105320823A
公开(公告)日:2016-02-10
申请号:CN201510894007.7
申请日:2015-12-08
申请人: 北京理工大学
IPC分类号: G06F17/50
摘要: 本发明属于人体通信技术领域,具体涉及一种基于电流耦合型IBC的信息交互建模方法及其装置。该方法首先,对基于电流耦合型IBC的信息交互通道进行电路建模,形成总体电路模型。其次,依据所提出的总体电路模型,对肢体接触所导致的接触阻抗进行电路建模。而后,结合总体电路模型,形成基于电流耦合型IBC的信息交互完整电路模型。最后,基于所建立的完整电路模型,经电路分析获得基于电流耦合型IBC的信息交互数学模型。对比现有技术,本发明为基于电流耦合型IBC的信息交互提供了安全保障,为基于电流耦合型IBC的信息交互装置的设计提供了系统设计依据,解决了两个生物体与电子装置之间的几何建模、电路建模和数学建模问题,为相关研究与设计提供借鉴。
-
公开(公告)号:CN105025233A
公开(公告)日:2015-11-04
申请号:CN201510416106.4
申请日:2015-07-15
申请人: 北京理工大学
摘要: 本发明公开的一种随机信号读取的压缩感知实现方法及装置,涉及基于CMOS图像传感器随机信号读取的压缩感知实现方法及装置,属于光电技术领域。本发明包括如下步骤:在FPGA模块中产生M个随机矩阵;CMOS成像模块进行光电成像;将本次输出的特定位置的像素值进行累加,并将累加像素值存储;重复步骤二、三,控制输出读取CMOS成像模块内的特定位置的像素值,并进行累加、存储,直至在存储器模块内获得M个累加像素值;基于M个累加像素值及其对应的M个随机矩阵,利用压缩感知重建算法实现图像的重建,进而得到所需的成像图像。本发明还公开一种随机信号读取的压缩感知实现装置。本发明具有微小型化、低功耗、低成本易实现的优点。
-
公开(公告)号:CN110111302B
公开(公告)日:2021-03-05
申请号:CN201910242608.8
申请日:2019-03-28
申请人: 北京博睿维讯科技有限公司 , 北京理工大学
摘要: 本发明涉及一种背景杂波度量方法,具体涉及一种基于多方向差异Hash算法的背景杂波度量方法,属于计算机视觉领域关键技术之一。本发明提出一种基于多方向差异Hash算法的背景杂波度量方法,该方法利用多方向差异Hash算法表征目标图像与背景图像的相似度,进而得到整幅图像的基于多方向差异Hash算法的图像背景杂波尺度,整个过程不存在阈值选择问题,计算结果唯一,同时,利用本发明公开的一种基于多方向差异Hash算法的背景杂波度量方法对Search_2数据库进行实验,结果表明所公开的方法具有较高的目标获取性能的预测精度。
-
-
-
-
-
-
-
-
-