-
公开(公告)号:CN102063727B
公开(公告)日:2012-10-03
申请号:CN201110003293.5
申请日:2011-01-09
申请人: 北京理工大学
发明人: 马波
IPC分类号: G06T7/20
摘要: 本发明涉及一种基于协方差匹配的主动轮廓跟踪方法,属于视觉跟踪技术领域。一种基于协方差匹配的主动轮廓跟踪方法,利用非欧氏几何建模图像区域能量项。在第一帧,手动初始化包围目标的曲线,为曲线包围的区域建立协方差矩阵作为目标轮廓的模板;在获得了目标的轮廓之后,记录模板的水平集函数值为先验形状做准备并计算模板的符号化距离函数;从下一帧图像开始,由上一帧的结果,根据建立的能量泛函推导出梯度下降流,然后更新水平集函数;检测迭代是否终止。本发明的跟踪结果更加准确,同时以协方差矩阵作为区域描绘子,综合考虑了图像序列中的各种信息及彼此之间的相关性,不依赖于前、背景信息的分布,使跟踪方法更具有普适性。
-
公开(公告)号:CN115147656A
公开(公告)日:2022-10-04
申请号:CN202210819142.5
申请日:2022-07-12
申请人: 北京理工大学
IPC分类号: G06V10/764 , G06V10/82 , G06N3/08 , G06N3/04
摘要: 本发明公开了一种卷积神经网络图像识别分类决策的解释方法,首先将经特征图扰动的图像输入神经网络模型,通过分类输出层得到神经元激活值;然后,用所述神经元激活值除以所述特征图相对应的惩罚因子后,输入softmax层,得到目标类的分数,作为所述特征图的权重,最后,根据多张所述特征图的权重,得到解释图。本发明通过一个参数实现了根据需要放大/缩小特征图的平均值之间的差距,调节了softmax函数放大/缩小特征的重要程度,大大减少了计算量,并且该方法可根据使用者想要的标准生成热力图与解释图,具有非常好的适用性和非常高的解释可信度,此外,该方法可用于任何卷积神经网络,没有模型结构的限制。
-
公开(公告)号:CN102063727A
公开(公告)日:2011-05-18
申请号:CN201110003293.5
申请日:2011-01-09
申请人: 北京理工大学
发明人: 马波
IPC分类号: G06T7/20
摘要: 本发明涉及一种基于协方差匹配的主动轮廓跟踪方法,属于视觉跟踪技术领域。一种基于协方差匹配的主动轮廓跟踪方法,利用非欧氏几何建模图像区域能量项。在第一帧,手动初始化包围目标的曲线,为曲线包围的区域建立协方差矩阵作为目标轮廓的模板;在获得了目标的轮廓之后,记录模板的水平集函数值为先验形状做准备并计算模板的符号化距离函数;从下一帧图像开始,由上一帧的结果,根据建立的能量泛函推导出梯度下降流,然后更新水平集函数;检测迭代是否终止。本发明的跟踪结果更加准确,同时以协方差矩阵作为区域描绘子,综合考虑了图像序列中的各种信息及彼此之间的相关性,不依赖于前、背景信息的分布,使跟踪方法更具有普适性。
-
公开(公告)号:CN109740536B
公开(公告)日:2020-10-02
申请号:CN201910003726.3
申请日:2019-01-03
申请人: 北京理工大学
摘要: 本发明涉及一种基于特征融合神经网络的亲属识别方法,属于图像处理领域。包括如下步骤:步骤一、对数据集中的人脸图像进行预处理,得到预处理后的人脸图像;步骤二、构建正样本对和负样本对;步骤三、生成对应的正样本对标签和负样本对标签;步骤四、分别对正样本对、负样本对以及正样本对标签和负样本对标签进行分割,生成训练集和测试集;步骤五、生成网络输入的训练数据和测试数据;步骤六、将步骤五生成的训练数据分批输入神经网络进行T轮迭代训练,并保存训练好的网络参数,输出训练好的神经网络;步骤七、经训练好的神经网络进行测试。所述方法学习不同特征之间的互补性和差异性,提高了特征的鲁棒性。
-
公开(公告)号:CN109740536A
公开(公告)日:2019-05-10
申请号:CN201910003726.3
申请日:2019-01-03
申请人: 北京理工大学
摘要: 本发明涉及一种基于特征融合神经网络的亲属识别方法,属于图像处理领域。包括如下步骤:步骤一、对数据集中的人脸图像进行预处理,得到预处理后的人脸图像;步骤二、构建正样本对和负样本对;步骤三、生成对应的正样本对标签和负样本对标签;步骤四、分别对正样本对、负样本对以及正样本对标签和负样本对标签进行分割,生成训练集和测试集;步骤五、生成网络输入的训练数据和测试数据;步骤六、将步骤五生成的训练数据分批输入神经网络进行T轮迭代训练,并保存训练好的网络参数,输出训练好的神经网络;步骤七、经训练好的神经网络进行测试。所述方法学习不同特征之间的互补性和差异性,提高了特征的鲁棒性。
-
公开(公告)号:CN102074021A
公开(公告)日:2011-05-25
申请号:CN201110002600.8
申请日:2011-01-07
申请人: 北京理工大学
发明人: 马波
IPC分类号: G06T7/20
摘要: 本发明涉及一种基于协方差匹配的核跟踪方法,属于视觉跟踪技术领域。基于协方差匹配的核跟踪方法,利用核函数控制图像中不同像素点对整体产生的影响,通过极小化目标函数,迭代产生每一帧图像目标区域的质心。在第一帧,手动或半自动初始化包围目标的曲线,为曲线包围的区域建立协方差矩阵作为目标轮廓的模板。从下一帧图像开始,由上一帧的结果,计算出中心点坐标,根据建立的能量泛函推导出的梯度下降流,迭代更新得到新的目标区域中心点坐标。检测迭代是否终止。本发明所提基于协方差匹配的核跟踪方法,同样以协方差作为区域描绘子,融合多种特征,受噪声、光照的影响程度更小,因此跟踪过程中迭代得到的质心更稳定。
-
公开(公告)号:CN117635979A
公开(公告)日:2024-03-01
申请号:CN202311260385.0
申请日:2023-09-27
申请人: 北京理工大学
摘要: 本发明涉及一种司法证据图像的目标匹配方法,属于计算机视觉与目标检测处理技术领域。本方法提出了基于空间的局部关系注意力机制和基于通道的局部关系注意力机制,实现了模型对全局特征的建模,减少了模型参数,优化了模型的特征提取能力。同时,提出了一种双分支自适应特征融合算法,利用双分支结构在不同核大小的卷积层上分别计算注意力值,再通过自适应特征融合算法生成最终注意力特征。本方法有效解决了司法证据图像由于光照变化、背景杂乱所带来的干扰,实现了司法证据目标语义特征对齐,克服了由于证据目标位置分散或拍摄视角等因素而导致的图像匹配性能降低,满足了司法案例场景的实际需求。
-
公开(公告)号:CN112949635B
公开(公告)日:2022-09-16
申请号:CN202110268913.1
申请日:2021-03-12
申请人: 北京理工大学
摘要: 本发明涉及一种基于特征增强和IoU感知的目标检测方法,属于计算机视觉目标检测领域。本方法利用RoI分类回归网络中卷积特征图的空间信息提高目标分类和定位的精度,利用注意力机制抑制RoI特征中的背景信息和增强RoI特征中的语义信息,利用IoU重打分策略增加类别得分和边界框置信度之间的相关性,保留高质量的边界框。本方法通过RoI分类回归分支网络,能有效利用特征图中的空间信息,有效提高了目标检测模型的分类和定位能力;通过边界框级别的语义分割分支网络和注意力机制,增强了RoI分类回归分支网络中的特征;通过IoU预测分支网络和使用预测IoU对类别得分进行重打分的策略,提高了目标的类别得分和边界框置信度之间的相关性,有效提高了边界框定位精度。
-
公开(公告)号:CN114743055A
公开(公告)日:2022-07-12
申请号:CN202210406278.3
申请日:2022-04-18
申请人: 北京理工大学
IPC分类号: G06V10/764 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
摘要: 本发明公开了一种使用分区决策机制提高图像分类准确率的方法,基于集成学习思想,使用分区决策机制,让模型针对图像不同区域进行识别,将多个识别结果汇总,进而推断出整张图像所属类别,提供了一种能够稳定、可靠地提高图像分类准确率的模型改进方法,且模型训练流程简单,提高卷积神经网络模型进行图像分类时的准确率,同时不为训练带来过大的额外运算开销。
-
公开(公告)号:CN114743029A
公开(公告)日:2022-07-12
申请号:CN202210394752.5
申请日:2022-04-14
申请人: 北京理工大学
IPC分类号: G06V10/74 , G06V30/19 , G06V20/00 , G06V10/40 , G06V30/10 , G06V30/18 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
摘要: 本发明提供了一种图像文本匹配的方法,包括:利用深度神经网络分别提取多尺度的图像特征和文本特征;利用自注意力机制方法计算多个尺度的全局相似性;进行节点级匹配和结构级匹配,利用结构级匹配结果计算多个尺度的局部相似性;根据计算出的多个尺度的全局相似性和局部相似性计算最终总相似性;进行监督学习模型训练,根据损失函数更新模型参数,得到训练后的模型;利用训练后的模型计算输入图像和文本的最终总相似性,根据最终总相似性大小得到匹配的文本或图像。本发明可以在网络训练完成的前提下更快速地找出匹配的图像或文本;利用原始数据的多尺度特征以及更全面的相似性度量方法得到更准确的结果。
-
-
-
-
-
-
-
-
-