基于边界框回归模型的目标跟踪方法

    公开(公告)号:CN112053384A

    公开(公告)日:2020-12-08

    申请号:CN202010883760.7

    申请日:2020-08-28

    IPC分类号: G06T7/246 G06T7/73 G06T5/00

    摘要: 本发明公开了一种基于边界框回归的目标跟踪方法,主要解决因传统的相关滤波器预测的目标区域不准确的问题,本发明实现的步骤如下:计算连续分辨率的空间特征图;计算相关滤波器;构建边界框回归模型;回归预测的目标位置;将调整后的目标区域位置作为对于目标跟踪的结果;判断当前帧视频图像是否为待跟踪视频图像序列的最后一帧图像,若是,则执行下一步,否则,用下一帧从头开始执行;结束对待跟踪目标的跟踪。本发明通过构造边界框回归行,更准确地预测了目标区域的位置信息,也通过三次线性插值的方式丰富了神经网络对目标区域提取到的特征,最终实现了准确的目标跟踪。

    基于生成对抗网络的半监督图像分类方法

    公开(公告)号:CN112052893A

    公开(公告)日:2020-12-08

    申请号:CN202010904002.9

    申请日:2020-09-01

    摘要: 本发明公开了一种基于生成对抗网络的半监督图像分类方法,用于解决现有技术中存在的因网络提取的特征缺乏辨识度与多样性导致的分类精度较低的技术问题,实现步骤为:获取训练样本集和测试样本集;搭建生成对抗网络模型;对生成对抗网络模型进行迭代训练;获取半监督图像分类结果。本发明利用特征金字塔网络融合不同层级提取到的特征,通过生成对抗网络的博弈过程提高模型的分类能力,增加了特征的辨识度与多样性,能够更丰富的表征分类图像的类间特征,提高了图像分类精度,并能够在只含有少量精确标注样本的样本集上获得很好的图像分类效果,可用于实际场景中目标分类。

    基于生成对抗网络局部聚合编码半监督的图像分类方法

    公开(公告)号:CN111832650A

    公开(公告)日:2020-10-27

    申请号:CN202010672056.7

    申请日:2020-07-14

    IPC分类号: G06K9/62 G06N3/04 G06N3/08

    摘要: 本发明公开了一种基于生成对抗网络局部聚合编码半监督的图像分类方法,具体实现步骤为:(1)生成训练集;(2)构建生成器网络;(3)训练生成器网络;(4)构建局部聚合编码半监督分类网络;(5)训练局部聚合编码半监督分类网络;(6)判断局部聚合编码半监督分类网络的当前损失值是否接近0.5,若是,执行步骤(7),否则,执行步骤(3);(7)得到生成对抗网络;(8)对待分类图像进行分类。本发明通过构建局部聚合编码半监督分类网络,降低了网络复杂度,提高了对类别间特征的辨识度,能够在只含有少量精确标注样本的样本集上获得很好的分类效果。

    基于深度卷积特征自适应集成的目标跟踪方法

    公开(公告)号:CN112053386A

    公开(公告)日:2020-12-08

    申请号:CN202010896617.1

    申请日:2020-08-31

    摘要: 本发明公开一种基于深度卷积特征自适应集成的目标跟踪方法,其步骤如下:提取深度卷积特征;计算核相关滤波器;使用集成矢量更新公式更新当前帧的集成矢量;利用自适应集成计算公式预测当前帧图像的目标位置;使用深度卷积特征更新公式,更新当前帧的深度卷积特征;将选完含有待跟踪目标视频图像序列迭代终止时当前帧的目标中心位置作为待跟踪目标的中心位置。本发明通过集成特征,克服了现有技术存在的跟踪器不能充分利用不同通道目标特征包含的信息,使得本发明在目标跟踪过程中更加准确地获取待跟踪目标位置,增强了目标跟踪的准确性和可靠性。

    基于深度卷积特征自适应集成的目标跟踪方法

    公开(公告)号:CN112053386B

    公开(公告)日:2023-04-18

    申请号:CN202010896617.1

    申请日:2020-08-31

    摘要: 本发明公开一种基于深度卷积特征自适应集成的目标跟踪方法,其步骤如下:提取深度卷积特征;计算核相关滤波器;使用集成矢量更新公式更新当前帧的集成矢量;利用自适应集成计算公式预测当前帧图像的目标位置;使用深度卷积特征更新公式,更新当前帧的深度卷积特征;将选完含有待跟踪目标视频图像序列迭代终止时当前帧的目标中心位置作为待跟踪目标的中心位置。本发明通过集成特征,克服了现有技术存在的跟踪器不能充分利用不同通道目标特征包含的信息,使得本发明在目标跟踪过程中更加准确地获取待跟踪目标位置,增强了目标跟踪的准确性和可靠性。

    基于边界框回归模型的目标跟踪方法

    公开(公告)号:CN112053384B

    公开(公告)日:2022-12-02

    申请号:CN202010883760.7

    申请日:2020-08-28

    IPC分类号: G06T7/246 G06T7/73 G06T5/00

    摘要: 本发明公开了一种基于边界框回归的目标跟踪方法,主要解决因传统的相关滤波器预测的目标区域不准确的问题,本发明实现的步骤如下:计算连续分辨率的空间特征图;计算相关滤波器;构建边界框回归模型;回归预测的目标位置;将调整后的目标区域位置作为对于目标跟踪的结果;判断当前帧视频图像是否为待跟踪视频图像序列的最后一帧图像,若是,则执行下一步,否则,用下一帧从头开始执行;结束对待跟踪目标的跟踪。本发明通过构造边界框回归行,更准确地预测了目标区域的位置信息,也通过三次线性插值的方式丰富了神经网络对目标区域提取到的特征,最终实现了准确的目标跟踪。