遮挡状况下的行人再识别方法
    1.
    发明公开

    公开(公告)号:CN117333900A

    公开(公告)日:2024-01-02

    申请号:CN202311292854.7

    申请日:2023-10-08

    摘要: 本发明属于行人再识别技术领域,公开一种遮挡状况下的行人再识别方法。根据目标行人出现在图片中心的特点,本发明所提出的数据增广方法随机选择原始图片的某一非中心区域替换为其他行人图像块。在此基础上,一种基于信息流的非目标区域抑制损失被提出用于训练模型,以减少遮挡区域对最终匹配特征的干扰。本发明所提出的行人图像块混合数据增强技术可以模拟多样的非目标行人遮挡情况,扩充了训练数据,进而增强了模型对于未知遮挡的鲁棒性;所提出的基于信息流的非目标区域抑制损失减小了非目标区域向最终特征的信息流动,从而减少了遮挡引入的噪声;所提出的数据增广方法以及损失函数,适用于多种网络结构并不增加推理阶段的计算量。

    一种运动信息辅助的视觉单目标跟踪方法

    公开(公告)号:CN116309683A

    公开(公告)日:2023-06-23

    申请号:CN202211532172.4

    申请日:2022-12-01

    摘要: 本发明属于机器学习、视觉目标跟踪领域,提供了一种运动信息辅助的视觉单目标跟踪方法。本发明分别对跟踪过程中的相机运动和目标运动进行建模。对于相机运动建模方法,本发明使用特征点匹配算法计算出相邻帧间变换矩阵,并给出由相机运动导致的目标偏移量。对于目标运动建模方法,本发明使用卷积‑长短时记忆网络通过目标历史运动信息,估计目标未来的速度和位置。本发明在引入运动信息进行辅助跟踪后,可以显著提高跟踪算法应对光照变化,遮挡等挑战的能力,提升跟踪算法鲁棒性,并且具有较低的计算量,能够达到实时跟踪需求。

    视频行人重识别的方法
    4.
    发明公开

    公开(公告)号:CN114202739A

    公开(公告)日:2022-03-18

    申请号:CN202111483319.0

    申请日:2021-12-07

    摘要: 本发明属于视频行人重识别技术领域,提供了一种视频行人重识别的方法。本发明使用Transformer结构提取多视角特征来解决视频行人重识别任务。视频行人重识别目的是实现行人序列图片的跨摄像头匹配。本发明提出使用三叉网络分别获取行人视频的空间视角,时序视角和时空视角,以此获得在不同特征域的多视角观察。在单一的视角特征域内使用Transformer挖掘单视角特征关系,并优化视角特征。在跨视角特征域间使用Transformer探索多视角特征关系,并融合多视角信息得到更充分的特征表示。本发明可以提取行人视频更鲁棒、更具判别力的特征表示,能够实现更高精度的行人视频实例匹配。