-
公开(公告)号:CN111310633A
公开(公告)日:2020-06-19
申请号:CN202010084877.9
申请日:2020-02-10
Applicant: 江南大学
Abstract: 基于视频的并行时空注意力行人重识别方法,属于计算机视觉领域。本发明提出的并行时空网络模型,能够同时提取行人的时序特征和空间特征,显著减少了行人信息的损失。此外为获取更具有辨识性的时序特征,本发明提出了全局时序注意力模块,同时为获取更具有辨识性的空间特征本发明引入了空间卷积注意力模块。全局时序注意力模块能够选择出辨识性更强的视频帧,同时空间卷积注意力模块能够对显著性区域进行特征提取。最终本发明使用特征融合的方法对时序特征和空间特征进行联合,从而获得更加完整的行人特征用于行人的重识别,极大提高了行人重识别模型的鲁棒性。
-
公开(公告)号:CN111310633B
公开(公告)日:2023-05-05
申请号:CN202010084877.9
申请日:2020-02-10
Applicant: 江南大学
IPC: G06V40/10 , G06V20/52 , G06V20/40 , G06V10/764 , G06V10/774 , G06V10/80 , G06V10/82
Abstract: 基于视频的并行时空注意力行人重识别方法,属于计算机视觉领域。本发明提出的并行时空网络模型,能够同时提取行人的时序特征和空间特征,显著减少了行人信息的损失。此外为获取更具有辨识性的时序特征,本发明提出了全局时序注意力模块,同时为获取更具有辨识性的空间特征本发明引入了空间卷积注意力模块。全局时序注意力模块能够选择出辨识性更强的视频帧,同时空间卷积注意力模块能够对显著性区域进行特征提取。最终本发明使用特征融合的方法对时序特征和空间特征进行联合,从而获得更加完整的行人特征用于行人的重识别,极大提高了行人重识别模型的鲁棒性。
-