基于轮廓估计的无锚框目标跟踪方法

    公开(公告)号:CN113379799B

    公开(公告)日:2022-06-07

    申请号:CN202110618481.2

    申请日:2021-06-03

    Applicant: 武汉大学

    Abstract: 本发明公开了一种基于轮廓估计的无锚框目标跟踪方法。本发明提出的轮廓估计网络无需根据先验知识预先设置锚框,就能够直接求解出目标对象大致的外形轮廓,相较于矩形框,目标外形轮廓能够更加精确地描述目标状态;本发明还使用轮廓估计网络求解出的目标外形轮廓来更新目标模板特征,减少了目标模板特征中的背景信息,为后续的信息嵌入提供了更加精确的目标信息。在光照变化、运动模糊、平面内旋转和目标超出视角等极端的环境下,本发明方法依旧能够保持较高的精度。

    基于交并比估计的空间注意力强化学习跟踪方法

    公开(公告)号:CN113205544B

    公开(公告)日:2022-04-29

    申请号:CN202110457606.8

    申请日:2021-04-27

    Applicant: 武汉大学

    Abstract: 本发明公开了一种基于交并比估计的空间注意力强化学习跟踪方法,本发明提出在深度强化学习跟踪算法的基础上,利用交并比估计深度网络模块实现对目标物体的边框估计;提出引入物体分割深度网络来实现可变形空间注意力,相比经典基于颜色特征的空间注意力生方法更加精确;在注意力生成方法中,本发明提出利用物体分割结合一定先验知识的思想来生成目标物体的空间注意力。本发明对所提出基于交并比估计的空间注意力强化学习跟踪算法进行了实现,并且在OTB2013、OTB50、OTB100、UAV123和VOT2019这五个数据集上进行了验证。在这五个数据集上大量的实验表明,在跟踪精度上,本发明所提出的算法达到了先进水平。

    基于轮廓估计的无锚框目标跟踪方法

    公开(公告)号:CN113379799A

    公开(公告)日:2021-09-10

    申请号:CN202110618481.2

    申请日:2021-06-03

    Applicant: 武汉大学

    Abstract: 本发明公开了一种基于轮廓估计的无锚框目标跟踪方法。本发明提出的轮廓估计网络无需根据先验知识预先设置锚框,就能够直接求解出目标对象大致的外形轮廓,相较于矩形框,目标外形轮廓能够更加精确地描述目标状态;本发明还使用轮廓估计网络求解出的目标外形轮廓来更新目标模板特征,减少了目标模板特征中的背景信息,为后续的信息嵌入提供了更加精确的目标信息。在光照变化、运动模糊、平面内旋转和目标超出视角等极端的环境下,本发明方法依旧能够保持较高的精度。

    基于在线多特征选择的通道注意力目标跟踪方法

    公开(公告)号:CN112288772A

    公开(公告)日:2021-01-29

    申请号:CN202011098314.1

    申请日:2020-10-14

    Applicant: 武汉大学

    Abstract: 本发明公开了一种基于在线多特征选择的通道注意力目标跟踪方法。本发明对不同深度的特征根据跟踪目标的尺寸进行在线选择,并加入通道注意力机制来强化每层特征通道之间的相互依赖性,本发明还设计了一种新颖的体系结构单元,即“Cropping‑inside和Squeeze‑excitation Residual”(CSR)单元,它消除了填充的影响,并通过增强卷积特征通道之间的相互依赖性来提高网络的表示质量,通过堆叠CSR单元构建自裁剪和挤压激发残差网络(CSResNet)。在光照变化、尺度变化、遮挡、背景模糊和形变等极端的跟踪环境下,本发明方法依旧能保持较高的精度。

    一种基于外观多样性的生成对抗孪生网络目标跟踪方法

    公开(公告)号:CN110415271B

    公开(公告)日:2022-06-07

    申请号:CN201910571450.9

    申请日:2019-06-28

    Applicant: 武汉大学

    Abstract: 本发明公开了一种基于外观多样性的生成对抗孪生网络目标跟踪方法,针对目标视频序列,在第一帧中给定目标初始状态,在后面的视频序列中估计目标的状态;首先针对第t帧,进行局部特征提取作为搜索区域;其中1<t≤N,N为目标视频序列总帧数;然后将第t‑1帧中的目标模板与第t帧中提取的搜索区域进行滑动匹配,获得目标新的位置;最后根据目标新的位置和当前帧进行目标模板更新,将新的模板作为下一帧跟踪的目标模板。本发明有效的提高了跟踪器在面对目标外观变化时的鲁棒性,取得了较好的跟踪效果。

    基于沙漏胶囊网络的双注意力人脸对齐方法

    公开(公告)号:CN112417991A

    公开(公告)日:2021-02-26

    申请号:CN202011202209.8

    申请日:2020-11-02

    Applicant: 武汉大学

    Abstract: 本发明公开了一种基于沙漏胶囊网络的双注意力人脸对齐方法。本发明提出的沙漏胶囊网络确保网络在提取人脸图片中多尺度特征的同时更好的捕获人脸特征点间的空间位置关系,对人脸特征点的空间位置关系进行建模,增强算法在部分遮挡情况下的鲁棒性;本发明还设计了两个新颖的注意力机制,即胶囊注意力机制和空间注意力机制,使网络更加关注有助于人脸特征点定位的特征,同时抑制其他不相关特征,增强了网络的表达能力。在部分遮挡、表情夸张、光照变化等极端的环境下,本发明方法依旧能够保持较高的精度。

    一种基于外观多样性的生成对抗孪生网络目标跟踪方法

    公开(公告)号:CN110415271A

    公开(公告)日:2019-11-05

    申请号:CN201910571450.9

    申请日:2019-06-28

    Applicant: 武汉大学

    Abstract: 本发明公开了一种基于外观多样性的生成对抗孪生网络目标跟踪方法,针对目标视频序列,在第一帧中给定目标初始状态,在后面的视频序列中估计目标的状态;首先针对第t帧,进行局部特征提取作为搜索区域;其中1<t≤N,N为目标视频序列总帧数;然后将第t-1帧中的目标模板与第t帧中提取的搜索区域进行滑动匹配,获得目标新的位置;最后根据目标新的位置和当前帧进行目标模板更新,将新的模板作为下一帧跟踪的目标模板。本发明有效的提高了跟踪器在面对目标外观变化时的鲁棒性,取得了较好的跟踪效果。

    基于交并比估计的空间注意力强化学习跟踪方法

    公开(公告)号:CN113205544A

    公开(公告)日:2021-08-03

    申请号:CN202110457606.8

    申请日:2021-04-27

    Applicant: 武汉大学

    Abstract: 本发明公开了一种基于交并比估计的空间注意力强化学习跟踪方法,本发明提出在深度强化学习跟踪算法的基础上,利用交并比估计深度网络模块实现对目标物体的边框估计;提出引入物体分割深度网络来实现可变形空间注意力,相比经典基于颜色特征的空间注意力生方法更加精确;在注意力生成方法中,本发明提出利用物体分割结合一定先验知识的思想来生成目标物体的空间注意力。本发明对所提出基于交并比估计的空间注意力强化学习跟踪算法进行了实现,并且在OTB2013、OTB50、OTB100、UAV123和VOT2019这五个数据集上进行了验证。在这五个数据集上大量的实验表明,在跟踪精度上,本发明所提出的算法达到了先进水平。

    基于沙漏胶囊网络的双注意力人脸对齐方法

    公开(公告)号:CN112417991B

    公开(公告)日:2022-04-29

    申请号:CN202011202209.8

    申请日:2020-11-02

    Applicant: 武汉大学

    Abstract: 本发明公开了一种基于沙漏胶囊网络的双注意力人脸对齐方法。本发明提出的沙漏胶囊网络确保网络在提取人脸图片中多尺度特征的同时更好的捕获人脸特征点间的空间位置关系,对人脸特征点的空间位置关系进行建模,增强算法在部分遮挡情况下的鲁棒性;本发明还设计了两个新颖的注意力机制,即胶囊注意力机制和空间注意力机制,使网络更加关注有助于人脸特征点定位的特征,同时抑制其他不相关特征,增强了网络的表达能力。在部分遮挡、表情夸张、光照变化等极端的环境下,本发明方法依旧能够保持较高的精度。

    基于在线多特征选择的通道注意力目标跟踪方法

    公开(公告)号:CN112288772B

    公开(公告)日:2022-06-07

    申请号:CN202011098314.1

    申请日:2020-10-14

    Applicant: 武汉大学

    Abstract: 本发明公开了一种基于在线多特征选择的通道注意力目标跟踪方法。本发明对不同深度的特征根据跟踪目标的尺寸进行在线选择,并加入通道注意力机制来强化每层特征通道之间的相互依赖性,本发明还设计了一种新颖的体系结构单元,即“Cropping‑inside和Squeeze‑excitation Residual”(CSR)单元,它消除了填充的影响,并通过增强卷积特征通道之间的相互依赖性来提高网络的表示质量,通过堆叠CSR单元构建自裁剪和挤压激发残差网络(CSResNet)。在光照变化、尺度变化、遮挡、背景模糊和形变等极端的跟踪环境下,本发明方法依旧能保持较高的精度。

Patent Agency Ranking