-
-
公开(公告)号:CN112613356A
公开(公告)日:2021-04-06
申请号:CN202011417147.2
申请日:2020-12-07
申请人: 北京理工大学
摘要: 本发明提供一种基于深度注意力融合网络的动作检测方法及装置,所述方法包括获取待检测视频;提取一个帧序列的初始特征;将所述初始特征输入残差通道‑空间注意力模块;所述初始特征经所述残差通道‑空间注意力模块处理,输出注意力机制调制后的特征;对所述注意力机制调制后的特征进行分层融合和迭代融合,得到融合特征;将所述融合特征的映射依次送入中心检测分支、位移检测分支、框检测分支处理,获得若干帧级检测窗口;基于ACT时间链接算法将所述若干帧级检测窗口连接成时空动作管道。根据本发明的方案,从通道和空间两个维度增强提取的初始特征,输出的特征不仅具有高级语义信息,也保留了低层次的空间信息。
-
-
公开(公告)号:CN112613356B
公开(公告)日:2023-01-10
申请号:CN202011417147.2
申请日:2020-12-07
申请人: 北京理工大学
摘要: 本发明提供一种基于深度注意力融合网络的动作检测方法及装置,所述方法包括获取待检测视频;提取一个帧序列的初始特征;将所述初始特征输入残差通道‑空间注意力模块;所述初始特征经所述残差通道‑空间注意力模块处理,输出注意力机制调制后的特征;对所述注意力机制调制后的特征进行分层融合和迭代融合,得到融合特征;将所述融合特征的映射依次送入中心检测分支、位移检测分支、框检测分支处理,获得若干帧级检测窗口;基于ACT时间链接算法将所述若干帧级检测窗口连接成时空动作管道。根据本发明的方案,从通道和空间两个维度增强提取的初始特征,输出的特征不仅具有高级语义信息,也保留了低层次的空间信息。
-
公开(公告)号:CN112613349B
公开(公告)日:2023-01-10
申请号:CN202011402943.9
申请日:2020-12-04
申请人: 北京理工大学
摘要: 本发明提供一种基于深度混合卷积神经网络的时序动作检测方法及装置,所述方法包括获取待检测视频;将视频输入训练好的深度混合卷积神经网络,所述深度混合卷积神经网络模型包括特征编码模块、第一子网及第二子网;所述特征编码模块通过双流网络从原始视频数据中提取片段特征,所述第一子网基于所述特征编码模块提取的片段特征,获得一组提议特征,所述第二子网接收所述提议特征,基于所述提议特征之间的关系构建图,将构建的图输入GCN模型,扩大提议特征的接受区域;输出所述待检测视频的动作类别与动作起始、终止时间。根据本发明的方案,有效利用提议之间的关系,提高了时序动作检测的准确率,有效解决了时序动作检测。
-
公开(公告)号:CN112613349A
公开(公告)日:2021-04-06
申请号:CN202011402943.9
申请日:2020-12-04
申请人: 北京理工大学
摘要: 本发明提供一种基于深度混合卷积神经网络的时序动作检测方法及装置,所述方法包括获取待检测视频;将视频输入训练好的深度混合卷积神经网络,所述深度混合卷积神经网络模型包括特征编码模块、第一子网及第二子网;所述特征编码模块通过双流网络从原始视频数据中提取片段特征,所述第一子网基于所述特征编码模块提取的片段特征,获得一组提议特征,所述第二子网接收所述提议特征,基于所述提议特征之间的关系构建图,将构建的图输入GCN模型,扩大提议特征的接受区域;输出所述待检测视频的动作类别与动作起始、终止时间。根据本发明的方案,有效利用提议之间的关系,提高了时序动作检测的准确率,有效解决了时序动作检测。
-
公开(公告)号:CN111474538A
公开(公告)日:2020-07-31
申请号:CN202010349294.4
申请日:2020-04-28
申请人: 北京理工大学
摘要: 本发明提供一种基于模糊逻辑推理的目标分类方法,只需获取雷达当前测量的目标的速度、目标的高度以及目标的雷达散射截面积均值,即可通过求取三者对各等级的隶属度,再将隶属度与模糊关系作模糊运算,得到模糊集合后再进行反模糊化,得到目标分类结果,进而能够在密集杂波情况下对空中多个机动目标进行目标识别。
-
-
-
-
-
-