-
公开(公告)号:CN106909938B
公开(公告)日:2020-02-21
申请号:CN201710082263.5
申请日:2017-02-16
Applicant: 青岛科技大学
Abstract: 本发明提出一种基于深度学习网络的视角无关性行为识别方法,包括以下步骤:将某一视角下的视频帧图像录入,采用深度学习的方式进行底层特征提取和加工;对得到的底层特征进行建模,按时间顺序得到立方体模型;将所有视角的立方体模型转化为一个视角不变的柱体特征空间映射,后将其输入到分类器中进行训练,得到视频行为视角无关性分类器。本发明的技术方案采用深度学习网络对多视角下的人体行为进行分析,提升了分类模型的鲁棒性;尤其适合基于大数据进行训练、学习,能够很好地发挥出其的优点。
-
公开(公告)号:CN106909938A
公开(公告)日:2017-06-30
申请号:CN201710082263.5
申请日:2017-02-16
Applicant: 青岛科技大学
Abstract: 本发明提出一种基于深度学习网络的视角无关性行为识别方法,包括以下步骤:将某一视角下的视频帧图像录入,采用深度学习的方式进行底层特征提取和加工;对得到的底层特征进行建模,按时间顺序得到立方体模型;将所有视角的立方体模型转化为一个视角不变的柱体特征空间映射,后将其输入到分类器中进行训练,得到视频行为视角无关性分类器。本发明的技术方案采用深度学习网络对多视角下的人体行为进行分析,提升了分类模型的鲁棒性;尤其适合基于大数据进行训练、学习,能够很好地发挥出其的优点。
-
公开(公告)号:CN107122780A
公开(公告)日:2017-09-01
申请号:CN201710116534.4
申请日:2017-02-28
Applicant: 青岛科技大学
CPC classification number: G06K9/4642 , G06K9/6218
Abstract: 本发明提出一种基于时空特征点的互信息与时空分布熵的行为识别方法,其包括以下步骤:提取视频流时空中有效的时空特征点并构建描述符;对所有STIPs描述符进行聚类,将每个聚类中心作为视觉词典中的一个视觉单词;对得到视觉词典中的视觉单词两两之间的时空关系进行描述生成视觉词典共生矩阵;对每个视觉单词内的时空特征点的时空分布进行描述生成环形特征点直方图与时空分布熵;融合视觉单词、时空特征点共生矩阵、环形时空特征点直方图与时空分布熵三种信息作为一个视频序列的描述符,利用支持向量机SVM进行行为分类识别。该方案克服传统BOVW忽略了特征点之间的时空信息的缺点,兼顾了STIPs的全局时空信息与局部空间分布。
-
公开(公告)号:CN107122780B
公开(公告)日:2022-12-20
申请号:CN201710116534.4
申请日:2017-02-28
Applicant: 青岛科技大学
IPC: G06V40/20 , G06V10/77 , G06V10/50 , G06V10/772
Abstract: 本发明提出一种基于时空特征点的互信息与时空分布熵的行为识别方法,其包括以下步骤:提取视频流时空中有效的时空特征点并构建描述符;对所有STIPs描述符进行聚类,将每个聚类中心作为视觉词典中的一个视觉单词;对得到视觉词典中的视觉单词两两之间的时空关系进行描述生成视觉词典共生矩阵;对每个视觉单词内的时空特征点的时空分布进行描述生成环形特征点直方图与时空分布熵;融合视觉单词、时空特征点共生矩阵、环形时空特征点直方图与时空分布熵三种信息作为一个视频序列的描述符,利用支持向量机SVM进行行为分类识别。该方案克服传统BOVW忽略了特征点之间的时空信息的缺点,兼顾了STIPs的全局时空信息与局部空间分布。
-
-
-