基于多模态信息融合与决策优化的组群行为识别方法

    公开(公告)号:CN111339908A

    公开(公告)日:2020-06-26

    申请号:CN202010111024.X

    申请日:2020-02-24

    Abstract: 本发明公开一种基于多模态信息融合与决策优化的组群行为识别方法,首先针对待进行组群行为识别的视频,获取组群成员候选框序列,提取其对应的光流特征,并提取人体姿态分割特征作为第三重视觉线索;然后获取人体目标时空特征的双流模型并将其进行多模态信息融合(MMF);最后将经过MMF融合后得到的两条支路分别连接GRU,并采用基于自适应类别权重的多分类器融合方法进行决策优化,进而获得组群行为标签。本发明方案在特征融合时,设计MMF特征融合算法使得时空两路特征相辅相成,信息互为补充,最终获得更好的特征表示;在决策优化方面,设计基于自适应类别权重的多分类融合方法,对分类器取舍与各类别权重进行更加精确的计算,从而取得较高的识别精度。

    基于伪3D卷积神经网络的组群行为识别方法

    公开(公告)号:CN110378281A

    公开(公告)日:2019-10-25

    申请号:CN201910645623.7

    申请日:2019-07-17

    Abstract: 本发明公开一种基于伪3D卷积神经网络的组群行为识别方法,包括:(1)利用OpenPose姿态估计算法进行人体姿态估计与目标跟踪;(2)利用P3D ResNet(伪3D残差网络)提取每个人的时空特征,使用softmax分类器对时空特征进行分类,完成单人行为识别;(3)利用人体目标的位置信息和外观特征,构建人体目标交互图,并利用图卷积网络进行图推理和训练;(4)根据人体目标交互图进行组群行为识别。本方案基于P3D卷积网络提取特征,即减少了模型的参数又提高了识别精度,并结合人体目标的位置信息和外观特征,构建人体目标交互图以提高群组行为识别率,通过该技术,计算机可以实时判断公共区域中感兴趣人体目标的状态变化,进行自动人体行为识别,识别精度高,应用领域广。

    同类行为多视图间相似度挖掘方法及行为识别方法

    公开(公告)号:CN103310233A

    公开(公告)日:2013-09-18

    申请号:CN201310268884.4

    申请日:2013-06-28

    Abstract: 本发明公开了一种同类行为多视图间相似度挖掘方法及行为识别方法,所述行为识别方法基于所述相似度挖掘方法。所述相似度挖掘方法包括:对同类行为不同视图的视频流逐帧计算每帧灰度图像中每个像素点的Hessian矩阵响应的步骤;根据矩阵响应确定特征点的步骤;构建特征点的时空特征描述符、降维后获得姿态描述向量的步骤;以姿态描述向量为底层特征,计算相似度递归图矩阵的步骤;根据递归图矩阵获得递归性描述符的步骤以及对递归性描述符聚类的步骤。本发明通过时空特征点方法实现姿态建模,并通过递归图挖掘多视图间的递归相似度,避免了依赖于背景分割而容易导致人体姿态失真的问题,提高了相似度挖掘的精度及行为识别的鲁棒性。

    基于弱监督学习的视频时序行为检测方法

    公开(公告)号:CN114359790B

    公开(公告)日:2024-08-02

    申请号:CN202111534859.7

    申请日:2021-12-15

    Abstract: 本发明提出一种基于弱监督学习的视频时序行为检测方法,采用对抗思想,通过加入精细化分层对片段级的行为边界进行切分,减少时序检测下行为实例的冗余信息;采用GCN显式建模片段的相似关系,提出了类别片段融合的内外对比损失来监督视频特征的中间表示,通过增大前景与背景间的特征距离,减小相同类别间的特征距离来解决上下文混淆问题,阈值融合得到“行为提案”,实现行为实例结构上完整性与内容上独立性定位的目的;采用互补思想,针对视频信息在特征学习、关系推理过程中的丢失问题,本发明提出将全局节点加入到互补学习层,将学习后的特征根据时间的连续性进行级联与全局节点进行相似度量,保证视频信息的完整性及行为识别的准确性。

    基于EANN深度学习模型的暴力异常行为检测方法

    公开(公告)号:CN111062297B

    公开(公告)日:2023-05-23

    申请号:CN201911266994.0

    申请日:2019-12-11

    Abstract: 本发明提出一种基于EANN深度学习模型的暴力异常行为检测方法,包括(1)获得待检测视频,基于帧差法对视频中连续两帧进行差分,得到差分图像作为EANN模型的输入;(2)基于卷积神经网络Efficentnet提取图像空间特征;(3)基于ConvLSTM对步骤(2)中提取的空间特征进行连续时间上的编码,获得视频的局部时空特征;(4)针对步骤(3)所获得的时空特征,利用注意力机制对剧烈运动部分进行加强;(5)基于全连接层对步骤(4)的输出进行分类,得到该视频暴力异常行为的概率,进而实现对暴力异常行为的检测。本发明所提出的方法在保持精度损失很小的情况下,大幅度降低了参数量,提升网络运行速度;与传统方法相比,精度提升幅度明显,鲁棒性强,具有较高的实际应用及推广价值。

    基于弱监督学习的视频时序行为检测方法

    公开(公告)号:CN114359790A

    公开(公告)日:2022-04-15

    申请号:CN202111534859.7

    申请日:2021-12-15

    Abstract: 本发明提出一种基于弱监督学习的视频时序行为检测方法,采用对抗思想,通过加入精细化分层对片段级的行为边界进行切分,减少时序检测下行为实例的冗余信息;采用GCN显式建模片段的相似关系,提出了类别片段融合的内外对比损失来监督视频特征的中间表示,通过增大前景与背景间的特征距离,减小相同类别间的特征距离来解决上下文混淆问题,阈值融合得到“行为提案”,实现行为实例结构上完整性与内容上独立性定位的目的;采用互补思想,针对视频信息在特征学习、关系推理过程中的丢失问题,本发明提出将全局节点加入到互补学习层,将学习后的特征根据时间的连续性进行级联与全局节点进行相似度量,保证视频信息的完整性及行为识别的准确性。

    基于通道信息融合和组群关系空间结构化建模的组群行为识别方法

    公开(公告)号:CN111597929A

    公开(公告)日:2020-08-28

    申请号:CN202010359666.1

    申请日:2020-04-30

    Abstract: 本发明提出一种基于通道信息融合和组群关系空间结构化建模的组群行为识别方法;首先将待识别视频分段并等距离采样若干帧,通过改进的STM网络模块提取包含时空与运动信息的融合特征;然后将每帧的融合特征进行帧内区域划分和高维映射,形成图结构数据;最后通过包含核心组群关系演化模型的图卷积-LSTM网络,整合出全局行为判别特征和局部行为判别特征作为组群行为描述符来判别行为分类,通过softmax得到最终的行为标签;本方案加入通道选择模块来融合空间和运动特征,以同时提取包含空间和运动信息的特征表示,增强特征的关联性;结合组群关系空间结构化建模,保证提取时空信息特征的的完整性和全面性,并重点考量了对行为判别起到决定性作用的组群交互关系这一关键对象,可有效的提高识别精度。

    一种人体异常行为识别方法

    公开(公告)号:CN102799873A

    公开(公告)日:2012-11-28

    申请号:CN201210254343.1

    申请日:2012-07-23

    Abstract: 本发明公开了一种人体异常行为识别方法,包括利用训练样本集获得分类器和分类模板的训练过程及利用分类器和分类模板识别测试样本的识别过程。训练过程包括:对训练视频流逐帧计算每帧灰度图像中每个像素点的Hessian矩阵响应的步骤;根据矩阵响应确定特征点的步骤;用多维向量对特征点进行描述、获得描述符的步骤;对描述符进行聚类获得分类器的步骤;以及利用概率值向量获得异常行为模板的步骤。本发明所提出的方法无需进行人体分割和背景建模,通过聚类人体运动剧烈区域的时空特征,实现对运动的建模,进而实现人体异常行为的识别。

    基于视频片段注意力机制与交互关系活动图建模的群组行为识别方法

    公开(公告)号:CN111626171B

    公开(公告)日:2023-05-16

    申请号:CN202010434393.2

    申请日:2020-05-21

    Abstract: 本发明提出一种基于视频片段注意力机制与交互关系活动图建模的群组行为识别方法,主要用于解决视频监控场景下群组行为识别的精度问题,以提高群组行为识别精度并排除视频中大量冗余信息;首先,利用片段注意力机制提取视频中的关键片段,并通过P3D网络提取其时空特征;然后利用卷积关系机制构建群组活动图以捕获人与人之间的交互关系,并通过多个阶段、不同类型的卷积操作对活动图进行优化,形成对组群关系的动态描述;进一步,通过融合机制将优化后的组群关系活动图与原始的P3D特征进行融合,旨在将底层的P3D特征和高层的组群特征进行结合,避免特征丢失;最后,将融合后的特征利用softmax分类器对群组行为进行识别,以获得更高的组群行为识别精度和效果。

    基于关键时空信息驱动和组群共现性结构化分析的组群行为识别方法

    公开(公告)号:CN111414846A

    公开(公告)日:2020-07-14

    申请号:CN202010192335.3

    申请日:2020-03-18

    Abstract: 本发明公开一种基于关键时空信息驱动和组群共现性结构化分析的组群行为识别方法,1)基于关键人物候选子网络获得组群中每个成员的重要性权重;2)将个人重要性权重和边界框特征输入至主网络CNN,获得输入到层叠LSTM网络的空间特征;3)以2)的输出作为输入进行共现性特征建模,通过对层叠LSTM内部神经元分组,实现不同的组学习不同的共现性特征,获得组群特征;4)将边界框特征输入到关键时间片段候选子网络进行特征提取,获得当前帧的重要性权重;5)将3)中获得的组群特征和4)中获得的当前帧的的重要性权重相结合获得当前帧的组群特征,并将其输入到softmax进行组群行为识别,完成分类任务。本方案基于关键时空信息提取组群重要成员特征以及关键的场景帧,并结合共现性处理组群行为内部的交互信息,实现组群行为识别精度的提升。

Patent Agency Ranking