二维视频图像中的人体姿态识别方法

    公开(公告)号:CN104392223B

    公开(公告)日:2017-07-11

    申请号:CN201410734845.3

    申请日:2014-12-05

    Abstract: 本发明公开了一种二维视频图像中的人体姿态识别方法,包括下述步骤:将原始视频图像按照尺度大小进行分组;对每组图像计算一个指定尺度的采样图像,并对该采样图像计算HOG;以每组内的一个采样图像的HOG预测计算组内其它指定尺度采样图像对应的HOG;根据所得的多尺度HOG,结合训练好的SVM分类器检测所述原始视频图像中不同尺度下的人体目标区域;采用训练好的随机森林分类器将检测的人体目标区域的像素进行分类,确定所述人体目标区域中的肢体部位区域;将各肢体部位连接形成人体轮廓,实现人体姿态识别。应用本发明的方法,在不降低检测精度的基础上,加速了多尺度底层特征的计算速度,提高了姿态识别速度和精度。

    一种人体异常行为识别方法

    公开(公告)号:CN102799873B

    公开(公告)日:2014-12-10

    申请号:CN201210254343.1

    申请日:2012-07-23

    Abstract: 本发明公开了一种人体异常行为识别方法,包括利用训练样本集获得分类器和分类模板的训练过程及利用分类器和分类模板识别测试样本的识别过程。训练过程包括:对训练视频流逐帧计算每帧灰度图像中每个像素点的Hessian矩阵响应的步骤;根据矩阵响应确定特征点的步骤;用多维向量对特征点进行描述、获得描述符的步骤;对描述符进行聚类获得分类器的步骤;以及利用概率值向量获得异常行为模板的步骤。本发明所提出的方法无需进行人体分割和背景建模,通过聚类人体运动剧烈区域的时空特征,实现对运动的建模,进而实现人体异常行为的识别。

    基于弱监督学习的视频时序行为检测方法

    公开(公告)号:CN114359790B

    公开(公告)日:2024-08-02

    申请号:CN202111534859.7

    申请日:2021-12-15

    Abstract: 本发明提出一种基于弱监督学习的视频时序行为检测方法,采用对抗思想,通过加入精细化分层对片段级的行为边界进行切分,减少时序检测下行为实例的冗余信息;采用GCN显式建模片段的相似关系,提出了类别片段融合的内外对比损失来监督视频特征的中间表示,通过增大前景与背景间的特征距离,减小相同类别间的特征距离来解决上下文混淆问题,阈值融合得到“行为提案”,实现行为实例结构上完整性与内容上独立性定位的目的;采用互补思想,针对视频信息在特征学习、关系推理过程中的丢失问题,本发明提出将全局节点加入到互补学习层,将学习后的特征根据时间的连续性进行级联与全局节点进行相似度量,保证视频信息的完整性及行为识别的准确性。

    基于EANN深度学习模型的暴力异常行为检测方法

    公开(公告)号:CN111062297B

    公开(公告)日:2023-05-23

    申请号:CN201911266994.0

    申请日:2019-12-11

    Abstract: 本发明提出一种基于EANN深度学习模型的暴力异常行为检测方法,包括(1)获得待检测视频,基于帧差法对视频中连续两帧进行差分,得到差分图像作为EANN模型的输入;(2)基于卷积神经网络Efficentnet提取图像空间特征;(3)基于ConvLSTM对步骤(2)中提取的空间特征进行连续时间上的编码,获得视频的局部时空特征;(4)针对步骤(3)所获得的时空特征,利用注意力机制对剧烈运动部分进行加强;(5)基于全连接层对步骤(4)的输出进行分类,得到该视频暴力异常行为的概率,进而实现对暴力异常行为的检测。本发明所提出的方法在保持精度损失很小的情况下,大幅度降低了参数量,提升网络运行速度;与传统方法相比,精度提升幅度明显,鲁棒性强,具有较高的实际应用及推广价值。

    基于深度学习去除图像压缩噪声的方法、装置及处理器

    公开(公告)号:CN110415190B

    公开(公告)日:2023-03-14

    申请号:CN201910677048.9

    申请日:2019-07-25

    Abstract: 本发明公开了一种基于深度学习去除图像压缩噪声的方法、装置及处理器,所述方法包括:将待处理的图像输入已训练的残差网络,获取所述待处理的图像的压缩质量因子估计值;所述残差网络中,最后一层为全连接层,所述全连接层的神经元数量为1,所述残差网络的损失函数为平方损失函数;将所述待处理的图像及所述压缩质量因子估计值输入已训练的全卷积神经网络进行处理,获得去除压缩噪声后的图像。应用本发明,能够解决现有技术去除压缩噪声存在的处理速度慢、效果差等的问题。

    基于弱监督学习的视频时序行为检测方法

    公开(公告)号:CN114359790A

    公开(公告)日:2022-04-15

    申请号:CN202111534859.7

    申请日:2021-12-15

    Abstract: 本发明提出一种基于弱监督学习的视频时序行为检测方法,采用对抗思想,通过加入精细化分层对片段级的行为边界进行切分,减少时序检测下行为实例的冗余信息;采用GCN显式建模片段的相似关系,提出了类别片段融合的内外对比损失来监督视频特征的中间表示,通过增大前景与背景间的特征距离,减小相同类别间的特征距离来解决上下文混淆问题,阈值融合得到“行为提案”,实现行为实例结构上完整性与内容上独立性定位的目的;采用互补思想,针对视频信息在特征学习、关系推理过程中的丢失问题,本发明提出将全局节点加入到互补学习层,将学习后的特征根据时间的连续性进行级联与全局节点进行相似度量,保证视频信息的完整性及行为识别的准确性。

    基于通道信息融合和组群关系空间结构化建模的组群行为识别方法

    公开(公告)号:CN111597929A

    公开(公告)日:2020-08-28

    申请号:CN202010359666.1

    申请日:2020-04-30

    Abstract: 本发明提出一种基于通道信息融合和组群关系空间结构化建模的组群行为识别方法;首先将待识别视频分段并等距离采样若干帧,通过改进的STM网络模块提取包含时空与运动信息的融合特征;然后将每帧的融合特征进行帧内区域划分和高维映射,形成图结构数据;最后通过包含核心组群关系演化模型的图卷积-LSTM网络,整合出全局行为判别特征和局部行为判别特征作为组群行为描述符来判别行为分类,通过softmax得到最终的行为标签;本方案加入通道选择模块来融合空间和运动特征,以同时提取包含空间和运动信息的特征表示,增强特征的关联性;结合组群关系空间结构化建模,保证提取时空信息特征的的完整性和全面性,并重点考量了对行为判别起到决定性作用的组群交互关系这一关键对象,可有效的提高识别精度。

    基于深度学习网络的视角无关性行为识别方法

    公开(公告)号:CN106909938B

    公开(公告)日:2020-02-21

    申请号:CN201710082263.5

    申请日:2017-02-16

    Abstract: 本发明提出一种基于深度学习网络的视角无关性行为识别方法,包括以下步骤:将某一视角下的视频帧图像录入,采用深度学习的方式进行底层特征提取和加工;对得到的底层特征进行建模,按时间顺序得到立方体模型;将所有视角的立方体模型转化为一个视角不变的柱体特征空间映射,后将其输入到分类器中进行训练,得到视频行为视角无关性分类器。本发明的技术方案采用深度学习网络对多视角下的人体行为进行分析,提升了分类模型的鲁棒性;尤其适合基于大数据进行训练、学习,能够很好地发挥出其的优点。

    基于深度学习去除图像压缩噪声的方法、装置及处理器

    公开(公告)号:CN110415190A

    公开(公告)日:2019-11-05

    申请号:CN201910677048.9

    申请日:2019-07-25

    Abstract: 本发明公开了一种基于深度学习去除图像压缩噪声的方法、装置及处理器,所述方法包括:将待处理的图像输入已训练的残差网络,获取所述待处理的图像的压缩质量因子估计值;所述残差网络中,最后一层为全连接层,所述全连接层的神经元数量为1,所述残差网络的损失函数为平方损失函数;将所述待处理的图像及所述压缩质量因子估计值输入已训练的全卷积神经网络进行处理,获得去除压缩噪声后的图像。应用本发明,能够解决现有技术去除压缩噪声存在的处理速度慢、效果差等的问题。

    基于运动行为模式的多视角室内行人跟踪方法

    公开(公告)号:CN104680559B

    公开(公告)日:2017-08-04

    申请号:CN201510124915.8

    申请日:2015-03-20

    Abstract: 本发明公开了一种基于运动行为模式的多视角室内行人跟踪方法,包括利用状态空间模型对目标运动状态进行预测的过程和利用观测模型对预测的运动状态进行观测、获得跟踪结果的过程;预测过程包括:计算时刻测试视频帧中目标所受的合力;计算时刻测试视频帧中目标的概率力;根据目标的概率力对下一时刻的目标运动状态进行预测。采用本发明的方法,提高了行人跟踪信息的有效性,提高了行人跟踪的鲁棒性和准确性。

Patent Agency Ranking