基于模糊边界分片的深度动作图人体行为识别方法

    公开(公告)号:CN106529441B

    公开(公告)日:2019-04-05

    申请号:CN201610949051.8

    申请日:2016-10-26

    Applicant: 江南大学

    Abstract: 本发明公开了一种基于模糊边界分片的深度动作图人体行为识别方法。模型训练方法包括以下步骤:将视频深度图序列分片并根据模糊参数α确定分片的模糊边界;对于每一个分片后的子序列分别计算它们主视图、左视图和俯视图的深度动作图DMM;利用插值法将这些深度动作图转换为固定的尺寸并归一化;将归一化后的每个视频序列子序列的深度动作图DMM串联,获得该视频序列的特征向量;采用概率协作表示分类器R‑ProCRC对特征进行分类,最终实现人体行为识别。本发明公开的人体行为识别方法,有效捕获了时域特征的变化规律,增强了行为特征对时域差异的抗干扰能力,能够实现对人体行为的鲁棒识别。

    基于GB(2D)2PCANet深度卷积模型的人脸身份识别方法

    公开(公告)号:CN105718889B

    公开(公告)日:2019-07-16

    申请号:CN201610044669.X

    申请日:2016-01-21

    Applicant: 江南大学

    Abstract: 本发明公开了一种基于GB(2D)2PCANet深度卷积模型的人脸身份识别方法。模型训练方法包括以下步骤:将预处理人脸样本依次送入第一个特征提取层,从获取的Gabor特征图像中扫描多个子块并去均值,利用(2D)2PCA提取最优投影轴,与训练集原始样本卷积,获得第一层特征图;将第一层特征图送入第二个特征提取层,重复前述步骤,获得第二层特征图;二值化输出特征图,计算并拼接局部区域直方图作为最终特征;将最终特征送入线性SVM分类器,获得优化的人脸身份识别模型。本发明能够自动学习有效的特征表达,不仅具有良好的局部性,而且对光照、表情和噪音等具有良好的鲁棒性,提高了人脸身份的识别性能。

    基于GB(2D)2PCANet深度卷积模型的人脸身份识别方法

    公开(公告)号:CN105718889A

    公开(公告)日:2016-06-29

    申请号:CN201610044669.X

    申请日:2016-01-21

    Applicant: 江南大学

    CPC classification number: G06K9/00268 G06K9/6256 G06N3/08

    Abstract: 本发明公开了一种基于GB(2D)2PCANet深度卷积模型的人脸身份识别方法。模型训练方法包括以下步骤:将预处理人脸样本依次送入第一个特征提取层,从获取的Gabor特征图像中扫描多个子块并去均值,利用(2D)2PCA提取最优投影轴,与训练集原始样本卷积,获得第一层特征图;将第一层特征图送入第二个特征提取层,重复前述步骤,获得第二层特征图;二值化输出特征图,计算并拼接局部区域直方图作为最终特征;将最终特征送入线性SVM分类器,获得优化的人脸身份识别模型。本发明能够自动学习有效的特征表达,不仅具有良好的局部性,而且对光照、表情和噪音等具有良好的鲁棒性,提高了人脸身份的识别性能。

    基于模糊边界分片的深度动作图人体行为识别方法

    公开(公告)号:CN106529441A

    公开(公告)日:2017-03-22

    申请号:CN201610949051.8

    申请日:2016-10-26

    Applicant: 江南大学

    CPC classification number: G06K9/6267 G06K9/00335 G06K9/6256

    Abstract: 本发明公开了一种基于模糊边界分片的深度动作图人体行为识别方法。模型训练方法包括以下步骤:将视频深度图序列分片并根据模糊参数α确定分片的模糊边界;对于每一个分片后的子序列分别计算它们主视图、左视图和俯视图的深度动作图DMM;利用插值法将这些深度动作图转换为固定的尺寸并归一化;将归一化后的每个视频序列子序列的深度动作图DMM串联,获得该视频序列的特征向量;采用概率协作表示分类器R-ProCRC对特征进行分类,最终实现人体行为识别。本发明公开的人体行为识别方法,有效捕获了时域特征的变化规律,增强了行为特征对时域差异的抗干扰能力,能够实现对人体行为的鲁棒识别。

Patent Agency Ranking