-
公开(公告)号:CN108446589A
公开(公告)日:2018-08-24
申请号:CN201810122730.7
申请日:2018-02-07
申请人: 杭州电子科技大学
摘要: 本发明公开一种复杂环境下基于低秩分解和辅助字典的人脸识别方法。本发明步骤如下:1.通过非凸稳健主成分分析法对输入人脸图片进行低秩分解,求解基于范数的目标函数,得到初步去除复杂环境影响的低秩内容;2.基于核范数的去相关性低秩分解:在目标函数中添加去除类间相关性的正则项,并将上一步骤获得的低秩内容进行奇异值分解后用作初始化矩阵,通过ADMM算法交替迭代求解得到用于识别的低秩字典。3.基于辅助字典学习的分类识别:获得模拟复杂环境变化的辅助字典,并通过与低秩字典联立使用,通过RADL进行人脸分类识别。本发明使用到的低秩分解目标函数能够充分去除干扰信息,使分解后的人脸图像更具有身份识别能力和抗环境干扰性。
-
公开(公告)号:CN109800771B
公开(公告)日:2021-03-05
申请号:CN201910089341.3
申请日:2019-01-30
申请人: 杭州电子科技大学
摘要: 本发明公开一种混合时空平面局部二值模式的自发微表情定位方法。本发明根据自发微表情视频中连续帧的相关性,通过精细匹配实现了像素级人脸区域对齐,从而对头部偏移等干扰具有较强的抗干扰能力。同时在空间轴平面提取扇形区域特征,并在时间轴提取去冗余的线性特征,既减少了特征点冗余计算,又通过非线性特征融合的方式结合时空特征,形成更完备的特征表示,因此能更加鲁棒地表示自发微表情,提高了自发微表情视频中自发微表情定位精确率。
-
公开(公告)号:CN109635712B
公开(公告)日:2021-02-05
申请号:CN201811492660.0
申请日:2018-12-07
申请人: 杭州电子科技大学
摘要: 本发明公开一种基于同构网络的自发微表情种类判别方法。本发明首先进行样本制作,包括RGB样本与光流差值样本的制作。然后将将不同样本分别置入网络中进行训练,训练方式为微调。最后将经过不同训练样本训练后的网络,同构合成所述的同构网络,利用同构网络产生判别结果。本发明中的光流差值样本既包含自发微表情变化的形变信息,又通过求差值去除了非自发微表情变化的环境干扰。结合样本的空间信息与时序变化的时间信息,组成具有时空特征的光流差值样本。对于本发明中的RGB样本以及光流差值样本,利用经过微调的网络对其提取特征,不仅充分结合颜色信息与时空信息,得到的特征更能表示当前样本类别,而且解决自发微表情数据样本少的难题。
-
公开(公告)号:CN109635712A
公开(公告)日:2019-04-16
申请号:CN201811492660.0
申请日:2018-12-07
申请人: 杭州电子科技大学
CPC分类号: G06K9/00302 , G06K9/6265 , G06K9/629 , G06T7/269
摘要: 本发明公开一种基于同构网络的自发微表情种类判别方法。本发明首先进行样本制作,包括RGB样本与光流差值样本的制作。然后将将不同样本分别置入网络中进行训练,训练方式为微调。最后将经过不同训练样本训练后的网络,同构合成所述的同构网络,利用同构网络产生判别结果。本发明中的光流差值样本既包含自发微表情变化的形变信息,又通过求差值去除了非自发微表情变化的环境干扰。结合样本的空间信息与时序变化的时间信息,组成具有时空特征的光流差值样本。对于本发明中的RGB样本以及光流差值样本,利用经过微调的网络对其提取特征,不仅充分结合颜色信息与时空信息,得到的特征更能表示当前样本类别,而且解决自发微表情数据样本少的难题。
-
公开(公告)号:CN108446589B
公开(公告)日:2022-03-22
申请号:CN201810122730.7
申请日:2018-02-07
申请人: 杭州电子科技大学
IPC分类号: G06V40/16 , G06V10/77 , G06V10/764 , G06K9/62
摘要: 本发明公开一种复杂环境下基于低秩分解和辅助字典的人脸识别方法。本发明步骤如下:1.通过非凸稳健主成分分析法对输入人脸图片进行低秩分解,求解基于范数的目标函数,得到初步去除复杂环境影响的低秩内容;2.基于核范数的去相关性低秩分解:在目标函数中添加去除类间相关性的正则项,并将上一步骤获得的低秩内容进行奇异值分解后用作初始化矩阵,通过ADMM算法交替迭代求解得到用于识别的低秩字典。3.基于辅助字典学习的分类识别:获得模拟复杂环境变化的辅助字典,并通过与低秩字典联立使用,通过RADL进行人脸分类识别。本发明使用到的低秩分解目标函数能够充分去除干扰信息,使分解后的人脸图像更具有身份识别能力和抗环境干扰性。
-
公开(公告)号:CN109800771A
公开(公告)日:2019-05-24
申请号:CN201910089341.3
申请日:2019-01-30
申请人: 杭州电子科技大学
摘要: 本发明公开一种混合时空平面局部二值模式的自发微表情定位方法。本发明根据自发微表情视频中连续帧的相关性,通过精细匹配实现了像素级人脸区域对齐,从而对头部偏移等干扰具有较强的抗干扰能力。同时在空间轴平面提取扇形区域特征,并在时间轴提取去冗余的线性特征,既减少了特征点冗余计算,又通过非线性特征融合的方式结合时空特征,形成更完备的特征表示,因此能更加鲁棒地表示自发微表情,提高了自发微表情视频中自发微表情定位精确率。
-
-
-
-
-