-
公开(公告)号:CN110516571B
公开(公告)日:2022-02-11
申请号:CN201910756936.X
申请日:2019-08-16
Applicant: 东南大学
IPC: G06V40/16 , G06V10/774 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于光流注意力神经网络的跨库微表情识别方法及装置,方法包括:(1)获取两个不同的微表情数据库作为训练集和测试集;(2)将微表情视频转化为人脸图像序列;(3)从每一人脸图像序列中抽取起始帧、峰值帧和终止帧,由起始帧和峰值帧计算得到第一单通道光流图,由峰值帧和终止帧计算得到第二单通道光流图;(4)将每一人脸图像序列的第一单通道光流图、第二单通道光流图和峰值帧组成融合特征图;(5)建立光流注意力神经网络,并将训练集和测试集对应融合特征图作为输入进行训练;(6)将待识别的微表情视频处理得到融合特征图,输入光流注意力神经网络,得到微表情类别。本发明泛化能力强,识别准确率高。
-
公开(公告)号:CN115049957B
公开(公告)日:2024-06-07
申请号:CN202210605395.2
申请日:2022-05-31
Applicant: 东南大学
IPC: G06V20/40 , G06V40/16 , G06V10/82 , G06V10/774 , G06V10/764 , G06T7/30 , G06T7/11 , G06N3/0464 , G06F16/75 , G06F16/71
Abstract: 本发明公开了一种基于对比放大网络的微表情识别方法及装置,方法包括:(1)获取微表情数据库(2)将微表情视频转换为微表情帧序列,预处理后采样作为源样本;(3)对于每个源样本,计算剩余帧与该源样本在嵌入空间的距离,并映射成概率,得到距离概率分布;(4)根据概率分布从剩余视频帧中采样多个帧作为负样本;(5)构建对比放大网络;(6)每个源样本进行数据增强形成锚样本和正样本,将锚样本、正样本和对应的负样本作为训练样本输入对比放大网络进行训练,损失函数为视频内对比损失、类间对比损失、交叉熵损失之和;(7)将待识别的微表情视频预处理后输入训练好的对比放大网络,识别出微表情类别。本发明准确率更高,更方便。
-
公开(公告)号:CN111832426B
公开(公告)日:2022-11-08
申请号:CN202010578064.5
申请日:2020-06-23
Applicant: 东南大学
IPC: G06V40/16 , G06V10/774
Abstract: 本发明公开了一种基于双稀疏迁移学习的跨库微表情识别方法及装置,方法包括:(1)获取不同的微表情训练数据库和测试数据库(2)将训练数据库和测试数据库中的微表情数据分别处理得到微表情的LBP‑TOP特征;(3)建立双稀疏迁移学习模型;(4)将训练数据库和测试数据库的微表情特征数据输入双稀疏迁移学习模型进行训练,训练时;(5)获取待识别的微表情数据LBP‑TOP特征,输入训练好的双稀疏迁移学习模型,输出情感类别。本发明准确率更高。
-
公开(公告)号:CN110390955B
公开(公告)日:2021-07-27
申请号:CN201910583878.5
申请日:2019-07-01
Applicant: 东南大学
Abstract: 本发明公开了一种基于深度域适应性卷积神经网络的跨库语音情感识别方法,包括:(1)获取语言不同的训练数据库和测试数据库(2)将训练数据库和测试数据库中的语音信号分别处理得到每段语音信号的频谱图;(3)建立卷积神经网络;(4)将训练数据库和测试数据库的语音信号频谱图分别输入卷积神经网络进行训练,训练时,先计算训练数据库和测试数据库语音信号频谱图分别对应的全连接层输出之间的最大均值差异,之后计算训练数据库softmax层输出以及其情感类别标签之间的交叉熵,最后将最大均值差异和交叉熵相加作为网络损失采用反向传播算法更新网络参数,完成网络训练;(5)获取待识别的语音信号频谱图,输入训练好的深度卷积神经网络,输出情感类别。本发明准确率更高。
-
公开(公告)号:CN111583966B
公开(公告)日:2022-06-28
申请号:CN202010372728.2
申请日:2020-05-06
Applicant: 东南大学
Abstract: 本发明公开了一种基于联合分布最小二乘回归的跨数据库语音情感识别方法及装置,方法包括:(1)获取训练数据库和测试数据库,其中,训练语音数据库中包含有若干语音片段和对应的语音情感类别标签,测试数据库中仅包含有若干待识别语音片段;(2)利用若干声学低维描述子对语音片段进行处理并进行统计,将统计得到的每个信息作为一个情感特征,并将多个情感特征组成向量作为对应语音片段的特征向量;(3)建立基于联合分布的最小二乘回归模型,利用训练数据库与测试数据库联合训练,得到稀疏投影矩阵;(4)对于待识别语音片段,按照步骤(2)得到特征向量,并采用学习到的稀疏投影矩阵,得到对应的语音情感类别标签。本发明可以适应不同环境,准确率更高。
-
公开(公告)号:CN111832426A
公开(公告)日:2020-10-27
申请号:CN202010578064.5
申请日:2020-06-23
Applicant: 东南大学
Abstract: 本发明公开了一种基于双稀疏迁移学习的跨库微表情识别方法及装置,方法包括:(1)获取不同的微表情训练数据库和测试数据库(2)将训练数据库和测试数据库中的微表情数据分别处理得到微表情的LBP-TOP特征;(3)建立双稀疏迁移学习模型;(4)将训练数据库和测试数据库的微表情特征数据输入双稀疏迁移学习模型进行训练,训练时;(5)获取待识别的微表情数据LBP-TOP特征,输入训练好的双稀疏迁移学习模型,输出情感类别。本发明准确率更高。
-
公开(公告)号:CN115049957A
公开(公告)日:2022-09-13
申请号:CN202210605395.2
申请日:2022-05-31
Applicant: 东南大学
IPC: G06V20/40 , G06V40/16 , G06V10/82 , G06V10/774 , G06V10/764 , G06T7/30 , G06T7/11 , G06N3/04 , G06F16/75 , G06F16/71
Abstract: 本发明公开了一种基于对比放大网络的微表情识别方法及装置,方法包括:(1)获取微表情数据库(2)将微表情视频转换为微表情帧序列,预处理后采样作为源样本;(3)对于每个源样本,计算剩余帧与该源样本在嵌入空间的距离,并映射成概率,得到距离概率分布;(4)根据概率分布从剩余视频帧中采样多个帧作为负样本;(5)构建对比放大网络;(6)每个源样本进行数据增强形成锚样本和正样本,将锚样本、正样本和对应的负样本作为训练样本输入对比放大网络进行训练,损失函数为视频内对比损失、类间对比损失、交叉熵损失之和;(7)将待识别的微表情视频预处理后输入训练好的对比放大网络,识别出微表情类别。本发明准确率更高,更方便。
-
公开(公告)号:CN111583966A
公开(公告)日:2020-08-25
申请号:CN202010372728.2
申请日:2020-05-06
Applicant: 东南大学
Abstract: 本发明公开了一种基于联合分布最小二乘回归的跨数据库语音情感识别方法及装置,方法包括:(1)获取训练数据库和测试数据库,其中,训练语音数据库中包含有若干语音片段和对应的语音情感类别标签,测试数据库中仅包含有若干待识别语音片段;(2)利用若干声学低维描述子对语音片段进行处理并进行统计,将统计得到的每个信息作为一个情感特征,并将多个情感特征组成向量作为对应语音片段的特征向量;(3)建立基于联合分布的最小二乘回归模型,利用训练数据库与测试数据库联合训练,得到稀疏投影矩阵;(4)对于待识别语音片段,按照步骤(2)得到特征向量,并采用学习到的稀疏投影矩阵,得到对应的语音情感类别标签。本发明可以适应不同环境,准确率更高。
-
公开(公告)号:CN110516571A
公开(公告)日:2019-11-29
申请号:CN201910756936.X
申请日:2019-08-16
Applicant: 东南大学
Abstract: 本发明公开了一种基于光流注意力神经网络的跨库微表情识别方法及装置,方法包括:(1)获取两个不同的微表情数据库作为训练集和测试集;(2)将微表情视频转化为人脸图像序列;(3)从每一人脸图像序列中抽取起始帧、峰值帧和终止帧,由起始帧和峰值帧计算得到第一单通道光流图,由峰值帧和终止帧计算得到第二单通道光流图;(4)将每一人脸图像序列的第一单通道光流图、第二单通道光流图和峰值帧组成融合特征图;(5)建立光流注意力神经网络,并将训练集和测试集对应融合特征图作为输入进行训练;(6)将待识别的微表情视频处理得到融合特征图,输入光流注意力神经网络,得到微表情类别。本发明泛化能力强,识别准确率高。
-
公开(公告)号:CN110390955A
公开(公告)日:2019-10-29
申请号:CN201910583878.5
申请日:2019-07-01
Applicant: 东南大学
Abstract: 本发明公开了一种基于深度域适应性卷积神经网络的跨库语音情感识别方法,包括:(1)获取语言不同的训练数据库和测试数据库(2)将训练数据库和测试数据库中的语音信号分别处理得到每段语音信号的频谱图;(3)建立卷积神经网络;(4)将训练数据库和测试数据库的语音信号频谱图分别输入卷积神经网络进行训练,训练时,先计算训练数据库和测试数据库语音信号频谱图分别对应的全连接层输出之间的最大均值差异,之后计算训练数据库softmax层输出以及其情感类别标签之间的交叉熵,最后将最大均值差异和交叉熵相加作为网络损失采用反向传播算法更新网络参数,完成网络训练;(5)获取待识别的语音信号频谱图,输入训练好的深度卷积神经网络,输出情感类别。本发明准确率更高。
-
-
-
-
-
-
-
-
-