用于情绪状态监测的面部运动单元双流特征提取方法

    公开(公告)号:CN110751016A

    公开(公告)日:2020-02-04

    申请号:CN201910823132.7

    申请日:2019-09-02

    摘要: 本申请提供一种用于情绪状态监测的面部运动单元双流特征提取方法,其中,利用第一卷积神经网络和循环神经网络,确定每种预设面部子区域图像对应的第一图像时空特征信息,利用第二卷积神经网络对每种预设面部子区域对应的光流图进行降维和时空特征提取,确定每种预设面部子区域对应的第二时空特征信息,基于每种预设面部子区域对应的第一图像时空特征信息和所有第二图像时空特征信息,确定监测个体的情绪状态分布。本申请同步提取面部视频帧序列的光流和特征图流,充分考虑到图像中面部区域的空间特征及在相邻帧间运动的时间特征,解决了传统算法提取的语义特征重复的缺陷,简化了计算步骤从而降低计算时间复杂度,提高了计算的效率和准确度。

    具有跨媒体信息融合功能的非接触式情绪监测方法

    公开(公告)号:CN110755092B

    公开(公告)日:2022-04-12

    申请号:CN201910823150.5

    申请日:2019-09-02

    摘要: 本申请提供一种具有跨媒体信息融合功能的非接触式情绪监测方法,其中,本方法基于包括监测目标个体面部可见光视频、面部红外热图视频、音频数据在内的非接触式数据,分别确定第一情绪特征向量矩阵、第二情绪特征向量矩阵和第三情绪特征向量矩阵,之后利用可调节的多模态特征融合机制对上述三个情绪特征向量矩阵进行降维和特征提取,从而得到共享模态矩阵和私有模态矩阵,最后基于得到的模态矩阵确定监测目标个体对于每种预设情绪状态的概率分布。上述方案不仅全面增加了用于分析情绪状态的监测数据类型,将多种类型的监测数据进行跨媒体融合,并且能够充分利用有效数据分析情绪状态,在有效提高情绪状态监测准确度的同时增进分析效率。

    非接触式与接触式协同的心理生理状态智能监测系统

    公开(公告)号:CN110598608B

    公开(公告)日:2022-01-14

    申请号:CN201910823548.9

    申请日:2019-09-02

    摘要: 本申请提供一种非接触式与接触式协同的心理生理状态智能监测系统,该系统中,非接触式数据采集模块采集面部可见光视频、音频数据及红外热图视频,接触式数据采集模块采集生理信号数据;针对各通道监测数据,可见光信息感知模块用于对可见光视频进行图像降维及特征提取,音频信息感知模块用于提取音频的时频特征,红外信息感知模块用于提取温度变化特征,生理信息感知模块用于提取生理特征,多模融合模块以各通道模型精度为权重将各通道的多模、跨域特征信息进行语义关联及特征融合,综合分析模利用Voting集成学习方法分析得到监测目标个体的心理生理状态分布本系统相较现有的技术可以更加准确、全面、高效地监测人体心理生理状态。

    面部红外热图的灌注优化及人工智能情绪监测方法

    公开(公告)号:CN110751015A

    公开(公告)日:2020-02-04

    申请号:CN201910823131.2

    申请日:2019-09-02

    摘要: 本申请提供一种面部红外热图的灌注优化及人工智能情绪监测方法,其中,基于监测目标个体面部红外视频,利用CNN-BiGRU_Attention网络模型对每帧面部红外图像对应的血液灌注伪彩色图进行处理,进而挖掘蕴含在帧内空间特征向量矩阵;此外,利用BiGRU层确定面部红外视频帧间时间特征向量矩阵;最后基于每帧面部红外图像对应的空间特征向量矩阵和相邻帧间时间特征向量矩阵,确定监测目标个体针对每种预设情绪状态的概率特征信息。上述技术方案将CNN与BiGRU结合,BiGRU模块引入Attention机制,充分提取图像的空间特征和帧间时间特征,进而联合识别监测目标个体对于每种预设情绪状态的概率特征信息,可以在非干扰的测试环境中获取更加真实的情绪分布,有效提高了情绪识别的效率及准确度。

    可见光面部图像的多路信息融合及人工智能情绪监测方法

    公开(公告)号:CN110765839B

    公开(公告)日:2022-02-22

    申请号:CN201910823603.4

    申请日:2019-09-02

    摘要: 本申请提供一种可见光面部图像的多路信息融合及人工智能情绪监测方法,其中,本方法基于面部图像中预设特征点集群确定第一概率特征向量,同时利用卷积神经网络确定图像级的第二概率特征向量,进而结合图像序列间的时间信息生成情绪特征矩阵,此外,基于预设面部子区域图像以及相邻帧间光流图确定第三概率特征向量,对上述三个概率特征向量进行特征融合从而获取融合特征向量,最终基于上述三个概率特征向量、情绪特征矩阵和融合特征向量,确定监测个体的情绪状态分布。本申请利用上述三条分析通路处理面部视频,挖掘面部图像的空间及帧间时间特征,针对不同维度的特征进行全面分析及有效融合,保证高效分析的同时提高了情绪状态监测的精确度。

    非接触式与接触式协同的心理状态智能监测系统

    公开(公告)号:CN110781719A

    公开(公告)日:2020-02-11

    申请号:CN201910823581.1

    申请日:2019-09-02

    摘要: 本发明提供一种非接触式与接触式协同的心理状态智能监测系统,该系统基于非接触式数据采集模块获取监测目标个体的可见光视频、红外热图视频、及音频数据,以及接触式数据采集模块获取目标个体的生理信息;利用数据传输模块将获取的上述数据传输至心理状态分析模块和信息显示模块;搭建心理状态分析模块对多通道数据进行分析处理得到监测目标个体的心理状态特征值,并将该特征值发送给长时心理数据库块进行存储,以及发送给信息显示模块进行实时显示。上述系统能够完整、高效的获取用于分析目标个体心理状态的特征数据,从而能够实时、长期监控个体的心理状态,精准、高效的提升心理状态监测效果。