-
公开(公告)号:CN113780091A
公开(公告)日:2021-12-10
申请号:CN202110926712.6
申请日:2021-08-12
Applicant: 西安交通大学
Abstract: 本发明公开了一种基于身体姿势变化表示的视频情感识别方法。本发明提出的情感识别方法只关注视频中人们的关键关节点信息,通过对关节点变化进行编码,利用逐通道卷积网络识别情状态,解决某些情况下无法利用面部表情识别情感的问题。首先,对身体的25个关节点位置进行确定;其次,提出身体姿势变化的表示方法,将表示后的关节点信息按时间汇聚;最后,构建一个包含注意力机制的逐通道卷积神经网络来识别情感状态。本发明简单且易于实现,姿势变化表示方法无需复杂计算,浅层识别模型具有极低的开销,同时不需要进行预训练,保证情感识别有效性同时极大提高识别速度。
-
公开(公告)号:CN113705384B
公开(公告)日:2024-04-05
申请号:CN202110925608.5
申请日:2021-08-12
Applicant: 西安交通大学
IPC: G06V40/16 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/09
Abstract: 本发明公开了一种考虑局部时空特性和全局时序线索的面部表情识别方法,包括:首先,基于人脸识别技术处理原始视频得到只包含面部区域的视频,并将视频平均分为一定数量的片段;其次,提出一个基于超级图像的时空卷积模型,以采样每个片段的视频帧为输入,利用2D卷积实现视频片段的局部时空特征提取,同时获取不同时刻片段的情感状态向量,有效降低模型训练参数,提升训练速度;最后,提出一个双流长短时记忆模型,考虑了情感表达的时序变化关系和片段级局部时空特征的时序关系,二者相融合提高面部表情识别性能。本发明简单且易于实现,与目前普遍存在的识别模型结构相比,模型参数量降低,同时保证了面部表情识别的有效性。
-
公开(公告)号:CN110853604A
公开(公告)日:2020-02-28
申请号:CN201911047704.3
申请日:2019-10-30
Applicant: 西安交通大学
Abstract: 本发明公开了一种基于变分自编码器的具有特定地域风格的中国民歌自动生成方法,该方法首先将音乐表示为与其对应的音高序列、音程序列和节奏序列,然后基于变分自编码器建立中国民歌生成模型,并将变分自编码器隐变量空间按音乐的音高、节奏、内容以及风格分割为四个子空间,同时采用对抗训练的方法将四个隐变量子空间进行分离,最后利用上述模型来生成具有特定地域标签的中国民歌。相较于其他对西方音乐的研究,本发明立足于中国民歌的地域风格,通过对变分自编码器隐空间的操控,成功地捕捉到中国民歌的地域风格信息。通过理论分析和实验分析,本发明能有效地分离变分自编码器的各个隐变量,成功生成具有特定地域风格的民歌。
-
公开(公告)号:CN113705384A
公开(公告)日:2021-11-26
申请号:CN202110925608.5
申请日:2021-08-12
Applicant: 西安交通大学
Abstract: 本发明公开了一种考虑局部时空特性和全局时序线索的面部表情识别方法,包括:首先,基于人脸识别技术处理原始视频得到只包含面部区域的视频,并将视频平均分为一定数量的片段;其次,提出一个基于超级图像的时空卷积模型,以采样每个片段的视频帧为输入,利用2D卷积实现视频片段的局部时空特征提取,同时获取不同时刻片段的情感状态向量,有效降低模型训练参数,提升训练速度;最后,提出一个双流长短时记忆模型,考虑了情感表达的时序变化关系和片段级局部时空特征的时序关系,二者相融合提高面部表情识别性能。本发明简单且易于实现,与目前普遍存在的识别模型结构相比,模型参数量降低,同时保证了面部表情识别的有效性。
-
公开(公告)号:CN115862097A
公开(公告)日:2023-03-28
申请号:CN202211493911.3
申请日:2022-11-25
Applicant: 西安交通大学
Abstract: 本发明公开了一种基于多注意力多尺度特征学习的遮挡人脸识别方法和装置。该方法基于通道注意力和空间注意力机制,削减遮挡物对人脸识别的影响,解决有遮挡情况下人脸识别准确率降低的问题。首先在传统卷积神经网络的基础上添加多层次注意力网络,提取人脸图像的通道注意力图和空间注意力图;其次,构建多尺度特征融合器,整合人脸图像的局部与全局信息;接下来,通过遮挡掩码生成器定位遮挡区域并生成遮挡掩码,削减遮挡区域的影响;最后,通过一个多任务学习网络进行遮挡类别的分类和人脸身份的分类,得到最终的人脸识别结果。本发明简单且易于实现,模型深度较浅开销较低,实现遮挡人脸准确识别的同时保证了识别效率。
-
公开(公告)号:CN113780091B
公开(公告)日:2023-08-22
申请号:CN202110926712.6
申请日:2021-08-12
Applicant: 西安交通大学
IPC: G06V40/10 , G06V20/40 , G06F18/2415 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于身体姿势变化表示的视频情感识别方法。本发明提出的情感识别方法只关注视频中人们的关键关节点信息,通过对关节点变化进行编码,利用逐通道卷积网络识别情状态,解决某些情况下无法利用面部表情识别情感的问题。首先,对身体的25个关节点位置进行确定;其次,提出身体姿势变化的表示方法,将表示后的关节点信息按时间汇聚;最后,构建一个包含注意力机制的逐通道卷积神经网络来识别情感状态。本发明简单且易于实现,姿势变化表示方法无需复杂计算,浅层识别模型具有极低的开销,同时不需要进行预训练,保证情感识别有效性同时极大提高识别速度。
-
-
-
-
-