一种基于图卷积网络的人体行为识别模型的构建方法

    公开(公告)号:CN111652124A

    公开(公告)日:2020-09-11

    申请号:CN202010488680.1

    申请日:2020-06-02

    Abstract: 本发明公开了一种基于图卷积网络的人体行为识别模型的构建方法,包括如下步骤:步骤1,骨架序列获取并预处理;步骤2,构造表示所述骨架序列的时空图;步骤3,基于所述时空图构建三流图卷积网络;所述三流图卷积网络包括三个分别用于对输入的时空图进行关节点、骨骼和骨骼运动三种信息的建模的网络,以及三个对应的图卷积网络,每个图卷积网络的输出进行融合作为三流图卷积网络的输出;步骤4,将步骤1得到的骨架序列经过步骤2转换为时空图后,输入三流图卷积网络进行训练,得到人体行为识别模型。本发明通过时空图计算关节点、骨骼和骨骼运动三种信息用于训练模型,以此使用更丰富的骨架信息进行动作识别,显著的提高了识别性能。

    一种基于RNN和PAD情感模型的情感语音合成方法

    公开(公告)号:CN112185345A

    公开(公告)日:2021-01-05

    申请号:CN202010907929.8

    申请日:2020-09-02

    Abstract: 本发明公开了一种基于RNN和PAD情感模型的情感语音合成方法,包括:步骤1,基于情感语音库获取训练数据,包括PAD量化标注得到的PAD值、上下文相关标注、以及特征参数MGC、BAP和F0;步骤2,将训练数据输入基于LSTM的RNN模型进行训练,得到训练后的特征参数MGC、BAP和F0;步骤3,基于PAD情感模型,利用欧几里得距离计算用于修正训练后的特征参数MGC、BAP和F0的权重,然后利用权重对训练后的特征参数进行修正;步骤4,将待合成的文本经过文本分析得到上下文相关标注,然后将其与修正后的特征参数MGC、BAP和F0合成为情感语音。本发明将基于LSTM的RNN模型和PAD情感模型加入到语音合成中,解决传统语音合成带来的问题以及语音合成中情感不足的问题,提高了语音合成的自然度。

    一种基于双分支网络的面部表情识别模型的构建方法

    公开(公告)号:CN111652171A

    公开(公告)日:2020-09-11

    申请号:CN202010518449.2

    申请日:2020-06-09

    Abstract: 本发明公开了一种基于双分支网络的面部表情识别模型的构建方法,包括:S1,样本集预处理并数值化;S2,样本集划分为训练集和测试集;S3,构建双分支网络;S4,定义目标函数;S5,利用训练集训练所述双分支网络得到面部表情识别模型;S6,利用测试集验证所述面部表情识别模型的准确率。本发明通过构建双分支网络分别对脸部区域图像和眉眼区域图像进行特征提取和分类,以解某些特定因素的影响导致脸部的表情差异较大而降低识别率,以及单一卷积神经网络不能充分利用表情变换蕴含的时间序列信息造成资源浪费的问题。

Patent Agency Ranking