-
公开(公告)号:CN109635790A
公开(公告)日:2019-04-16
申请号:CN201910079769.X
申请日:2019-01-28
申请人: 杭州电子科技大学
CPC分类号: G06K9/00335 , G06N3/0454
摘要: 本发明公开一种基于3D卷积的行人异常行为识别方法,包括步骤:S1:创建一个包含打架斗殴、遛狗、摔倒等异常行为的数据集;S2:结合最新的视频行为识别方案,构建一个兼顾精度与速率的3D卷积神经网络;S3:对数据集中图像进行预处理后送入3D卷积神经网络,得到视频异常行为识别模型;S4:输入测试行人监控视频,输出异常行为类型。本发明所述识别方法将轻量级的2D卷积网络MobileNet思想迁移到3D网络中,可以在保持识别性能的基础上降低计算成本;同时,采用自适应池化层与稀疏时间采样策略,可以减少连续帧中包含大量冗余的信息与模糊噪声。
-
公开(公告)号:CN109637522B
公开(公告)日:2022-12-09
申请号:CN201811599907.9
申请日:2018-12-26
申请人: 杭州电子科技大学
摘要: 本发明公开了一种基于语谱图提取深度空间注意特征的语音情感识别方法,采用以下步骤完成:步骤a:对已标注指定情感标签的标准情感数据库中的语音进行预处理,生成语谱图;步骤b:将所述语谱图送入AItti模型提取SEF特征;步骤c:将所述语谱图送入语音情感模型提取浅层特征;步骤d:将所述SEF特征和所述浅层特征作为输入,送到CSWNet中,生成标定权重特征;步骤e:将所述标定权重特征送入CRNN之后的网络层,提取深度情感特征,通过Softmax分类器进行情感分类,生成最终分类结果。本发明所述方法相比于传统模型,在少量增加模型复杂度的前提下,平均识别率提升了8.43%,非同类情感区分效果明显,兼具良好的泛化性。
-
公开(公告)号:CN109637522A
公开(公告)日:2019-04-16
申请号:CN201811599907.9
申请日:2018-12-26
申请人: 杭州电子科技大学
CPC分类号: G10L15/02 , G06K9/6267 , G06N3/0454 , G10L15/063 , G10L15/16
摘要: 本发明公开了一种基于语谱图提取深度空间注意特征的语音情感识别方法,采用以下步骤完成:步骤a:对已标注指定情感标签的标准情感数据库中的语音进行预处理,生成语谱图;步骤b:将所述语谱图送入AItti模型提取SEF特征;步骤c:将所述语谱图送入语音情感模型提取浅层特征;步骤d:将所述SEF特征和所述浅层特征作为输入,送到CSWNet中,生成标定权重特征;步骤e:将所述标定权重特征送入CRNN之后的网络层,提取深度情感特征,通过Softmax分类器进行情感分类,生成最终分类结果。本发明所述方法相比于传统模型,在少量增加模型复杂度的前提下,平均识别率提升了8.43%,非同类情感区分效果明显,兼具良好的泛化性。
-
-