一种基于紧密卷积的神经网络模型的声音场景识别方法

    公开(公告)号:CN110796027A

    公开(公告)日:2020-02-14

    申请号:CN201910960583.5

    申请日:2019-10-10

    申请人: 天津大学

    IPC分类号: G06K9/00 G06N3/04 G06N3/08

    摘要: 一种基于紧密卷积的神经网络模型的声音场景识别方法:建立用于声音场景分类的紧密卷积的神经网络模型;将包含有不同场景类别的音频文件和对应的场景类别的训练集输入用于声音场景分类的紧密卷积的神经网络模型,对用于声音场景分类的紧密卷积的神经网络模型进行训练;读取音频文件并进行预处理,得到音频信号片段;从所述的音频信号片段中提取对数梅尔图;将所述的对数梅尔图输入到训练后的用于声音场景分类的紧密卷积的神经网络模型中,得到最终的声音场景类别。本发明既保证了有效特征得以充分的利用而使准确率不变,又精简了网络模型而减少内存消耗,在声音场景识别中做到更加高效,更好的满足声音场景识别设备的性能要求。

    一种基于紧密卷积的神经网络模型的声音场景识别方法

    公开(公告)号:CN110796027B

    公开(公告)日:2023-10-17

    申请号:CN201910960583.5

    申请日:2019-10-10

    申请人: 天津大学

    摘要: 一种基于紧密卷积的神经网络模型的声音场景识别方法:建立用于声音场景分类的紧密卷积的神经网络模型;将包含有不同场景类别的音频文件和对应的场景类别的训练集输入用于声音场景分类的紧密卷积的神经网络模型,对用于声音场景分类的紧密卷积的神经网络模型进行训练;读取音频文件并进行预处理,得到音频信号片段;从所述的音频信号片段中提取对数梅尔图;将所述的对数梅尔图输入到训练后的用于声音场景分类的紧密卷积的神经网络模型中,得到最终的声音场景类别。本发明既保证了有效特征得以充分的利用而使准确率不变,又精简了网络模型而减少内存消耗,在声音场景识别中做到更加高效,更好的满足声音场景识别设备的性能要求。