-
公开(公告)号:CN117109726B
公开(公告)日:2025-03-14
申请号:CN202311015701.8
申请日:2023-08-11
Applicant: 广东省生态环境监测中心 , 广州大学
IPC: G01H17/00 , G06F18/25 , G06F18/2131 , G06F18/15 , G06F18/24 , G06N3/0464 , G06N3/0455 , G06N3/044 , G06N3/048 , G06N3/0499 , G06N3/0475 , G06N3/094
Abstract: 本发明公开了一种单通道噪声检测方法及装置,包括:将混合声音信号输入预先训练好的噪声分离模型,获取若干个单源噪声信号;所述噪声分离模型根据时域编码器和双路径循环神经网络构建;将分离得到的单源噪声信号输入预先训练好的噪声增强模型,分别对各个单源噪声信号进行增强操作;所述噪声增强模型根据时频域生成对抗网络构建;获取增强后的各个单源噪声信号,根据预设指标评估各个单源噪声信号,完成噪声检测。本发明通过时域编码器和双路径循环神经网络构建噪声分离模型对混合声音信号进行分离,可以快速、有效地将混合声音信号中的噪声源分离出来,提高噪声监测的准确性。
-
公开(公告)号:CN115346536B
公开(公告)日:2025-03-11
申请号:CN202210813780.6
申请日:2022-07-12
Applicant: 广州大学
IPC: G10L17/26 , G10L17/18 , G10L17/04 , G10L17/20 , G10L17/02 , G10L25/03 , G10L25/18 , G10L25/21 , G10L25/27 , G10L25/30
Abstract: 本发明公开了一种声音识别模型的训练方法、识别方法、设备及介质,本发明通过对声音数据集进行第一能量值计算,根据第一能量值计算结果进行第一筛选处理,得到第一数据;对第一数据进行增益处理、滤波频域增强处理以及乱序合并处理,并对增益处理结果、滤波频域增强处理结果以及乱序合并处理结果中的至少之一进行组合,有利于增加声音识别模型训练过程中对可能携带各种噪声的数据的鲁棒性;对第二数据进行梅尔谱计算得到训练样本,将训练样本输入教师网络训练得到教师网络模型,将训练样本输入学生网络并根据教师网络模型对学生网络进行蒸馏学习,得到声音识别模型,轻量化且提升了识别能力,本发明可广泛应用于数据处理技术领域。
-
公开(公告)号:CN117110990B
公开(公告)日:2025-01-14
申请号:CN202311015710.7
申请日:2023-08-11
Applicant: 广州大学 , 广东省生态环境监测中心
IPC: G01S5/22
Abstract: 本发明公开了一种噪声源方向被动定位的方法和装置,包括:获取麦克风列阵中各麦克风采集的噪声源信号,计算所述各麦克风采集的噪声源信号的声压级;筛选出所述声压级大于预设阈值的各所述噪声源信号作为第一信号,并根据每组麦克风对各自的第一信号,使用广义互相关相位变换法并且结合远场模型,确定各所述第一信号与对应麦克风对之间的夹角,将所述夹角转换为以麦克风阵列预设布局为参考的全局角度;采用基于角度差异的共识检测方法排除各所述全局角度中的镜像角度,得到各麦克风对的真实角度;融合多组麦克风对的所述真实角度,加权计算得到噪声源位置。本发明实现了单一声源的噪声方向更简单的被动定位。
-
公开(公告)号:CN114758674A
公开(公告)日:2022-07-15
申请号:CN202210224155.8
申请日:2022-03-07
Applicant: 广州大学 , 广州灵感生态科技有限公司
IPC: G10L25/51 , G10L25/21 , G10L25/18 , G10L25/30 , G10L21/0208
Abstract: 本发明公开了一种目标区域的声音信息监测方法、装置、设备及介质,本发明通过声音采集装置获取目标区域的第一声音信息,并采集通过监听扬声器在声音采集装置的位置产生的第二声音信息,根据第二声音信息计算声压级修正值,根据第一声音信息以及声压级修正值进行噪声筛选处理,确定噪声筛选后的目标声音数据;根据目标声音数据以及预存模板数据进行相似度对比处理,确定有用声音数据,并根据有用声音数据生成监测数据,使得最终用于监测的监测数据为筛选噪声后所关注的有用声音数据,在声音采集装置传输数据时以及在对监测数据进行分析时,降低了数据传输的数据量以及分析难度,提高了便捷性,本发明可广泛应用于音频处理技术领域。
-
公开(公告)号:CN112992172A
公开(公告)日:2021-06-18
申请号:CN202110116884.7
申请日:2021-01-28
Applicant: 广州大学 , 广州灵感生态科技有限公司
IPC: G10L21/0272 , G10L21/0208 , G10L25/30 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于注意力机制的单通道时域鸟鸣声分离方法,包括:S1,在野外采集待分离的混叠鸟鸣声信号,并进行预处理;S2,将预处理后的混叠鸟鸣声信号输入到预先建立并训练完毕的基于注意力机制的时域单通道鸟鸣声分离模型,时域单通道鸟鸣声分离模型输出分离后的鸟鸣声音频。本发明构建并训练了基于注意力机制的单通道鸟鸣声分离模型,使用网络估计的源音频与干净源音频的尺度不变的信噪比和均方误差作为联合训练目标,采用句子级的置换不变训练方法进行训练,从而使得单通道鸟鸣声分离和后续的鸟鸣声识别得到很好的结果。
-
公开(公告)号:CN109901114B
公开(公告)日:2020-10-27
申请号:CN201910242080.4
申请日:2019-03-28
Applicant: 广州大学
IPC: G01S5/22
Abstract: 本发明公开了一种适用于声源定位的时延估计方法,包括对通过两个传声器获得的语音信号进行信号处理,获得最小相位分量的复倒谱;根据所述最小相位分量的复倒谱计算信号最小相位分量频谱和全通分量频谱;利用所述最小相位分量的频谱的模值与所述全通分量信号的频谱计算得到改进的全通分量频谱,并根据所述改进的全通分量频谱计算得到改进的相位加权函数,结合所述改进的全通分量频谱和所述改进的相位加权函数计算互功率谱;通过快速傅里叶反变换方法求解所述互功率谱的互相关函数,并根据所述互相关函数计算得到延迟时间。本发明提供的时延估计方法能够在混响和噪声环境下,有效地减少由噪声和混响带来的影响,从而提高对于噪声的适应性和时延估计的准确度。
-
公开(公告)号:CN111540368A
公开(公告)日:2020-08-14
申请号:CN202010379824.X
申请日:2020-05-07
Applicant: 广州大学
Abstract: 本发明公开了一种稳健的鸟声提取方法,包括:对音频信号进行预处理,得到带噪信号功率谱,通过最小值搜索法得到噪声功率谱估计;在预设的HBank滤波器组的基础上,将带噪信号功率谱和噪声功率谱估计转换到H域内进行分析,进而获得后验信噪比;根据所述后验信噪比以及引导判决法,得到H域的先验信噪比估计;对所述先验信噪比先进行平滑处理后求出其均值,进而得到有声帧的先验概率;再由设定的阈值判断当前帧是否为有声帧,并将连续的有声帧信号集合得到有声片段;通过线性预测法得到共振峰频率和共振峰宽度,进而判别有声段是否存在鸟声。本发明能够准确提取有声段,并自动剔除杂音,在低信噪比情况下也有良好效果,算法复杂度较低且实时性强。
-
公开(公告)号:CN111535470A
公开(公告)日:2020-08-14
申请号:CN202010384789.0
申请日:2020-05-09
Applicant: 广州大学
Abstract: 本发明公开了一种提升室内语言清晰度的方法,包括:获取室内建筑的几何尺寸,根据所述几何尺寸建立室内仿真模型;在所述室内仿真模型中选择若干个参数评价点,根据预设的清晰度评价参数计算策略在所述参数评价点中选取若干个清晰度薄弱点;所述清晰度薄弱点用于作为在室内布置扩散体和反射材料的参考位置;计算所述清晰度薄弱点在所选倍频程频带下的平均混响时间;根据预设的所述倍频程频带的目标混响时间和所述平均混响时间计算所述倍频程频带对应的吸声增量;根据所述吸声增量选择吸声材料;所述吸声材料用于布置在室内的第一预设位置处。本发明还公开一种提升室内语言清晰度的系统。采用本发明实施例,能有效提升室内的语言清晰度。
-
公开(公告)号:CN107822571A
公开(公告)日:2018-03-23
申请号:CN201711299086.2
申请日:2017-12-08
Applicant: 广州大学
CPC classification number: H02J7/0027 , A47L11/4005 , A47L11/4022 , A47L11/4027
Abstract: 本发明涉及一种辅助智能拖地机器人的带过滤功能的充电基站,其包括上、中、下三层;上层具有脏水储水箱、过滤箱和净水储水箱,三者两两互通;中层相对于上层和下层呈内凹以容置智能拖地机器人主体,且具有运水区和充电区,充电区设有充电座;下层具有卡座;卡座上面具有进水口,卡座内部具有与进水口连通的进水区,净水储水箱的底部具有出水口,运水区安装有连通管,连通管连通所述进水区和脏水储水箱且设有单向阀。本发明能够对智能拖地机器人的脏水进行净化,在净化的同时还能对智能拖地机器人进行充电。从而也避免了现有技术中智能拖地机器人维持续航的成本较高,以及自带过滤装置导致挤占体积和重量,同时产生的杂质难以清理等问题。
-
-
-
-
-
-
-
-