一种基于深度强化学习模型的数据清洗方法及装置

    公开(公告)号:CN113326689A

    公开(公告)日:2021-08-31

    申请号:CN202010128327.2

    申请日:2020-02-28

    摘要: 本发明属于数据通信和数据处理技术领域,具体涉及一种基于深度强化学习模型的数据清洗方法,该方法包括:获取待清洗的带标签的数据集;采用预筛选算法,删除待清洗的带标签的数据集中的无内容数据、不在标签集内的标签数据和标签矛盾的数据,获得待分类的数据集;将待分类的数据集输入至预先训练的深度强化学习模型中,获得不同类别的延迟奖励;再根据获得的不同类别的延迟奖励,依据预先训练的深度强化学习模型中的动作集合,丢弃掉有偏数据,保留有效数据,并更新状态列表S,最大化每一类别的延迟奖励值,将每一类别的最大延迟奖励值对应的带标签的训练数据集作为清洗干净的带标签的训练数据集,从而完成数据清洗。

    一种基于关键词特征嵌入语言模型的意图识别方法及系统

    公开(公告)号:CN112989839A

    公开(公告)日:2021-06-18

    申请号:CN201911309397.1

    申请日:2019-12-18

    IPC分类号: G06F40/30 G06F40/284

    摘要: 本发明属于自然语言处理技术领域,具体涉及一种基于关键词特征嵌入语言模型的意图识别方法,包括:采用前后向最大分词算法,对提取的有效文本的语言信息进行分词,获得不同类别的分词结果;针对获得的不同类别的分词结果,获得不同类别的分词结果对应的候选意图相关的关键词列表;剔除每一种类别的分词结果对应的候选意图相关的关键词列表中的通用高频词和领域无关词,获得每一种类别的分词结果对应的最终关键词表,进而获得不同的关键词特征向量;将获得的每一个关键词特征向量嵌入至预先训练好的语言模型,获得带有关键词特征的有效文本的语音信息;并对其进行编码和分类,获得该有效文本的语言信息的意图识别结果。

    一种基于无网格最大互信息准则的神经网络训练加速方法

    公开(公告)号:CN108629412A

    公开(公告)日:2018-10-09

    申请号:CN201710152727.5

    申请日:2017-03-15

    IPC分类号: G06N3/08

    摘要: 本发明提供了一种基于无网格最大互信息准则的神经网络训练加速方法,本发明的方法通过对无网格最大互信息准则(LFMMI准则)下的神经网络CE准则输出端进行低秩转换,将原有的高秩矩阵模块拆分为两个低秩矩阵模块,拆分后的两个低秩矩阵模块内的子阵相乘最后的维度和之前的全连接矩阵一致,在保证神经网络CE准则输出端总体维度不变的情况下,利用改造后的低维度子阵进行神经网络训练,从而简化了运算结构,使神经网络的输出层前向计算和后向计算占据训练时间比例明显减小,加快了神经网络的训练。