-
公开(公告)号:CN110390397A
公开(公告)日:2019-10-29
申请号:CN201910512371.0
申请日:2019-06-13
Applicant: 成都信息工程大学
Abstract: 本发明属于自然语言处理技术领域,公开了一种文本蕴含识别方法和装置,其通过动态门控推理网络(DGIN)动态选择前提和假设文本不同层面语义的信息,具体体现在DGIN模型结合了词级别信息的细粒度推理和句子级别门控结构来捕捉全局语义,同时从直接相连,相似和差异三个层面来共同推理文本对的蕴含关系。本发明可以有效捕捉文本对的关系以及利用句子级别语义信息,从而提升文本蕴含识别的准确率。
-
公开(公告)号:CN110222349A
公开(公告)日:2019-09-10
申请号:CN201910511211.4
申请日:2019-06-13
Applicant: 成都信息工程大学
IPC: G06F17/28
Abstract: 本发明属于计算机词语表示技术领域,公开了一种深度动态上下文词语表示的模型及方法,所述深度动态上下文词语表示的模型为带层注意力机制的多层双向Transformer编码器堆叠成的遮蔽语言模型;是多层神经网络,网络每一层从不同的角度捕获输入语句中每个单词的上下文信息;然后通过一个层注意力机制给予网络每一层不同的权重;最终根据权重把不同的词语表示综合起来形成词语的上下文表示。使用该模型生成的词语表示在公开数据集上进行了逻辑推理(MultiNLI)、命名实体识别(CoNLL2003)和阅读理解任务(SQuAD)三项任务,比现有模型分别提升了2.0%、0.47%和2.96%。
-
公开(公告)号:CN110853626B
公开(公告)日:2021-04-20
申请号:CN201911001131.0
申请日:2019-10-21
Applicant: 成都信息工程大学
IPC: G10L15/06 , G10L15/16 , G10L15/26 , G06F40/211 , G06F40/279 , G06F40/30 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明涉及对话理解领域,具体涉及一种基于双向注意力神经网络的对话理解方法、装置及设备;其中,该方法包括S1、对用户的语音信号进行识别得到输入序列,S2、通过嵌入层将所述输入序列映射到向量,分别生成所述输入序列的意图注意力第一向量和语义槽注意力第一向量,S3、通过所述意图注意力第一向量和所述语义槽注意力第一向量,分别生成意图注意力向量和语义槽注意力向量,S4、将所述意图注意力向量和所述语义槽注意力向量进行多次交互,S5、输出与所述输入序列对应的输出结果;本发明所提出的方法描述了槽填充和意图预测之间的多重相互作用,有效性优于任何当前没有指定规则或特征的模型,双向注意力机制有助分析意图预测和槽填充之间的关系。
-
公开(公告)号:CN110390397B
公开(公告)日:2020-07-10
申请号:CN201910512371.0
申请日:2019-06-13
Applicant: 成都信息工程大学
Abstract: 本发明属于自然语言处理技术领域,公开了一种文本蕴含识别方法和装置,其通过动态门控推理网络(DGIN)动态选择前提和假设文本不同层面语义的信息,具体体现在DGIN模型结合了词级别信息的细粒度推理和句子级别门控结构来捕捉全局语义,同时从直接相连,相似和差异三个层面来共同推理文本对的蕴含关系。本发明可以有效捕捉文本对的关系以及利用句子级别语义信息,从而提升文本蕴含识别的准确率。
-
公开(公告)号:CN110222349B
公开(公告)日:2020-05-19
申请号:CN201910511211.4
申请日:2019-06-13
Applicant: 成都信息工程大学
Abstract: 本发明属于计算机词语表示技术领域,公开了一种深度动态上下文词语表示的模型及方法,所述深度动态上下文词语表示的模型为带层注意力机制的多层双向Transformer编码器堆叠成的遮蔽语言模型;是多层神经网络,网络每一层从不同的角度捕获输入语句中每个单词的上下文信息;然后通过一个层注意力机制给予网络每一层不同的权重;最终根据权重把不同的词语表示综合起来形成词语的上下文表示。使用该模型生成的词语表示在公开数据集上进行了逻辑推理(MultiNLI)、命名实体识别(CoNLL2003)和阅读理解任务(SQuAD)三项任务,比现有模型分别提升了2.0%、0.47%和2.96%。
-
公开(公告)号:CN110853626A
公开(公告)日:2020-02-28
申请号:CN201911001131.0
申请日:2019-10-21
Applicant: 成都信息工程大学
IPC: G10L15/06 , G10L15/16 , G10L15/26 , G06F40/211 , G06F40/279 , G06F40/30 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明涉及对话理解领域,具体涉及一种基于双向注意力神经网络的对话理解方法、装置及设备;其中,该方法包括S1、对用户的语音信号进行识别得到输入序列,S2、通过嵌入层将所述输入序列映射到向量,分别生成所述输入序列的意图注意力第一向量和语义槽注意力第一向量,S3、通过所述意图注意力第一向量和所述语义槽注意力第一向量,分别生成意图注意力向量和语义槽注意力向量,S4、将所述意图注意力向量和所述语义槽注意力向量进行多次交互,S5、输出与所述输入序列对应的输出结果;本发明所提出的方法描述了槽填充和意图预测之间的多重相互作用,有效性优于任何当前没有指定规则或特征的模型,双向注意力机制有助分析意图预测和槽填充之间的关系。
-
-
-
-
-