-
公开(公告)号:CN111104498B
公开(公告)日:2023-04-25
申请号:CN201911270705.4
申请日:2019-12-12
Applicant: 华南理工大学
IPC: G06F16/332 , G06F40/30 , G06N3/047
Abstract: 本发明公开了一种任务型对话系统中的语义理解方法,包括步骤:收集与特定任务相关的对话数据,标注出每句对话数据的领域、意图以及槽值;对收集的对话数据进行预处理,根据预处理后的数据对构建的多任务级联神经网络模型进行训练;根据模型训练获得的领域、意图以及槽值,计算多任务级联神经网络模型的损失函数,根据损失函数值多次迭代,获得最终的多任务级联神经网络模型;将待识别的对话数据进行预处理后输入到最终的模型中,识别对话数据中语句的领域、意图以及槽值。该发明解决了目前语义理解系统识别准确率低的问题,提高了任务型对话系统中自然语言理解三个子任务的识别准确率。
-
公开(公告)号:CN112988967A
公开(公告)日:2021-06-18
申请号:CN202110248798.1
申请日:2021-03-08
Applicant: 华南理工大学
IPC: G06F16/33 , G06F16/332 , G06N3/04
Abstract: 本发明公开了一种基于两阶段解码的对话生成方法及装置、介质和计算设备,方法将对话的回复生成过程分成两个解码阶段,先向对话生成模型输入对话上下文以将其映射为词嵌入向量;然后将词向量输入到上下文自注意力编码器中,得到对话上下文的特征向量,之后将该特征向量输入到第一阶段Transformer解码器中,解码生成一个实词序列;再将实词序列输入到实词序列编码器中,得到实词序列的特征向量;最后将上下文和实词序列的特征向量一起输入到第二阶段Transformer解码器中,解码生成最终的回复。本发明通过两阶段的解码过程,防止了频率较高但缺乏语义信息的虚词对实词造成的干扰,从而提高回复的相关性和信息量。
-
公开(公告)号:CN111104498A
公开(公告)日:2020-05-05
申请号:CN201911270705.4
申请日:2019-12-12
Applicant: 华南理工大学
IPC: G06F16/332 , G06F40/30 , G06N3/04
Abstract: 本发明公开了一种任务型对话系统中的语义理解方法,包括步骤:收集与特定任务相关的对话数据,标注出每句对话数据的领域、意图以及槽值;对收集的对话数据进行预处理,根据预处理后的数据对构建的多任务级联神经网络模型进行训练;根据模型训练获得的领域、意图以及槽值,计算多任务级联神经网络模型的损失函数,根据损失函数值多次迭代,获得最终的多任务级联神经网络模型;将待识别的对话数据进行预处理后输入到最终的模型中,识别对话数据中语句的领域、意图以及槽值。该发明解决了目前语义理解系统识别准确率低的问题,提高了任务型对话系统中自然语言理解三个子任务的识别准确率。
-
-