-
公开(公告)号:CN112256868B
公开(公告)日:2025-04-15
申请号:CN202011069841.X
申请日:2020-09-30
IPC: G06F16/35 , G06F40/151 , G06F18/214 , G06N3/006
Abstract: 本申请适用于终端人工智能技术领域,提供了零指代消解方法、训练零指代消解模型的方法及电子设备。上述训练零指代消解模型的方法包括:将训练文本中的所有词转换为第一向量;其中,训练文本中包括多个先行词和多个零代词,第一向量包括与各个先行词对应的第一先行词向量和与各个零代词对应的第一零代词向量,第一零代词向量中包含零代词的位置信息;将零代词的位置信息融合到第一先行词向量中,得到第二先行词向量;基于第一零代词向量和第二先行词向量,确定每个先行词的理论类别标签;其中,每个先行词对应一个预设类别标签;根据每个先行词的理论类别标签与预设类别标签,对零指代消解模型进行训练。上述方法能够提高零指代消解的准确性。
-
公开(公告)号:CN114528381A
公开(公告)日:2022-05-24
申请号:CN202011199067.4
申请日:2020-10-31
IPC: G06F16/332 , G06F16/33 , G06F16/35 , G06F40/289 , G06F40/35 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本申请提供了一种问答识别方法以及相关设备。首先,获取目标问答对,然后,将目标问答对输入目标问答模型,目标问答模型的损失函数由分类模块的第一损失函数、答案抽取模块的第二损失函数以及答案识别模块的第三损失函数得到。最后,输出答案库中是否包括目标问题所对应的目标答案。由此可鉴,目标问答模型针对问题作答时结合了分类模块、答案抽取模块以及答案识别模块的特征,通过协同不同粒度的语义,提升对话问答的准确率。
-
公开(公告)号:CN114238554A
公开(公告)日:2022-03-25
申请号:CN202010942991.0
申请日:2020-09-09
Abstract: 本申请提供一种文本标注提取方法。方法应用于人工智能领域。方法包括:服务器接收并响应电子设备发送第一标注请求,启动动态标注服务,其中,动态标注服务对应有第一动态标注模型;服务器接收电子设备发送的第一文本序列以及第一文本序列对应的第一标注信息,其中,第一文本序列包括第一文本信息和第二标签;服务器获取第二文本序列;当第一文本序列的数量大于第一阈值时,服务器通过第一动态标注模型确定出第二文本序列的第二标注信息;服务器基于第二标注信息,提取出第二文本序列中带有第二标签的属性的文字。通过这种方法,当自动标注模型的标注标签变化时,无需重新训练模型,能够提高自动标注的效率和准确性。
-
公开(公告)号:CN112256868A
公开(公告)日:2021-01-22
申请号:CN202011069841.X
申请日:2020-09-30
IPC: G06F16/35 , G06F40/151 , G06K9/62 , G06N3/04
Abstract: 本申请适用于终端人工智能技术领域,提供了零指代消解方法、训练零指代消解模型的方法及电子设备。上述训练零指代消解模型的方法包括:将训练文本中的所有词转换为第一向量;其中,训练文本中包括多个先行词和多个零代词,第一向量包括与各个先行词对应的第一先行词向量和与各个零代词对应的第一零代词向量,第一零代词向量中包含零代词的位置信息;将零代词的位置信息融合到第一先行词向量中,得到第二先行词向量;基于第一零代词向量和第二先行词向量,确定每个先行词的理论类别标签;其中,每个先行词对应一个预设类别标签;根据每个先行词的理论类别标签与预设类别标签,对零指代消解模型进行训练。上述方法能够提高零指代消解的准确性。
-
公开(公告)号:CN115935050A
公开(公告)日:2023-04-07
申请号:CN202111017439.1
申请日:2021-08-31
IPC: G06F16/9535 , G06F18/214
Abstract: 本申请实施例公开了一种信息推荐方法、训练方法及相关装置,用于使得用户明确自己的需求,以提高推荐的信息的准确性。本申请实施例方法包括:获取用户对于第一问题的第一反馈信息,第一问题是基于第一槽位提出的;基于第一反馈信息和第二槽位向用户推荐第一信息;获取用户对于第一信息的第二反馈信息;基于第一反馈信息和第二反馈信息,并通过第一模型向用户推荐第二信息。
-
公开(公告)号:CN114444466A
公开(公告)日:2022-05-06
申请号:CN202011196905.2
申请日:2020-10-31
IPC: G06F40/211 , G06F40/284 , G06F40/30
Abstract: 本申请实施例公开了一种长句压缩方法,本申请实施例方法包括:数据处理设备获取原始长句后,根据BERT模型处理原始长句,得到BERT长句,其中BERT长句的内容和原始长句的内容一一对应,BERT长句的内容利用BERT模型中的多层数据,数据处理设备通过预置算法处理该BERT长句,得到压缩后的目标长句,根据本申请实施例提供的技术方案,对原始长句进行压缩时,利用BERT模型中的多层数据,提高了压缩后目标长句的准确率。
-
公开(公告)号:CN119046431A
公开(公告)日:2024-11-29
申请号:CN202411158824.1
申请日:2024-08-22
Applicant: 哈尔滨工业大学
Abstract: 本发明公开了一种基于一阶自然逻辑的多项选择问答系统,包括:预处理模块,用于将问题和候选答案转化为假设;一阶逻辑模块,用于利用一阶逻辑将假设分解为子假设;自然逻辑模块,用于利用自然逻辑从外部语料库改写前提,产生与原始前提传达相同含义的中间前提,并以预定义的最大推理深度λ作为停止标准,迭代生成前提到假设的推理路径;框架构建模块,用于结合一阶逻辑与自然逻辑,集成神经网络构建神经符号推理框架;结果输出模块,用于基于神经符号推理框架,计算中间前提和子假设之间的语义相似度,根据相似度得分输出得分最高的最终选择答案。本发明不仅缩短了推理路径,而且增强了动词短语的对齐。
-
公开(公告)号:CN118364103A
公开(公告)日:2024-07-19
申请号:CN202410461572.3
申请日:2024-04-17
Applicant: 哈尔滨工业大学
IPC: G06F16/35 , G06F18/21 , G06F18/2431 , G06F40/216 , G06N3/042 , G06N3/0455 , G06N3/0895 , G06N5/045
Abstract: 本发明属于自然语言处理技术领域,具体涉及一种自验证式的探索预训练语言模型中明喻知识的方法及其系统。步骤1、构建多级明喻识别数据集;步骤2、创建多级明喻识别任务,帮助PLMs评估明喻质量;步骤3、将多级明喻识别分数融合进明喻生成任务。本发明为解决现有预训练语言模型无法很好评价明喻好坏从而无法很好地探索明喻知识的问题。
-
公开(公告)号:CN112148863B
公开(公告)日:2022-07-01
申请号:CN202011104023.9
申请日:2020-10-15
Applicant: 哈尔滨工业大学
IPC: G06F16/332 , G06F40/295 , G06N3/04
Abstract: 一种融入常识知识的生成式对话摘要方法,属于自然语言处理领域。本发明解决了现有生成式对话摘要方法未利用常识知识而导致生成的对话摘要不准确,抽象性低的问题。本发明方法包括:获取常识知识库ConceptNet与对话摘要数据集SAMSum;利用获取的常识知识库ConceptNet为对话摘要数据集SAMSum引入元组知识,构建异构对话图;练步骤三中构造的对话异构神经网络模型,通过训练的对话异构神经网络模型从一段对话中生成最终对话摘要。本发明应用于对话摘要的生成。
-
公开(公告)号:CN114462607A
公开(公告)日:2022-05-10
申请号:CN202210131870.7
申请日:2022-02-14
Applicant: 哈尔滨工业大学
Abstract: 本发明公开基于双曲空间的事理图谱增强的因果推理方法及系统,包括,获取事件对及事理图谱,基于事理图谱获取事件对的证据事件,将证据事件及事件对组成因果证据图,其中事件对包括原因事件和结果事件;将因果证据图转换为事件表示,对将事件表示从欧式空间映射到双曲空间中,获取双曲事件表示;对双曲事件表示进行有向因果推理,得到事件对最终嵌入,并对事件对最终嵌入进行计算,得到因果强度分数。通过上述技术方案,本发明能够提高因果推理的稳定性和可解释性。
-
-
-
-
-
-
-
-
-