-
公开(公告)号:CN118520038B
公开(公告)日:2024-10-01
申请号:CN202410982841.0
申请日:2024-07-22
申请人: 中国人民解放军国防科技大学
IPC分类号: G06F16/25 , G06N20/00 , G06F18/214 , G06F18/241
摘要: 本公开实施例中提供了事件抽取鲁棒性模型训练方法、装置及可读存储介质,对两个相同结构的事件抽取模型进行不同的参数初始化,然后使用事件抽取模型在文本序列中选择干净token,并计算干净token的监督损失和对比损失,组成联合损失同时训练事件抽取模型,使它们对干净token的判别能力增强且逐渐对输入达成一致的预测,得到两个训练好的目标事件抽取模型。通过本公开的处理方案,加强事件抽取模型对标签噪声的鲁棒性,旨在使训练好的事件抽取模型满足军事领域的实际需要。
-
公开(公告)号:CN115329088A
公开(公告)日:2022-11-11
申请号:CN202211245739.X
申请日:2022-10-12
申请人: 中国人民解放军国防科技大学
IPC分类号: G06F16/35 , G06N3/04 , G06F40/295 , G06F40/30 , G06K9/62
摘要: 本发明公开了图神经网络事件检测模型的鲁棒性分析方法,包括:通过通用文本变换和亚种群变换将原始文本数据转换为对抗数据,将词向量化为并输入Bi‑LSTM网络中,对输入序列进行句法依存分析,得到句法依存图;将句法依存图中的边嵌入向量空间,得到一个边表示张量;将每个节点的表示变换到dg维后,每层中每个节点的向量通过边表示张量聚合邻居节点更新;将各个节点的最终表示输入全连接网络,计算所有事件类型的概率分布,将概率最大的事件标签作为分类结果并输出。本发明在存在对抗数据时性能优于现有模型。
-
公开(公告)号:CN116245139A
公开(公告)日:2023-06-09
申请号:CN202310436199.1
申请日:2023-04-23
申请人: 中国人民解放军国防科技大学
IPC分类号: G06N3/042 , G06N3/0464 , G06F18/24 , G06N3/08 , G06F16/35
摘要: 本申请公开一种图神经网络模型训练方法和装置、事件检测方法和装置、电子设备及计算机存储介质,能够提高事件检测模型的性能。图神经网络模型训练方法包括:获取训练数据集,训练数据集包括训练文本和训练文本对应的标签事件类型;进行至少一次迭代,以得到事件检测模型,迭代包括:利用第一图神经网络模型和第二图神经网络模型,分别对训练文本进行事件检测,以得到第一预测事件类型和第二预测事件类型;根据第一预测事件类型、第二预测事件类型以及标签事件类型,计算损失值;在第一预测事件类型和第二预测事件类型之间的第三差异满足预设条件的情况下,调整第一图神经网络模型和第二图神经网络模型的参数,以最小化损失值。
-
公开(公告)号:CN118277574A
公开(公告)日:2024-07-02
申请号:CN202410712345.3
申请日:2024-06-04
申请人: 中国人民解放军国防科技大学
IPC分类号: G06F16/35 , G06F40/211 , G06F40/284 , G06F40/295 , G06F40/30 , G06N3/042 , G06N3/0464 , G06N3/0442 , G06N3/0455
摘要: 本申请公开一种事件抽取模型和军事事件类型的预测方法,事件抽取模型中输入部分的BERT编码模块和命名实体标签嵌入层将文本序列和命名实体信息转换为两个向量表示序列,而后使用Bi‑LSTM进一步融合。图卷积网络部分将句法依存关系和实体关系信息转换为输入文本的两个邻接矩阵,将关系标签嵌入后得到的两个表示张量拼接以融合两种关系,利用多层GCN中的EANU和NAEU模块学习token和关系标签的向量表示,后将各层token向量表示加权后传入输出部分。输出部分使用Softmax将token向量表示映射为事件标签的概率分布,采用加权交叉熵损失函数加强模型对正例token的预测。
-
公开(公告)号:CN115329088B
公开(公告)日:2023-01-10
申请号:CN202211245739.X
申请日:2022-10-12
申请人: 中国人民解放军国防科技大学
IPC分类号: G06F16/35 , G06N3/04 , G06F40/295 , G06F40/30
摘要: 本发明公开了图神经网络事件检测模型的鲁棒性分析方法,包括:通过通用文本变换和亚种群变换将原始文本数据转换为对抗数据,将词向量化为并输入Bi‑LSTM网络中,对输入序列进行句法依存分析,得到句法依存图;将句法依存图中的边嵌入向量空间,得到一个边表示张量;将每个节点的表示变换到dg维后,每层中每个节点的向量通过边表示张量聚合邻居节点更新;将各个节点的最终表示输入全连接网络,计算所有事件类型的概率分布,将概率最大的事件标签作为分类结果并输出。本发明在存在对抗数据时性能优于现有模型。
-
公开(公告)号:CN118277574B
公开(公告)日:2024-09-03
申请号:CN202410712345.3
申请日:2024-06-04
申请人: 中国人民解放军国防科技大学
IPC分类号: G06F16/35 , G06F40/211 , G06F40/284 , G06F40/295 , G06F40/30 , G06N3/042 , G06N3/0464 , G06N3/0442 , G06N3/0455
摘要: 本申请公开一种事件抽取模型和军事事件类型的预测方法,事件抽取模型中输入部分的BERT编码模块和命名实体标签嵌入层将文本序列和命名实体信息转换为两个向量表示序列,而后使用Bi‑LSTM进一步融合。图卷积网络部分将句法依存关系和实体关系信息转换为输入文本的两个邻接矩阵,将关系标签嵌入后得到的两个表示张量拼接以融合两种关系,利用多层GCN中的EANU和NAEU模块学习token和关系标签的向量表示,后将各层token向量表示加权后传入输出部分。输出部分使用Softmax将token向量表示映射为事件标签的概率分布,采用加权交叉熵损失函数加强模型对正例token的预测。
-
公开(公告)号:CN118520038A
公开(公告)日:2024-08-20
申请号:CN202410982841.0
申请日:2024-07-22
申请人: 中国人民解放军国防科技大学
IPC分类号: G06F16/25 , G06N20/00 , G06F18/214 , G06F18/241
摘要: 本公开实施例中提供了事件抽取鲁棒性模型训练方法、装置及可读存储介质,对两个相同结构的事件抽取模型进行不同的参数初始化,然后使用事件抽取模型在文本序列中选择干净token,并计算干净token的监督损失和对比损失,组成联合损失同时训练事件抽取模型,使它们对干净token的判别能力增强且逐渐对输入达成一致的预测,得到两个训练好的目标事件抽取模型。通过本公开的处理方案,加强事件抽取模型对标签噪声的鲁棒性,旨在使训练好的事件抽取模型满足军事领域的实际需要。
-
公开(公告)号:CN116245139B
公开(公告)日:2023-07-07
申请号:CN202310436199.1
申请日:2023-04-23
申请人: 中国人民解放军国防科技大学
IPC分类号: G06N3/042 , G06N3/0464 , G06F18/24 , G06N3/08 , G06F16/35
摘要: 本申请公开一种图神经网络模型训练方法和装置、事件检测方法和装置、电子设备及计算机存储介质,能够提高事件检测模型的性能。图神经网络模型训练方法包括:获取训练数据集,训练数据集包括训练文本和训练文本对应的标签事件类型;进行至少一次迭代,以得到事件检测模型,迭代包括:利用第一图神经网络模型和第二图神经网络模型,分别对训练文本进行事件检测,以得到第一预测事件类型和第二预测事件类型;根据第一预测事件类型、第二预测事件类型以及标签事件类型,计算损失值;在第一预测事件类型和第二预测事件类型之间的第三差异满足预设条件的情况下,调整第一图神经网络模型和第二图神经网络模型的参数,以最小化损失值。
-
-
-
-
-
-
-