文本对抗样本生成方法、系统、计算机设备和存储介质

    公开(公告)号:CN114091448B

    公开(公告)日:2024-09-10

    申请号:CN202111237436.9

    申请日:2021-10-22

    Applicant: 广州大学

    Abstract: 本发明公开了文本对抗样本生成方法、系统、计算机设备和存储介质。所述方法包括:对获取的数据集中的单词进行tf‑idf得分计算,得到所述数据集的词性词典和不同标签对应的攻击词集;从所述数据集中选择与原始样本的标签相对应的攻击词集,并从中选择攻击得分最高的单词作为攻击词;根据预设的句子模板,选择所述攻击词的词性对应的句法规则,从所述词性词典中选择规则对应的单词,与所述攻击词共同构成符合所述句法规则的句子;根据预设的添加条件,将所述句子添加到所述原始样本中,得到新样本;根据预设的迭代条件对所述新样本进行多轮迭代计算,得到对抗样本。本发明能够避免拼写和语法错误,具有低修改率和高攻击性,提高了攻击效率。

    一种针对知识图谱嵌入模型的后门攻击方法、系统及介质

    公开(公告)号:CN117952205B

    公开(公告)日:2024-06-18

    申请号:CN202410346521.6

    申请日:2024-03-26

    Abstract: 本发明提供了一种针对知识图谱嵌入模型的后门攻击方法、系统及介质,该方法包括:基于目标KGE模型的应用场景,训练一个相同场景的受控KGE模型;基于攻击目标和已对齐实体对,推理目标KGE模型中的攻击路径;利用后门攻击方法攻击受控KGE模型,影响并更改受控KGE模型中已对齐实体#imgabs0#的向量表示;利用受控KGE模型和目标KGE模型之间已对齐的实体对,将攻击影响从受控KGE模型的实体#imgabs1#传递到目标KGE模型的实体#imgabs2#,改变目标KGE模型中已对齐实体#imgabs3#的向量表示;基于#imgabs4#的已更改向量,通过攻击路径,改变目标KGE模型中攻击目标实体#imgabs5#的向量表示,实现后门攻击。本发明无需操控目标KGE模型的全部训练数据即可实现攻击目的,具有更强的实用性,可适用于真实场景。

    一种针对知识图谱嵌入模型的后门攻击方法、系统及介质

    公开(公告)号:CN117952205A

    公开(公告)日:2024-04-30

    申请号:CN202410346521.6

    申请日:2024-03-26

    Abstract: 本发明提供了一种针对知识图谱嵌入模型的后门攻击方法、系统及介质,该方法包括:基于目标KGE模型的应用场景,训练一个相同场景的受控KGE模型;基于攻击目标和已对齐实体对,推理目标KGE模型中的攻击路径;利用后门攻击方法攻击受控KGE模型,影响并更改受控KGE模型中已对齐实体#imgabs0#的向量表示;利用受控KGE模型和目标KGE模型之间已对齐的实体对,将攻击影响从受控KGE模型的实体#imgabs1#传递到目标KGE模型的实体#imgabs2#,改变目标KGE模型中已对齐实体#imgabs3#的向量表示;基于#imgabs4#的已更改向量,通过攻击路径,改变目标KGE模型中攻击目标实体#imgabs5#的向量表示,实现后门攻击。本发明无需操控目标KGE模型的全部训练数据即可实现攻击目的,具有更强的实用性,可适用于真实场景。

    一种迁移攻击方法、装置、电子设备及存储介质

    公开(公告)号:CN114036503B

    公开(公告)日:2024-04-30

    申请号:CN202111265538.1

    申请日:2021-10-28

    Applicant: 广州大学

    Abstract: 本申请公开了一种迁移攻击方法、装置、电子设备及存储介质,所述方法包括:将原始图像在预设网络模型中传播的每一层输出与所述原始图像对应的初始对抗样本在所述预设网络模型中传播的每一层输出一一对应,获取每一层输出的差值的二范式;根据所述每一层输出的差值的二范式,计算所述初始对抗样本的李雅普诺夫指数;基于所述李雅普诺夫指数,以及所述预设网络模型的损失函数,确定所述初始对抗样本对应的目标函数;基于所述目标函数对所述预设网络模型进行反向传播,以得到原始图像对应的对抗样本。本申请能够稳定生成高迁移性的对抗样本。

    一种通过构造虚拟异常流量训练恶意流量检测系统的方法

    公开(公告)号:CN115694937B

    公开(公告)日:2023-12-15

    申请号:CN202211287141.7

    申请日:2022-10-20

    Applicant: 广州大学

    Abstract: 本发明涉及神经网络领域,且公开了一种通过构造虚拟异常流量训练恶意流量检测系统的方法,将正常的流量样本(x)输入到编码器模块(Encoder),编码器模块(Encoder)会将正常流量从高维的样本空间映射到低维的特征空间,即特征向量(z);对正常流量的特征向量(z)进行切片操作;将切片后的特征向量进行随机拼接操作,从而得到异常流量的特征向量;通过解码器(Decoder)就可以将异常流量从特征空间映射到样本空间 推 土 机 距离损失函数(Wasserstein Distance Loss)以及倒角距离损失函数(Chamfer Distance Loss)设计,通过推土机距离损失函数(Wasserstein Distance Loss)以及倒角距离损失函数(Chamfer Distance Loss)训练模型;利用正常样本和自动编码器(Autoencoder)构造的异常流量样本供给神经网络进行训练。

    一种基于深度学习的伪造检测方法的fgsm对抗攻击方法

    公开(公告)号:CN116129220A

    公开(公告)日:2023-05-16

    申请号:CN202310081689.4

    申请日:2023-01-17

    Applicant: 广州大学

    Abstract: 本发明涉及伪造检测领域以及神经网络领域,且公开了一种基于深度学习的伪造检测方法的fgsm对抗攻击方法,将需要收集该检测方法所使用的数据集的对抗样本来作为伪造检测方法的输入,以此来进行对抗攻击实验,收集统计实验数据,根据这些数据可作为从fgsm对抗攻击的角度来评估该基于深度学习的伪造检测方法的鲁棒性,本方案能够提供更多基于神经网络相关的伪造检测在对抗样本的干扰下鲁棒性影响的研究,为应用于在现实场景的伪造检测相关应用揭露对应场景下的安全隐患,以针对伪造检测的对抗攻击相关研究来促进针对伪造检测对抗防御的相关研究,为促进在基于神经网络的伪造检测有关于AI安全方面的研究。

    一种基于对抗数据增强的医疗文本专业分类方法

    公开(公告)号:CN115688768A

    公开(公告)日:2023-02-03

    申请号:CN202211419992.2

    申请日:2022-11-14

    Applicant: 广州大学

    Abstract: 本发明涉及医疗文本专业分类领域,且公开了一种基于对抗数据增强的医疗文本专业分类方法,对医疗文本数据进行预处理;基于对抗攻击数据增强方法提高医疗文本数据集的质量;将预处理好的医疗文本构建为词向量矩阵,作为卷积神经网络的输入或者调整为与训练模型要求的格式作为预训练模型的输入;基于关键文本概率信息的分类层,该基于对抗数据增强的医疗文本专业分类方法,有效缓解了医疗文本专业分类数据集面临的数据量不足、质量差和类别不平衡的问题,由于本发明采用了多步对抗攻击来产生增强样本,因此产生的增强数据不只是简单的与原始数据相似,还能达到覆盖更大的模型决策空间的特点。

    全连接网络模型梯度泄露输入的风险评估指标的方法

    公开(公告)号:CN115618404A

    公开(公告)日:2023-01-17

    申请号:CN202211115785.8

    申请日:2022-09-14

    Applicant: 广州大学

    Abstract: 本发明涉及人工智能技术领域,公开了一种全连接网络模型梯度泄露输入的风险评估指标的方法,包括以下步骤:S1:构建多分类多输入任务的梯度与输入关系方程式;S2:计算四个风险级别下系数矩阵的秩和条件数,来评估梯度泄露数据的风险;S3:从第一风险级别开始评估,直到某一个风险级别达标,则认证为当前模型的梯度泄露数据的风险级别。本发明全连接网络模型梯度泄露输入的风险评估指标的方法,与现有的梯度泄露输入的指标相比,本发明提出的评估方法是高效的且更符合现实的评估需求,本发明提供的方法不依赖于任何预训练的统计模型,适用于被普遍采用的多分类多输入样本的模型训练任务;本发明提出的指标是准确的,具备严格的理论依据。

    基于依存信息监督的神经网络机器翻译方法及装置

    公开(公告)号:CN110059324B

    公开(公告)日:2022-12-13

    申请号:CN201910348070.9

    申请日:2019-04-26

    Applicant: 广州大学

    Abstract: 本发明公开了一种基于依存信息监督的神经网络机器翻译方法及装置,所述方法包括:获取待翻译的源语句并拆分为语言单位,将每一语言单位转换为输入向量后由编码器编码为隐状态向量;对源语句进行依存分析,并根据分析所得的依存信息以及所述隐状态向量生成每一语言单位的依存信息块;利用基于依存信息块监督的注意力机制计算得到当前时刻的回顾信息;根据当前时刻的回顾信息,结合上一时刻的翻译结果以及当前时刻的解码器端隐状态向量生成当前时刻的翻译结果。本发明通过分析语句的依存信息为注意力机制提供了监督,这样不仅减少了翻译模型的计算量,而且使得翻译模型具有捕获远距离语义信息的能力,从而有效优化了翻译模型的翻译效果。

Patent Agency Ranking