-
公开(公告)号:CN115358373A
公开(公告)日:2022-11-18
申请号:CN202211000089.2
申请日:2022-08-19
申请人: 中国人民解放军战略支援部队信息工程大学
摘要: 本发明提供一种针对基于交叉熵对抗攻击的防御方法。该方法包括:采用干净样本对需要防御的深度神经网络模型进行训练,使其达到拟合状态;当所述深度神经网络模型达到拟合状态之后,采用干净样本对其继续训练使其达到超拟合状态;所述超拟合状态对应至采用对抗样本对所述深度神经网络模型进行训练之后达到的拟合状态;将此时超拟合状态下的深度神经网络模型作为训练好的深度神经网络模型进行使用。
-
公开(公告)号:CN114781583A
公开(公告)日:2022-07-22
申请号:CN202210238956.X
申请日:2022-03-07
申请人: 中国人民解放军战略支援部队信息工程大学
摘要: 本发明提供一种提高深度神经网络模型对抗鲁棒性的方法。该方法包括:步骤1:构建内生防护模块,所述内生防护模块包括注意力单元,所述注意力单元包括用于输入原始样本的第一输入端和用于输入对抗样本的第二输入端,以及对应的用于输出原始输出的第一输出端和用于输出对抗输出的第二输出端;步骤2:在给定的深度神经网络模型结构中确定若干个插入位置,在所述插入位置插入所述内生防护模块,得到新的深度神经网络模型;步骤3:采用对抗训练方法对所述新的深度神经网络模型进行训练。本发明从深度神经网络模型结构本身着手,可以极大提高深度神经网络模型的对抗鲁棒性,又不会对其性能带来负面影响。
-
公开(公告)号:CN115358315A
公开(公告)日:2022-11-18
申请号:CN202211000711.X
申请日:2022-08-19
申请人: 中国人民解放军战略支援部队信息工程大学
摘要: 本发明提供一种神经网络模型的对抗鲁棒性评估方法。该方法包括:步骤1:将神经网络模型中的分类器分为非线性部分fh和线性部分ft;步骤2:利用非线性部分fh来定义输入样本的表征向量;以表征向量作为自变量,利用线性部分ft来定义表征向量到各类别的绝对分类边界的距离公式;步骤3:根据输入至神经网络模型的原始样本x随机生成一个对抗样本,并将其作为最初的起始点;步骤4:利用距离公式和梯度下降法对给定的起始点进行优化更新,使得更新后的起始点的表征向量接近各类别的绝对分类边界;步骤5:重复步骤4,直至达到停止条件;步骤6:将最终的起始点作为对抗样本x′,使用攻击算法进行迭代攻击以确定神经网络模型的对抗鲁棒性。
-
-