一种基于对抗性知识蒸馏的联邦学习后门擦除方法

    公开(公告)号:CN117195208A

    公开(公告)日:2023-12-08

    申请号:CN202311169939.6

    申请日:2023-09-12

    摘要: 本发明涉及一种基于对抗性知识蒸馏的联邦学习后门擦除方法,包括以下步骤:服务端利用客户端的本地模型更新初始化教师模型和学生模型;构建对抗训练损失函数,通过对抗性知识蒸馏进行从教师模型到学生模型的知识迁移;服务端利用步骤2)中知识迁移生成的样本,通过后门响应抑制和注意力图对齐两种方法进行后门正则化,确定后门正则化项;服务端交替重复上述步骤,基于对抗训练损失函数和后门正则化项进行模型训练,直至学生模型精度收敛,得到擦除后的干净学生模型,并将干净学生模型作为全局模型分发给客户端。与现有技术相比,本发明能够在更小的模型精度损失下最大程度地降低联邦学习环境下的后门攻击成功率。