一种基于相似性过滤的联邦学习后门防御方法
摘要:
本发明公开了一种基于相似性过滤的联邦学习后门防御方法,当本地更新被上传至服务器后,两两比较它们的余弦夹角,随后将相似度较高的更新识别为恶意更新;计算剩余每个更新的更新间的余弦相似度得分、更新的更新程度得分以及每个模型和全局模型的余弦相似度得分;通过这三个分数,使用预定义的权重加权它们以此得到所有更新的模型分数,将模型分数较高的更新识别为良性更新并纳入聚合,随后将其他恶意模型通过一个为负的遗忘程度参数缩放,以增大后门的损失。本发明能够保持良好的防御性能,后门攻击仅能取得极低的攻击成功率,同时对主任务精度的影响较小。
0/0