一种联邦学习的本地模型参数聚合方法

    公开(公告)号:CN116702191A

    公开(公告)日:2023-09-05

    申请号:CN202310615878.5

    申请日:2023-05-29

    IPC分类号: G06F21/62 G06F21/60 G06N20/20

    摘要: 本发明提供了一种联邦学习本地模型参数聚合方法。该方法包括:对可信机构进行初始化处理,获得系统公共参数和主私钥;客户端和中心服务器向可信机构请求注册,可信机构组建所有客户端的通信群;客户端使用本地数据对中心服务器下发的全局模型进行训练,获得本地模型参数;客户端使用签名密钥和中心服务器的公钥签名并加密本地模型参数,将本地模型参数的密文和签名以匿名方式上传给中心服务器;中心服务器解密各客户端上传的本地模型参数,验证本地模型参数的签名;聚合经过验证的本地模型参数,根据聚合结果更新全局模型,向通信群中的所有客户端广播更新后的全局模型。本发明方法强化了联邦学习的隐私保护能力,维护联邦学习系统的鲁棒性。

    面向联邦学习投毒攻击的防御方法、装置、设备及介质

    公开(公告)号:CN116527393B

    公开(公告)日:2024-01-16

    申请号:CN202310662319.X

    申请日:2023-06-06

    IPC分类号: H04L9/40 G06N20/00 G06F18/214

    摘要: 本发明提供了一种面向联邦学习投毒攻击的防御方法、装置、设备及介质,包括:从多个客户端中获取本地数据对应的第一特征嵌入信息,本地数据预存在客户端中,各个客户端中的本地数据为总训练样本的不相交的样本子集;对第一特征嵌入信息与预存的本地数据对应的数据标签进行互信息计算;根据计算得到的互信息对第一特征嵌入信息进行异常特征嵌入剔除,并将剔除后的第一特征嵌入信息作为正常特征嵌入信息;基于正常特征嵌入信息对预存的顶部模型进行训练,以优化顶部模型参数。本发明能够在不借助辅助数据以及不接触客户端底部模型的条件下实现对恶意样本的规避且不影响模型的可用性,适用于纵向联邦学习场景中。