基于知识蒸馏和锐度感知最小化的个性化联邦学习方法

    公开(公告)号:CN118862948A

    公开(公告)日:2024-10-29

    申请号:CN202410786500.6

    申请日:2024-06-18

    IPC分类号: G06N3/042 G06N3/096 G06N3/098

    摘要: 本发明提供了一种基于知识蒸馏和锐度感知最小化的个性化联邦学习方法。该方法包括:服务器生成全局共享无标签伪数据集,并下发给各个客户端;客户端利采用锐度感知最小化方法对本地模型进行优化,得到优化后的本地模型wc;客户端利用本地数据集和无标签伪数据集生成本地知识,服务器对各个客户端的本地知识中的logits依据权重系数进行加权运算得到全局#imgabs0#将由全局原型p和全局#imgabs1#构成的全局知识下发给各个客户端;客户端根据本地logits和全局知识中的全局#imgabs2#对本地模型wc进行更新。本发明利用无标签伪数据集作为公共数据集进行知识蒸馏,就能够实现良好的性能。服务器利用权重对本地知识进行聚合,以获得高质量的全局知识,用于提升本地模型性能。

    鲁棒的个性化联邦学习方法、装置、系统及存储介质

    公开(公告)号:CN116962085B

    公开(公告)日:2023-12-08

    申请号:CN202311213109.9

    申请日:2023-09-20

    IPC分类号: H04L9/40 H04L41/16 G06N3/098

    摘要: 本说明书实施例提供了一种鲁棒的个性化联邦学习方法、装置及系统,方法包括:服务器接收来自多个客户端的模型更新数据,模型更新数据为在客户端上训练的本地模型的参数在训练前后的参数差值;服务器根据模型更新数据,得到各模型更新数据之间的基于α的层位置正则化相似度;服务器针对每一个客户端,根据基于α的层位置正则化相似度,得到模型更新数据的权重;服务器根据模型更新数据的权重和模型更新数据,分别得到各客户端对应的聚合模型更新数据;服务器发送聚合模型更新数据到各客户端。本申请提供的技术方案用以解决在联邦学习中系统中存在恶意攻击者时,通过本地协作训练

    一种面向隐私保护的扩散模型驱动的无监督域泛化方法

    公开(公告)号:CN116882480A

    公开(公告)日:2023-10-13

    申请号:CN202311013570.X

    申请日:2023-08-11

    摘要: 本发明提供了一种面向隐私保护的扩散模型驱动的无监督域泛化方法。该方法包括:目标服务器把训练完成的扩散模型和初始化完成的全局模型发送到各个客户端;各个客户端从扩散模型中采样出虚拟目标域数据,提取出域的特异特征和共享特征,各个客户端把域的共享特征和训练后的客户端模型上传到目标域中的目标服务器,目标服务器通过各客户端模型对目标域的样本进行联邦置信度投票,生成虚拟预测域;目标服务器根据各个客户端对虚拟预测域的贡献,动态调整各个客户端模型的权重,使用联邦置信度投票出的虚拟预测域,得到用于下一轮的联邦下发的全局模型。本发明使用扩散模型能够对目标域的数据进行较好的隐私保护,并有足够的通用性,降低了通讯压力。