-
公开(公告)号:CN118941848A
公开(公告)日:2024-11-12
申请号:CN202410967635.2
申请日:2024-07-18
IPC分类号: G06V10/764 , G06N20/00 , G06F21/55
摘要: 本发明涉及鲁棒性检测技术领域,涉及一种基于联邦学习的鲁棒性检测方法、装置、设备及介质,所述方法包括获取第一全局模型,所述第一全局模型为服务器端训练的模型;将所述第一全局模型发送至本地端,并利用本地端的数据集对所述全局模型进行更新训练,得到至少一个本地模型;根据至少一个所述本地模型生成第一恶意模型;将所述第一恶意模型发送至服务器端进行聚合并根据聚合后的全局模型进行鲁棒性检测,本发明通过在本地生成第一恶意模型再将第一恶意模型上传至服务器端干扰全局模型更新,继而通过观察测试前后全局模型性能表现来判断联邦学习系统的鲁棒性,有效的提高了联邦学习系统的鲁棒性检测效率和速度。
-
公开(公告)号:CN116702191A
公开(公告)日:2023-09-05
申请号:CN202310615878.5
申请日:2023-05-29
申请人: 北京交通大学 , 中国铁道科学研究院集团有限公司电子计算技术研究所
摘要: 本发明提供了一种联邦学习本地模型参数聚合方法。该方法包括:对可信机构进行初始化处理,获得系统公共参数和主私钥;客户端和中心服务器向可信机构请求注册,可信机构组建所有客户端的通信群;客户端使用本地数据对中心服务器下发的全局模型进行训练,获得本地模型参数;客户端使用签名密钥和中心服务器的公钥签名并加密本地模型参数,将本地模型参数的密文和签名以匿名方式上传给中心服务器;中心服务器解密各客户端上传的本地模型参数,验证本地模型参数的签名;聚合经过验证的本地模型参数,根据聚合结果更新全局模型,向通信群中的所有客户端广播更新后的全局模型。本发明方法强化了联邦学习的隐私保护能力,维护联邦学习系统的鲁棒性。
-
公开(公告)号:CN116070698A
公开(公告)日:2023-05-05
申请号:CN202211684648.6
申请日:2022-12-27
申请人: 北京交通大学 , 中国铁道科学研究院集团有限公司电子计算技术研究所
IPC分类号: G06N3/098 , G06N3/0455
摘要: 本发明提供一种基于自编码器的单分类联邦学习方法及系统,属于联邦学习技术领域,在数据预处理阶段,利用预训练模型进行原始数据的特征提取和分析;在训练阶段,客户端按照数据标签分别使用自编码器完成单分类模型的训练,服务器根据标签对单分类模型进行分类聚合,并将聚合后的模型按标签重新下发给客户端;在预测阶段,基于集成学习整合多个单分类专家模型和预训练模型的输出,以确定预测结果。本发明提取出不同标签数据的关键特征,对客户端本地的数据类别没有要求,并且可以抑制客户端模型间的离散程度,提高全局模型的性能,能够在保护客户端隐私的情况下有效应对各种Non‑IID情况。此外训练过程中的异步聚合更新还可以提高训练过程中的通信效率。
-
公开(公告)号:CN118233190A
公开(公告)日:2024-06-21
申请号:CN202410387088.0
申请日:2024-04-01
申请人: 北京交通大学
IPC分类号: H04L9/40 , G06N3/098 , G06F18/214
摘要: 本发明提供一种联邦推荐无目标投毒攻击防御方法、装置和系统,其中方法包括:服务器随机初始一组用户嵌入以近似良性用户嵌入分布;服务器依据近似的用户嵌入组及不同用户上传的更新信息,依次计算项目的推荐评分、评分变化速度、项目统计频数,并由此推断可能的流行项目;服务器采用“多轮综合评价”原则,依据用户与全局模型近次在流行项目上的评分行为一致性共同量化其在本轮的贡献值;服务器计算动态阈值并据此剔除贡献小于这一阈值的异常用户;服务器将剩余用户上传的梯度作为正常梯度参与后续聚合更新,并将聚合更新后的结果作为新一轮参数发送至用户;重复该过程直至模型收敛。本发明有效提高了联邦推荐模型对无目标投毒攻击的抵抗能力。
-
公开(公告)号:CN116341004B
公开(公告)日:2023-09-08
申请号:CN202310304542.7
申请日:2023-03-27
IPC分类号: G06F21/62 , G06F18/213 , G06F18/214 , G06N20/00
摘要: 本发明提供了一种基于特征嵌入分析的纵向联邦学习隐私泄露检测方法。该方法包括:检测者在纵向联邦学习的训练过程中嵌入影子数据;获取影子数据和纵向联邦学习的目标参与者的私有训练数据在底部模型上的特征嵌入数据,对特征嵌入数据进行平滑处理;利用影子数据和影子数据平滑处理后的特征嵌入数据克隆底部模型的代理模型;利用代理模型通过特征嵌入匹配重构目标参与者的私有训练数据,对纵向联邦学习进行原始数据泄露检测。本发明方法在不破坏VFL效用的条件下,同时实现了对模型泄露、原始数据泄露以及数据特征泄露的脆弱性分析。
-
公开(公告)号:CN116527393B
公开(公告)日:2024-01-16
申请号:CN202310662319.X
申请日:2023-06-06
申请人: 北京交通大学
IPC分类号: H04L9/40 , G06N20/00 , G06F18/214
摘要: 本发明提供了一种面向联邦学习投毒攻击的防御方法、装置、设备及介质,包括:从多个客户端中获取本地数据对应的第一特征嵌入信息,本地数据预存在客户端中,各个客户端中的本地数据为总训练样本的不相交的样本子集;对第一特征嵌入信息与预存的本地数据对应的数据标签进行互信息计算;根据计算得到的互信息对第一特征嵌入信息进行异常特征嵌入剔除,并将剔除后的第一特征嵌入信息作为正常特征嵌入信息;基于正常特征嵌入信息对预存的顶部模型进行训练,以优化顶部模型参数。本发明能够在不借助辅助数据以及不接触客户端底部模型的条件下实现对恶意样本的规避且不影响模型的可用性,适用于纵向联邦学习场景中。
-
公开(公告)号:CN117010026A
公开(公告)日:2023-11-07
申请号:CN202310797647.0
申请日:2023-06-30
申请人: 北京交通大学
摘要: 本发明提供了一种基于联邦知识网络的异常人物关系检测方法。该方法包括:可信第三方生成公钥、私钥和计算密钥,各个社区监控终端提取图像中的人脸特征,将利用公钥加密后的人脸特征对发送给中心服务器,中心服务器在密文条件下计算人脸特征对之间的欧式距离,利用可信第三方构建全局人物关系知识网络;社区监控终端捕获图像并检测亲密关系,将加密的待查询人脸特征对发送给服务器,服务器计算待查询人脸特征对与全局人物关系知识网络中人脸特征对之间的距离,利用可信第三方判断是否存在人员异常关系。本发明方法通过密钥分发、知识网络构建和异常关系检测实现了有效的关系识别和异常监测,有助于保护社区监控终端成员的安全与隐私。
-
公开(公告)号:CN116962085A
公开(公告)日:2023-10-27
申请号:CN202311213109.9
申请日:2023-09-20
申请人: 北京交通大学
摘要: 本说明书实施例提供了一种鲁棒的个性化联邦学习方法、装置及系统,方法包括:服务器接收来自多个客户端的模型更新数据,模型更新数据为在客户端上训练的本地模型的参数在训练前后的参数差值;服务器根据模型更新数据,得到各模型更新数据之间的基于α的层位置正则化相似度;服务器针对每一个客户端,根据基于α的层位置正则化相似度,得到模型更新数据的权重;服务器根据模型更新数据的权重和模型更新数据,分别得到各客户端对应的聚合模型更新数据;服务器发送聚合模型更新数据到各客户端。本申请提供的技术方案用以解决在联邦学习中系统中存在恶意攻击者时,通过本地协作训练算法同时训练本地模型和聚合模型来抵御恶意客户端的投毒攻击问题。
-
公开(公告)号:CN116527393A
公开(公告)日:2023-08-01
申请号:CN202310662319.X
申请日:2023-06-06
申请人: 北京交通大学
IPC分类号: H04L9/40 , G06N20/00 , G06F18/214
摘要: 本发明提供了一种面向联邦学习投毒攻击的防御方法、装置、设备及介质,包括:从多个客户端中获取本地数据对应的第一特征嵌入信息,本地数据预存在客户端中,各个客户端中的本地数据为总训练样本的不相交的样本子集;对第一特征嵌入信息与预存的本地数据对应的数据标签进行互信息计算;根据计算得到的互信息对第一特征嵌入信息进行异常特征嵌入剔除,并将剔除后的第一特征嵌入信息作为正常特征嵌入信息;基于正常特征嵌入信息对预存的顶部模型进行训练,以优化顶部模型参数。本发明能够在不借助辅助数据以及不接触客户端底部模型的条件下实现对恶意样本的规避且不影响模型的可用性,适用于纵向联邦学习场景中。
-
公开(公告)号:CN118862948A
公开(公告)日:2024-10-29
申请号:CN202410786500.6
申请日:2024-06-18
申请人: 北京交通大学
摘要: 本发明提供了一种基于知识蒸馏和锐度感知最小化的个性化联邦学习方法。该方法包括:服务器生成全局共享无标签伪数据集,并下发给各个客户端;客户端利采用锐度感知最小化方法对本地模型进行优化,得到优化后的本地模型wc;客户端利用本地数据集和无标签伪数据集生成本地知识,服务器对各个客户端的本地知识中的logits依据权重系数进行加权运算得到全局#imgabs0#将由全局原型p和全局#imgabs1#构成的全局知识下发给各个客户端;客户端根据本地logits和全局知识中的全局#imgabs2#对本地模型wc进行更新。本发明利用无标签伪数据集作为公共数据集进行知识蒸馏,就能够实现良好的性能。服务器利用权重对本地知识进行聚合,以获得高质量的全局知识,用于提升本地模型性能。
-
-
-
-
-
-
-
-
-