-
公开(公告)号:CN113158550B
公开(公告)日:2022-08-26
申请号:CN202110314849.6
申请日:2021-03-24
Applicant: 北京邮电大学
Abstract: 本申请实施例提供的联邦学习方法、装置、电子设备及存储介质,应用于深度神经网络模型训练的技术领域,通过初始化并接收各终端发送的共享验证数据和本地模型的模型参数;根据各终端发送的共享验证数据和本地模型的模型参数计算各终端的权重;根据各终端的权重和各终端发送的本地模型的模型参数进行模型聚合;将模型聚合得到的全局模型的模型参数发送至各终端,以使各终端根据接收到的全局模型的模型参数对本地模型的参数进行更新。从而通过根据各终端发送的共享验证数据和本地模型的模型参数计算各终端的权重,根据计算得到的权重进行模型聚合,从而可以考虑各个终端的差异,避免由于数据分布不均,导致的计算效率下降的问题,提高计算的效率。
-
公开(公告)号:CN113158550A
公开(公告)日:2021-07-23
申请号:CN202110314849.6
申请日:2021-03-24
Applicant: 北京邮电大学
Abstract: 本申请实施例提供的联邦学习方法、装置、电子设备及存储介质,应用于深度神经网络模型训练的技术领域,通过初始化并接收各终端发送的共享验证数据和本地模型的模型参数;根据各终端发送的共享验证数据和本地模型的模型参数计算各终端的权重;根据各终端的权重和各终端发送的本地模型的模型参数进行模型聚合;将模型聚合得到的全局模型的模型参数发送至各终端,以使各终端根据接收到的全局模型的模型参数对本地模型的参数进行更新。从而通过根据各终端发送的共享验证数据和本地模型的模型参数计算各终端的权重,根据计算得到的权重进行模型聚合,从而可以考虑各个终端的差异,避免由于数据分布不均,导致的计算效率下降的问题,提高计算的效率。
-