-
公开(公告)号:CN116094993B
公开(公告)日:2024-05-31
申请号:CN202211657554.X
申请日:2022-12-22
申请人: 电子科技大学
摘要: 本发明公开了一种适用于边缘计算场景下的联邦学习安全聚合方法,包括:(1)边缘节点将各个终端之间的通信拓扑图结构由全连通图修改为基于最小生成树的终端连通拓扑图;(2)各个终端利用本地数据训练联邦学习的模型,并根据修改的终端连通拓扑图与邻居终端以广播密钥的方式进行通信;(3)各个终端计算掩码并用于加密模型梯度;(4)边缘节点接收终端传输的加密的模型梯度并进行局部聚合;(5)云计算处理中心接收来局部聚合模型梯度,再进行一次聚合形成全局聚合模型,并将全局聚合模型下发到边缘节点,为终端提供服务。本发明在解决联邦学习中隐私泄露问题的同时,避免了需要大量额外的计算和通信开销,并提高了模型的收敛速度。
-
公开(公告)号:CN116909742A
公开(公告)日:2023-10-20
申请号:CN202310895639.X
申请日:2023-07-20
申请人: 电子科技大学
IPC分类号: G06F9/50 , G06F9/48 , G06N3/0442 , G06N3/08
摘要: 本发明公开了一种多智能体协同计算资源调度方法,包括配置任务请求队列;获取边缘集群的历史运行状态序列,输入到多层叠加的LSTM神经网络中,输出具有时序特征的系统状态矩阵;将该系统状态矩阵输入到边缘集群配置的Actor‑Critic网络中进行多智能体强化学习,通过计算获得边缘集群的状态价值,并从对应的边缘集群中选择合适的节点来处理任务请求队列中的下一个任务,完成资源调度;然后根据任务回报计算损失函数和梯度来更新Actor‑Critic网络参数。本发明在面对大规模服务请求时能够成功学习请求之间的周期性状态,提高了系统吞吐率,采用时序网络与策略相结合的方式进行每一次任务调度,收敛速度更快,训练需要的数据量更少。
-
公开(公告)号:CN116187482A
公开(公告)日:2023-05-30
申请号:CN202310061325.X
申请日:2023-01-20
申请人: 电子科技大学
IPC分类号: G06N20/20 , G06F18/2415 , G06N3/084 , G06N3/098
摘要: 本发明公开了一种边缘场景下轻量级的可信联邦学习方法,包括:(1)终端设备使用私有数据集在本地对模型进行训练,输出训练结果;(2)对训练结果进行加密,并上传至边缘服务器;(3)边缘服务器计算获得一维中的平均值outmean;(4)根据计算的outmean,边缘服务器将结果广播给各个终端设备以助终端设备完成后续训练;同时,边缘服务器还利用outmean和蒸馏温度T计算KL散度,以用于指导全局模型参数训练;(5)边缘服务器将更新的全局模型参数上传到云服务器进行聚合更新;(6)云服务器验证训练模型的性能是否满足标准要求,是,则训练结束;否则,将全局模型参数发送到每个边缘服务器以开始下一轮训练。本发明能有效提升模型的训练效率和准确性。
-
公开(公告)号:CN116910653A
公开(公告)日:2023-10-20
申请号:CN202310895637.0
申请日:2023-07-20
申请人: 电子科技大学
IPC分类号: G06F18/241 , G06F18/214 , G06N20/20 , G06N3/0895 , G06N3/0464 , G06N3/084
摘要: 本发明公开了一种适于精准分类的联邦半监督学习方法,包括获取边缘服务器下发的经过预训练的全局模型并更新本地模型;利用更新后的本地模型对自身的无标签数据预测处理获得多个伪标签,然后使用这些伪标签和无标签数据对更新后的本地模型进行宽容监督训练;然后利用自身的有标签数据对宽容监督训练后的本地模型进行严格纠正训练,获得训练后的节点模型;将训练后的节点模型参数上传至边缘服务器ES使其聚合形成全局模型,进行下一轮迭代更新。本发明在边缘计算场景下将半监督学习与联邦学习相结合,利用无标签数据使模型充分学习到无标签数据蕴含的知识,并采用有标签数据对模型进行监督训练以纠正模型参数,从整体上提高了模型分类的准确率。
-
公开(公告)号:CN116361639A
公开(公告)日:2023-06-30
申请号:CN202211657566.2
申请日:2022-12-22
申请人: 电子科技大学
IPC分类号: G06F18/214 , G06N20/00
摘要: 本发明公开了一种适用于人工智能物联网异构系统的自适应联邦学习方法,包括:(1)终端设备进行本地模型训练;(2)边缘服务器收集终端设备能够实际负载的工作量,以及将收集的模型参数进行局部聚合;同时边缘服务器预测终端设备未来可以承受的工作量,并按照训练价值高低选出终端设备继续参与下一轮训练;(3)边缘服务器将局部聚合模型和预测的工作量发送给选择的终端设备;同时,边缘服务器还将局部聚合模型参数发送至云服务器;(4)云服务器将收集的局部聚合模型参数进行全局聚合,获得全局聚合模型,然后返回至边缘服务器。本发明解决了AIoT应用中因系统异构性和统计异构性导致出现掉队者从而引起收敛速度减慢、模型精度降低的问题。
-
公开(公告)号:CN116094993A
公开(公告)日:2023-05-09
申请号:CN202211657554.X
申请日:2022-12-22
申请人: 电子科技大学
摘要: 本发明公开了一种适用于边缘计算场景下的联邦学习安全聚合方法,包括:(1)边缘节点将各个终端之间的通信拓扑图结构由全连通图修改为基于最小生成树的终端连通拓扑图;(2)各个终端利用本地数据训练联邦学习的模型,并根据修改的终端连通拓扑图与邻居终端以广播密钥的方式进行通信;(3)各个终端计算掩码并用于加密模型梯度;(4)边缘节点接收终端传输的加密的模型梯度并进行局部聚合;(5)云计算处理中心接收来局部聚合模型梯度,再进行一次聚合形成全局聚合模型,并将全局聚合模型下发到边缘节点,为终端提供服务。本发明在解决联邦学习中隐私泄露问题的同时,避免了需要大量额外的计算和通信开销,并提高了模型的收敛速度。
-
-
-
-
-