基于CP-ABE的对等网络中联邦学习数据共享模型及其构建方法

    公开(公告)号:CN116614273A

    公开(公告)日:2023-08-18

    申请号:CN202310585446.4

    申请日:2023-05-23

    摘要: 本发明提出一种基于CP‑ABE的对等网络中联邦学习数据共享模型及其构建方法,该模型包括参与方、访问控制模块和联邦学习模块;该方法包括:1)创建访问控制树,基于属性加密技术,采用结合随机多项式的门限访问策略筛选参与方;2)参与方使用私钥和解密公式解密密文,取得含有初始训练任务及训练参数的明文,参与方加入循环队列,构建对等网络;3)在对等网络结构下,组建参与方组成的循环队列,确定联邦学习中训练参数的传递方向,构建联邦学习训练架构;4)启动联合训练,在对等网络中采用参数传递运算评测方式进行模型及参数更新,使模型达到收敛标准;5)设置最佳模型参数,预测测试数据,观测预测精度及评估指标,评估共享模型的性能。

    基于横向联邦学习的电力数据共享方法

    公开(公告)号:CN115775010B

    公开(公告)日:2024-03-19

    申请号:CN202211470177.9

    申请日:2022-11-23

    摘要: 本发明公开了基于横向联邦学习的电力数据共享方法,首先构建C/S通信模式的横向联邦学习框架,并进行如下分布式训练:横向联邦学习框架下,服务器将模型参数发送给各客户端;各客户端构建BP神经网络并采用本地数据集进行本地训练,本地训练完成后的参数采用同态加密技术进行处理后上传;服务器对多个客户端上传的参数进行聚合评估,结果作为全局参数返回到各个客户端进行本地模型的更新,直至达到训练需求或模型收敛为止;其次根据测试数据对分布式训练完成的模型进行验证测试与评估,实现数据的精准预测。本发明在共享时不影响数据的使用,同时保护各参与方的隐私信息,能解决电力数据的数据融合及共享安全问题。

    一种云边协同平台、处理方法、电子设备和存储介质

    公开(公告)号:CN118227323A

    公开(公告)日:2024-06-21

    申请号:CN202410318515.X

    申请日:2024-03-20

    IPC分类号: G06F9/50 G06F16/901 G06F9/48

    摘要: 本发明公开了一种云边协同平台、处理方法、电子设备和存储介质,其中,该平台包括:应用层、能力层和系统层;其中,应用层包括至少两个Actor节点,每个Actor节点执行计算任务,不同Actor节点之间相互通信;能力层包括至少一个能力模型,每个能力模型分别对应应用层内至少一个Actor节点,能力模型至少包括执行函数以及资源需求;系统层包括至少一个管理域,每个管理域分别调度应用层内至少一个Actor节点应用能力层内对应能力模型的资源。本发明实施例实现计算任务的自动化处理,可为用户提供完整的计算任务处理的控制行为,无需额外编排计算任务的处理流程,可提高计算任务处理的灵活性,实现平台处理节点、能力以及资源的解耦合,可提高大型应用的可扩展性。

    基于横向联邦学习的电力数据共享方法

    公开(公告)号:CN115775010A

    公开(公告)日:2023-03-10

    申请号:CN202211470177.9

    申请日:2022-11-23

    摘要: 本发明公开了基于横向联邦学习的电力数据共享方法,首先构建C/S通信模式的横向联邦学习框架,并进行如下分布式训练:横向联邦学习框架下,服务器将模型参数发送给各客户端;各客户端构建BP神经网络并采用本地数据集进行本地训练,本地训练完成后的参数采用同态加密技术进行处理后上传;服务器对多个客户端上传的参数进行聚合评估,结果作为全局参数返回到各个客户端进行本地模型的更新,直至达到训练需求或模型收敛为止;其次根据测试数据对分布式训练完成的模型进行验证测试与评估,实现数据的精准预测。本发明在共享时不影响数据的使用,同时保护各参与方的隐私信息,能解决电力数据的数据融合及共享安全问题。

    基于CP-ABE的对等网络中联邦学习数据共享系统及模型构建方法

    公开(公告)号:CN116614273B

    公开(公告)日:2024-03-19

    申请号:CN202310585446.4

    申请日:2023-05-23

    摘要: 本发明提出一种基于CP‑ABE的对等网络中联邦学习数据共享模型及其构建方法,该模型包括参与方、访问控制模块和联邦学习模块;该方法包括:1)创建访问控制树,基于属性加密技术,采用结合随机多项式的门限访问策略筛选参与方;2)参与方使用私钥和解密公式解密密文,取得含有初始训练任务及训练参数的明文,参与方加入循环队列,构建对等网络;3)在对等网络结构下,组建参与方组成的循环队列,确定联邦学习中训练参数的传递方向,构建联邦学习训练架构;4)启动联合训练,在对等网络中采用参数传递运算评测方式进行模型及参数更新,使模型达到收敛标准;5)设置最佳模型参数,预测测试数据,观测预测精度及评估指标,评估共享模型的性能。