基于可信执行环境的安全可验证联邦分割学习方法

    公开(公告)号:CN119691818A

    公开(公告)日:2025-03-25

    申请号:CN202411812739.2

    申请日:2024-12-10

    Abstract: 基于可信执行环境的安全可验证联邦分割学习方法属于联邦学习领域。本发明提出了学习框架,并引入可信执行环境,通过强隔离和证明机制确保服务器在模型聚合及神经网络中间层训练过程中的行为透明可信。同时,采用对称加密技术对用户数据进行保护,并防止服务器篡改数据。通过将模型分割为三部分,并将最前和最后的模型部分保存在客户端,有效保护了数据标签在内的用户数据隐私。此外,本发明结合联邦学习与分割学习的优势,允许客户端异步训练本地模型,降低计算和通信开销,减少对服务器的依赖,提升系统效率和可扩展性。这一创新不仅增强了系统的安全性和可信度,还保护了用户隐私,具有广阔的应用前景。

    支持模型剪枝的可验证联邦学习方法

    公开(公告)号:CN119398123A

    公开(公告)日:2025-02-07

    申请号:CN202411236847.X

    申请日:2024-09-04

    Abstract: 本发明提出了支持模型剪枝的可验证联邦学习方法,在保护用户隐私并验证模型聚合基础上支持对模型剪枝结果验证的联邦学习方法。本发明使用零知识证明技术(Bulletproofs协议),首次实现了对剪枝过程的可信验证,同时无需提供任何有关被剪枝参数的原始信息。除此之外,本发明关注性能异构的边缘训练客户端,允许用户自主选择所需的剪枝率,并在不同轮次中动态调整剪枝率以适应其性能。通过巧妙地结合同态哈希技术和承诺方案,本发明实现了对聚合结果的验证,并通过异构掩码技术在不需要云服务器端进行额外计算的情况下,保护了异构边缘客户端的隐私。

Patent Agency Ranking