一种联邦学习方法、装置、电子设备及存储介质

    公开(公告)号:CN113158550B

    公开(公告)日:2022-08-26

    申请号:CN202110314849.6

    申请日:2021-03-24

    Abstract: 本申请实施例提供的联邦学习方法、装置、电子设备及存储介质,应用于深度神经网络模型训练的技术领域,通过初始化并接收各终端发送的共享验证数据和本地模型的模型参数;根据各终端发送的共享验证数据和本地模型的模型参数计算各终端的权重;根据各终端的权重和各终端发送的本地模型的模型参数进行模型聚合;将模型聚合得到的全局模型的模型参数发送至各终端,以使各终端根据接收到的全局模型的模型参数对本地模型的参数进行更新。从而通过根据各终端发送的共享验证数据和本地模型的模型参数计算各终端的权重,根据计算得到的权重进行模型聚合,从而可以考虑各个终端的差异,避免由于数据分布不均,导致的计算效率下降的问题,提高计算的效率。

    一种侧信道攻击方法、装置和介质

    公开(公告)号:CN119420465A

    公开(公告)日:2025-02-11

    申请号:CN202411551727.9

    申请日:2024-11-01

    Abstract: 本发明公开了一种侧信道攻击方法、装置和介质,涉及侧信道密码分析技术领域。将多个样本明文通过假设密钥空间中的每一个假设密钥进行加密操作,得到假设中间值矩阵;将假设中间值矩阵的每一个元素输入至泄漏模型中,通过所述泄漏模型对所述假设中间值矩阵进行汉明重量和不均匀加权比特和建模,生成假设能耗矩阵;将假设能耗矩阵的每一个元素与多个样本明文对应的能量迹进行相关性分析,确定联合判决矩阵;根据联合判决矩阵中的相关性排名,对假设密钥空间进行更新,通过更新后的假设密钥空间迭代获取联合判决矩阵;将满足预设条件的联合判决矩阵中相关性排名最高的假设密钥确定为加密设备的密钥。该方法通过较少的样本量即可得到较为准确的密钥。

    基于对比学习的联邦少样本图像分类模型训练方法、分类方法及设备

    公开(公告)号:CN116229172A

    公开(公告)日:2023-06-06

    申请号:CN202310207512.4

    申请日:2023-03-03

    Abstract: 本发明提供一种基于对比学习的联邦少样本图像分类模型训练方法、分类方法及设备,包括:构建训练集和查询集,为训练集添加真实标签;获取初始模型,该初始模型包括嵌入网络和关系网络;将训练集样本和查询集样本成对输入嵌入网络,提取训练集样本特征图和查询集样本特征图并进行拼接,生成拼接特征图;将拼接特征图输入关系网络计算得到相似度分数,以得到训练集样本的类别;采用本地数据集对初始模型进行训练,并构建均方误差损失,得到初始图像分类模型;基于各客户端模型参数构建共享模型,并根据共享模型参数,采用指数移动平均更新所述初始图像分类模型,得到最终的图像分类模型。本发明提供的联邦学习模型训练简单且适用非独立同分布场景。

    数据摘要生成方法、模型训练方法、相关装置及系统

    公开(公告)号:CN114358120A

    公开(公告)日:2022-04-15

    申请号:CN202111452498.1

    申请日:2021-11-30

    Abstract: 本申请实施例提供数据摘要生成方法、模型训练方法、相关装置及系统,其中的数据摘要生成方法包括:根据接收的全局模型的模型参数以及本地的训练数据所属的模型训练贡献层级,自适应生成本地的训练数据对应的数据摘要,其中,本地的训练数据与多份非本地的训练数据分布式设置,且各份训练数据各自所属的模型训练贡献层级为预先对各份训练数据分别进行分层聚类而得;输出本地的训练数据对应的数据摘要以基于各份训练数据各自对应的数据摘要共同训练全局模型。本申请能够有效提高生成数据摘要的针对性及自适应性,并能够提高数据摘要在分布式学习过程中的有效性及可靠性,进而能够有效提高使用数据摘要训练得到的全局模型的应用有效性及准确性。

    一种联合动态剪枝和条件卷积的卷积神经网络压缩方法及装置

    公开(公告)号:CN116306808A

    公开(公告)日:2023-06-23

    申请号:CN202310147699.3

    申请日:2023-02-20

    Abstract: 本发明提供一种联合动态剪枝和条件卷积的卷积神经网络压缩方法及装置,所述方法包括:将训练样本集输入卷积神经网络得到卷积神经网络中各卷积层的输入特征和输出特征,计算每个卷积层各输入特征间的通道显著性相似度和各输出特征间的样本相似度并构建第一总损失函数,采用第一总损失函数对卷积神经网络迭代得到第一轻量化模型和多个第二轻量化模型,当第一轻量化模型的预测值未达到设定阈值,则将各第二轻量化模型的卷积层与第一轻量化模型卷积层的组合系数组合形成集成模型,并输出预测值。本发明能够根据不同的样本数据对模型进行自适应调整和剪枝,实现模型压缩,同时提高了模型效率。

    基于任务迁移的联邦无监督图像分类模型训练方法、分类方法及设备

    公开(公告)号:CN116229170A

    公开(公告)日:2023-06-06

    申请号:CN202310199005.0

    申请日:2023-03-03

    Abstract: 本发明提供一种基于任务迁移的联邦无监督图像分类模型训练方法、分类方法及设备:获取包含完整标签和部分标签的本地数据集;获取初始神经网络模型,其包括自适应增量层和深度迁移模块;自适应增量层为在初始神经网络模型的每个卷积层后添加一个全连接层;在深度迁移模块中构建域分类和域混淆的竞争机制,并采用知识蒸馏方法保存相关类别之间的信息;采用本地数据集为模型进行训练,构建域分类损失、域混淆损失和软标签损失的联合损失,并根据分类任务平均精度确定任务优先级,训练得到初始图像分类模型;基于各客户端模型参数构建共享模型,并根据共享模型参数更新初始图像分类模型。本发明提供的图像分类模型精度高且能保留个性化局部模型。

    基于差分隐私法的联邦学习方法及装置

    公开(公告)号:CN114358307A

    公开(公告)日:2022-04-15

    申请号:CN202111447012.5

    申请日:2021-11-30

    Abstract: 本申请实施例提供基于差分隐私法的联邦学习方法及装置,其中的基于差分隐私法的联邦学习方法包括:基于当前接收的用于进行联邦学习的多份训练数据中任一份对应的阶段完成信号,开始监测目标周期内的信号接收情况数据;若监测到目标周期内的信号接收情况数据满足预设的半同步训练规则,则获取目标周期内接收的各个阶段完成信号各自对应的阶段训练结果数据,并基于差分隐私法及各个阶段训练结果数据训练目标模型。本申请能够在为目标模型的联邦学习过程提供差分隐私保护的前提下,有效避免掉队者效应的干扰,避免计算资源的浪费并能够提高目标模型的收敛速度,进而能够有效提高目标模型的训练效率及应用及时性。

    基于差分隐私法的联邦学习方法及装置

    公开(公告)号:CN114358307B

    公开(公告)日:2025-04-04

    申请号:CN202111447012.5

    申请日:2021-11-30

    Abstract: 本申请实施例提供基于差分隐私法的联邦学习方法及装置,其中的基于差分隐私法的联邦学习方法包括:基于当前接收的用于进行联邦学习的多份训练数据中任一份对应的阶段完成信号,开始监测目标周期内的信号接收情况数据;若监测到目标周期内的信号接收情况数据满足预设的半同步训练规则,则获取目标周期内接收的各个阶段完成信号各自对应的阶段训练结果数据,并基于差分隐私法及各个阶段训练结果数据训练目标模型。本申请能够在为目标模型的联邦学习过程提供差分隐私保护的前提下,有效避免掉队者效应的干扰,避免计算资源的浪费并能够提高目标模型的收敛速度,进而能够有效提高目标模型的训练效率及应用及时性。

Patent Agency Ranking