一种拜占庭容错方法、装置、系统、电子装置和存储介质

    公开(公告)号:CN114629772B

    公开(公告)日:2023-03-10

    申请号:CN202210281022.4

    申请日:2022-03-22

    Applicant: 浙江大学

    Abstract: 本申请涉及一种拜占庭容错方法、装置、系统、电子装置和存储介质,包括:获取非拜占庭节点的初始化节点参数和训练数据,根据所述训练数据和所述初始化节点参数得到非拜占庭节点的一阶矩调整值和二阶矩调整值;获取所述非拜占庭节点的邻居参数,对所有邻居参数进行截断中位数后,根据所述一阶矩调整值和所述二阶矩调整值得到参数更新结果;根据所述参数更新结果获取训练完备的节点参数结果,并将所述节点参数结果输入至所述分布式网络中,以使得所述分布式网络基于所述节点参数结果执行拜占庭容错操作。通过本申请,解决了中心化拜占庭容错方法通信延时大、效率低下以及容易失效的问题,实现了分布式网络中去中心化拜占庭容错方法的加速运算。

    一种拜占庭容错方法、装置、系统、电子装置和存储介质

    公开(公告)号:CN114629772A

    公开(公告)日:2022-06-14

    申请号:CN202210281022.4

    申请日:2022-03-22

    Applicant: 浙江大学

    Abstract: 本申请涉及一种拜占庭容错方法、装置、系统、电子装置和存储介质,包括:获取非拜占庭节点的初始化节点参数和训练数据,根据所述训练数据和所述初始化节点参数得到非拜占庭节点的一阶矩调整值和二阶矩调整值;获取所述非拜占庭节点的邻居参数,对所有邻居参数进行截断中位数后,根据所述一阶矩调整值和所述二阶矩调整值得到参数更新结果;根据所述参数更新结果获取训练完备的节点参数结果,并将所述节点参数结果输入至所述分布式网络中,以使得所述分布式网络基于所述节点参数结果执行拜占庭容错操作。通过本申请,解决了中心化拜占庭容错方法通信延时大、效率低下以及容易失效的问题,实现了分布式网络中去中心化拜占庭容错方法的加速运算。

    一种用于最小-最大化问题的跨设备联邦学习方法

    公开(公告)号:CN114330743B

    公开(公告)日:2025-05-16

    申请号:CN202111597238.3

    申请日:2021-12-24

    Applicant: 浙江大学

    Abstract: 本发明公开了一种用于最小‑最大化问题的跨设备联邦学习方法,属于联邦学习技术领域。包括:中心服务器初始化模型参数中的主变量和对偶变量,以及迭代轮数;中心服务器选择一个客户端子集,将模型参数发送至每个客户端;客户端子集中的每个客户端计算本地梯度估计量;中心服务器接收客户端返回的本地梯度估计量,计算全局梯度估计量;中心服务器选择另一个客户端子集,将模型参数和全局梯度估计量发送至每个客户端,客户端对模型参数进行K步的本地更新,并将最终的本地模型参数发送给中心服务器;中心服务器接收到客户端返回的本地模型参数后,计算新的全局模型参数,迭代计算,直至输出最终参数。

    强化学习方法、动作生成系统、计算机设备和存储介质

    公开(公告)号:CN119358629A

    公开(公告)日:2025-01-24

    申请号:CN202411346527.X

    申请日:2024-09-25

    Applicant: 浙江大学

    Abstract: 本申请涉及一种强化学习方法、动作生成系统、计算机设备和存储介质。所述方法包括:对预设时间范围内的历史状态和动作信息进行编码,得到编码轨迹信息;基于所述编码轨迹信息和预设的深度学习网络,生成目标动作;基于所述目标动作以及与所述目标动作对应的当前状态,确定所述目标动作的预测回报;基于所述当前状态下的动作概率分布,确定探索能力调整值;基于所述预测回报和探索能力调整值,对所述深度学习网络的参数进行调整。采用本方法能够达到提高策略生成的鲁棒性的效果。

    数据处理方法、装置、电子装置和存储介质

    公开(公告)号:CN114611675A

    公开(公告)日:2022-06-10

    申请号:CN202210283654.4

    申请日:2022-03-22

    Applicant: 浙江大学

    Abstract: 本申请涉及一种数据处理方法、装置、电子装置和存储介质,其中,该数据处理方法包括:获取深度神经网络模型,以及该深度神经网络模型中每个算子的张量;基于该张量确定每个该算子的张量切分结果,以至少根据该张量切分结果生成初始并行策略,并利用构建完备的代价模型对该初始并行策略训练处理以得到代价评估结果;至少根据该初始并行策略和该代价评估结果生成目标并行策略;其中,该目标并行策略用于指示该深度神经网络模型执行数据处理操作。通过本申请,解决了自动生成的并行策略准确性低的问题。

    基于大语言模型和强化学习的决策支持系统及方法

    公开(公告)号:CN119150913A

    公开(公告)日:2024-12-17

    申请号:CN202411639883.0

    申请日:2024-11-18

    Applicant: 浙江大学

    Abstract: 本申请涉及强化学习技术领域,提供了一种基于大语言模型和强化学习的决策支持系统及方法,其首先获取强化学习的源状态表征,并利用外部知识库对其进行数据增强,随后将增强后的状态表征转换为预设大语言模型的状态表征,接着将该状态表征输入预设大语言模型以生成强化学习智能体增强的状态表征函数和内在奖励函数,基于这两个函数更新维护利普西茨数组,以产生满足平滑条件的状态表征,最后,将满足条件的状态表征输入分类器决策模型,得出决策结果。这样,通过引入外部信息,有助于提升强化学习的源状态表征质量,从而提高智能体的决策能力和适应性。

    一种用于最小-最大化问题的跨设备联邦学习方法

    公开(公告)号:CN114330743A

    公开(公告)日:2022-04-12

    申请号:CN202111597238.3

    申请日:2021-12-24

    Applicant: 浙江大学

    Abstract: 本发明公开了一种用于最小‑最大化问题的跨设备联邦学习方法,属于联邦学习技术领域。包括:中心服务器初始化模型参数中的主变量和对偶变量,以及迭代轮数;中心服务器选择一个客户端子集,将模型参数发送至每个客户端;客户端子集中的每个客户端计算本地梯度估计量;中心服务器接收客户端返回的本地梯度估计量,计算全局梯度估计量;中心服务器选择另一个客户端子集,将模型参数和全局梯度估计量发送至每个客户端,客户端对模型参数进行K步的本地更新,并将最终的本地模型参数发送给中心服务器;中心服务器接收到客户端返回的本地模型参数后,计算新的全局模型参数,迭代计算,直至输出最终参数。

Patent Agency Ranking