-
公开(公告)号:CN118313445A
公开(公告)日:2024-07-09
申请号:CN202410529143.5
申请日:2024-04-29
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) , 鹏城实验室
IPC: G06N3/098 , G06N3/096 , G06N3/084 , G06N3/0464 , G06N3/0499 , G06F18/2415 , G06F18/2431 , G06N3/048
Abstract: 本发明涉及联邦学习技术领域,公开了一种基于受约束梯度更新的联邦类增量学习方法及系统,该方法包括:接收服务器发送的上一任务的个性化全局模型和跨任务协作损失;当获取到新的任务数据时,基于上一任务的梯度空间的基向量、新的任务的预测标签和真实标签以及跨任务协作损失,对上一任务的模型参数沿着与其梯度空间正交的方向进行更新,得到新的任务在本轮训练中的模型参数;对新的任务的类原型进行加权平均,得到新的任务在本轮训练中的类平均原型;重复上述模型参数和类平均原型的更新,进行预设轮次训练,在每一轮训练完成后,向服务器发送新的任务的模型参数和类平均原型。本发明在客户端有新增任务时,避免灾难性遗忘和模型漂移问题。
-
公开(公告)号:CN118277669A
公开(公告)日:2024-07-02
申请号:CN202410462841.8
申请日:2024-04-17
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) , 鹏城实验室
IPC: G06F16/9535 , G06F18/214 , G06F18/23 , G06F17/16 , G06N3/098
Abstract: 本发明公开了一种基于超图信号分解的联邦跨域推荐方法,属于数据挖掘技术领域。解决了现有技术中传统的跨域推荐方法的难以避免全局模型混入领域特有信息的问题;本发明设定总通信轮次,使用本地数据初始化训练客户端模型,服务器随机选取客户端训练;客户端使用本地的低通超图滤波器和高通超图滤波器分别得到领域特定和领域共享的用户表征和物品表征;客户端和服务器之间运行本地‑全局知识迁移算法;服务器对得到的领域共享的用户表征和更新后的低通超图滤波器的模型进行聚合;服务器将聚合后的全局用户表征和聚合后的低通超图滤波器的模型发送给客户,重复上述步骤直至执行完总通信轮次。本发明避免了出现负迁移问题,可以应用于联邦跨域推荐。
-
公开(公告)号:CN117573975A
公开(公告)日:2024-02-20
申请号:CN202311548012.3
申请日:2023-11-17
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) , 鹏城实验室
IPC: G06F16/9535 , G06N3/0455 , G06N3/042 , G06N3/048 , G06N3/098
Abstract: 本发明提供了一种联邦跨领域的信息推荐方法、装置、终端设备及介质,所述信息推荐方法从服务器获取预先训练好的跨域序列推荐模型,并且通过用户的交互信息,确定对用户的推荐建议。该模型由服务器将多个本地模型聚合得到,每个本地模型对应一个客户端,并且每个本地模型在对应的客户端本地训练得到,这样,对于客户端来说,不需要将本地的数据上传到服务器,也可以通过服务器训练得到跨域序列推荐模型,然后从服务器获取该模型并进行应用,确保了客户端数据拥有方的数据隐私,此外相比现有的定制化推荐模型,跨域序列推荐模型通过多个本地模型聚合得到并且各本地模型分别由对应客户端本地训练得到,可以有效提高跨域序列推荐模型的性能和质量。
-
公开(公告)号:CN117573975B
公开(公告)日:2024-12-13
申请号:CN202311548012.3
申请日:2023-11-17
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) , 鹏城实验室
IPC: G06F16/9535 , G06N3/0455 , G06N3/042 , G06N3/048 , G06N3/098
Abstract: 本发明提供了一种联邦跨领域的信息推荐方法、装置、终端设备及介质,所述信息推荐方法从服务器获取预先训练好的跨域序列推荐模型,并且通过用户的交互信息,确定对用户的推荐建议。该模型由服务器将多个本地模型聚合得到,每个本地模型对应一个客户端,并且每个本地模型在对应的客户端本地训练得到,这样,对于客户端来说,不需要将本地的数据上传到服务器,也可以通过服务器训练得到跨域序列推荐模型,然后从服务器获取该模型并进行应用,确保了客户端数据拥有方的数据隐私,此外相比现有的定制化推荐模型,跨域序列推荐模型通过多个本地模型聚合得到并且各本地模型分别由对应客户端本地训练得到,可以有效提高跨域序列推荐模型的性能和质量。
-
-
-