-
公开(公告)号:CN116821527B
公开(公告)日:2025-04-15
申请号:CN202310559909.X
申请日:2023-05-18
Applicant: 重庆大学
IPC: G06F16/9537 , G06F18/23 , G06F21/62 , G06N3/098
Abstract: 本发明涉及提出了一种移动环境下基于时空一致性的联邦学习推荐方法。该方法主要利用轨迹的时空一致性来优化联邦学习过程,包括轨迹完成、客户端聚类和加权聚合。轨迹完成可以有效提高数据受限情况下本地模型的训练性能,聚类策略可以有效促进相似客户之间的信息共享,加权聚合可以减少模型漂移问题。经过实验验证可知,本发明方法在确保用户隐私和安全的同时,实现了比所有基线更高的模型性能和更好的收敛效果。与最佳基线相比,SCFL性能提升高达84.26%,大大提高了模型的收敛速度。
-
公开(公告)号:CN115081446B
公开(公告)日:2024-07-26
申请号:CN202210806846.9
申请日:2022-07-08
Applicant: 重庆大学
IPC: G06F40/289 , G06F40/30 , G06F40/247 , G06F18/214 , G06F16/35
Abstract: 本发明涉及一种基于动态多掩码和增强对抗的文本匹配方法,包括如下步骤:选取公开数据集;采用现有模型BERT作为基线模型构建DAINet模型,DAINet模型包括W个掩码增强对抗模块和一个集成输出模块IO,每个掩码增强对抗模块包括一个动态多掩码模组和一个增强对抗模组;所述IO通过对W个掩码增强对抗模块的输出进行加权求和得到DAINet模型的输出。使用本发明模型可以提高中文文本匹配任务的匹配精度和运行稳定性。
-
公开(公告)号:CN115374251A
公开(公告)日:2022-11-22
申请号:CN202211087538.1
申请日:2022-09-07
Applicant: 重庆大学
IPC: G06F16/33 , G06F40/211 , G06N3/08
Abstract: 本发明涉及一种基于句法对比学习的稠密检索方法,包括如下步骤:选用公开文档检索数据集,数据集包括查询Query和正段落Passage+,将一一对应的一组Query和Passage+作为一个训练样本;从数据集中选取部分样本作为训练集C;构建稠密检索模型SynC,SynC包括一个双编码器模型和两个预训练模型,两个预训练模型分别为EncoderQ和EncoderP;所述双编码器模型包括编码器DualEncoderQ和编码器DualEncoderP;遍历所有样本,计算得到训练集C中每个训练样本对应的Eq、cq和cp;最后计算SynC的总损失,对SynC进行训练,利用总损失函数反向更新SynC参数,当训练达到最大迭代次数时停止训练,得到训练好的SynC。使用本发明SynC模型对未知查询进行稠密检索,可以提高稠密检索结果的准确性与训练效率。
-
公开(公告)号:CN115081446A
公开(公告)日:2022-09-20
申请号:CN202210806846.9
申请日:2022-07-08
Applicant: 重庆大学
IPC: G06F40/289 , G06F40/30 , G06F40/247 , G06K9/62 , G06F16/35
Abstract: 本发明涉及一种基于动态多掩码和增强对抗的文本匹配方法,包括如下步骤:选取公开数据集;采用现有模型BERT作为基线模型构建DAINet模型,DAINet模型包括W个掩码增强对抗模块和一个集成输出模块IO,每个掩码增强对抗模块包括一个动态多掩码模组和一个增强对抗模组;所述IO通过对W个掩码增强对抗模块的输出进行加权求和得到DAINet模型的输出。使用本发明模型可以提高中文文本匹配任务的匹配精度和运行稳定性。
-
公开(公告)号:CN118674013A
公开(公告)日:2024-09-20
申请号:CN202410716690.4
申请日:2024-06-04
Applicant: 重庆大学
IPC: G06N3/098 , G06N3/096 , G06N3/045 , G06N3/0475 , G06N3/094 , G06N3/084 , G06N3/092 , G06N5/025 , G06N5/04
Abstract: 本发明涉及一种基于空间异构的联邦学习方法,包括三个关键模块,时空意识对抗生成网络ST‑GAN、个性化知识蒸馏模块PKD和全局知识蒸馏模块GKD。ST‑GAN是一种伪数据生成方法,它能够为本地训练以及后续的PKD和GKD过程生成更多样的可学习样本。PKD和GKD分别部署在本地客户端和服务器上,用以增强个性化知识和全局知识的学习。本发明方法旨在缓解空间异构对模型性能的不利影响,以提高模型在不同本地客户端上的个性化推荐性能。
-
公开(公告)号:CN116796082A
公开(公告)日:2023-09-22
申请号:CN202310577915.8
申请日:2023-05-22
Applicant: 重庆大学
IPC: G06F16/9537 , G06F16/9535 , G06F16/9536 , G06Q50/00
Abstract: 本发明涉及一种基于跨序列位置解耦表征的兴趣点推荐方法,该方法通过对位置转换的全局观察,探索空间和时间因素如何影响签到行为。具体来说,首先通过数据集中的跨序列轨迹建立空间和时间上的耦合图,并通过图神经网络学习每个地点的解耦表征。该方法不但增强模型的可解释性,还应用了时间掩码数据增强方法和频域学习技术,以进一步缓解生成连续序列引起的短轨迹冷启动问题。在两个真实世界的数据集上的实验表明,与强大的基线相比,该方法具有竞争性的冷启动和推荐能力。
-
公开(公告)号:CN112603726A
公开(公告)日:2021-04-06
申请号:CN202011548223.3
申请日:2020-12-24
Applicant: 重庆大学附属肿瘤医院
Abstract: 本发明公开了一种手术台用可折叠式手术器械收纳装置,其包括网框和支架,网框包括下支撑杆、上支撑杆和围边杆,上支撑杆和下支撑杆交叉围成的网格孔为菱形;支架包括两根导向横杆、设置在导向横杆端部的插杆、调高杆、U形卡座、螺纹手柄和竖直朝上的调节螺杆,调高杆的下部与调节螺杆螺纹连接,调高杆的上部设置有与插杆滑动插接配合的竖向插孔。本发明的网框的宽度可根据实际情况进行调节,同时网框的设置高度也可根据实际需要调节,将装有常用手术器械的手术盘放置在网框中,能保证手术盘放置稳定可靠,能避免手术器械掉落伤害到病人的问题;且网框和支架可拆分,网框可折叠收纳,在不使用时便于存放,占用体积小。
-
公开(公告)号:CN117592554A
公开(公告)日:2024-02-23
申请号:CN202311554840.8
申请日:2023-11-21
Applicant: 重庆大学
IPC: G06N3/098 , G06N3/0475 , G06N3/045 , G06N3/0442 , G06N3/006
Abstract: 本发明涉及一种用于移动推荐系统隐私保护的动态联邦学习方法,包括动态数据策略模拟真实的动态环境,并且为了增强联邦模型在动态环境中的性能,本发明还提出了对抗生成网络和粒子群优化的自适应聚合方法,通过对抗生成网络解决了在动态联邦场景中客户端上的大规模本地数据系数和分布异质性的问题,通过粒子群优化的自适应聚合方法解决动态场景面临的客户端漂移问题可能导致的低质量模型参数在服务器的聚合过程中的干扰问题。在动态环境中,本发明将这两种优化方法结合起来,有效提高联邦模型的性能。
-
公开(公告)号:CN116821527A
公开(公告)日:2023-09-29
申请号:CN202310559909.X
申请日:2023-05-18
Applicant: 重庆大学
IPC: G06F16/9537 , G06F18/23 , G06F21/62 , G06N3/098
Abstract: 本发明涉及提出了一种移动环境下基于时空一致性的联邦学习推荐方法。该方法主要利用轨迹的时空一致性来优化联邦学习过程,包括轨迹完成、客户端聚类和加权聚合。轨迹完成可以有效提高数据受限情况下本地模型的训练性能,聚类策略可以有效促进相似客户之间的信息共享,加权聚合可以减少模型漂移问题。经过实验验证可知,本发明方法在确保用户隐私和安全的同时,实现了比所有基线更高的模型性能和更好的收敛效果。与最佳基线相比,SCFL性能提升高达84.26%,大大提高了模型的收敛速度。
-
公开(公告)号:CN116611442A
公开(公告)日:2023-08-18
申请号:CN202310431484.4
申请日:2023-04-21
Applicant: 重庆大学
IPC: G06F40/30 , G06F40/211 , G06F18/213 , G06F18/25
Abstract: 本发明涉及一种基于深度语义提取的兴趣点推荐方法,首先获取现有数据。构建用于下一个POI推荐的深度语义推荐模型DSMR,对DSMR进行训练,DSMR的训练包括两步,第一步先训练DSM中的参数和DSMR中语义嵌入层的参数,而DSMR中的其他参数被冻结,第二步DSM中的参数和DSMR中语义嵌入层的参数被冻结,训练DSMR中的其他参数;两步训练完成后,得到训练好的DSMR;对于一个新用户,将该新用户的POI输入训练好的DSMR中,训练好的DSMR的输出即是对该新用户推荐的下一个POI。本发明中提出的方法能够挖掘离散序列内隐的深度语义信息,并将其注入推荐模型中以提升其推荐性能。
-
-
-
-
-
-
-
-
-