-
公开(公告)号:CN116911942A
公开(公告)日:2023-10-20
申请号:CN202310780389.5
申请日:2023-06-28
申请人: 北京沃东天骏信息技术有限公司 , 北京京东世纪贸易有限公司 , 中国人民大学
IPC分类号: G06Q30/0601 , G06F16/9535 , G06F18/27
摘要: 本公开涉及一种用户的行为预测方法、装置和机器学习模型的训练方法,涉及计算机技术领域。该预测方法,包括:根据当前物品的物品特征信息,提取当前物品的第一表示信息,第一表示信息用于表示物品的新颖程度;根据当前物品的第一表示信息和用户的历史选择物品的第一表示信息,评估当前物品对于用户的新颖程度;根据当前物品对于用户的新颖程度,预测用户是否会选择当前物品。本公开的技术方案能够提高用户行为的预测结果准确率。
-
公开(公告)号:CN118590300A
公开(公告)日:2024-09-03
申请号:CN202410837748.0
申请日:2024-06-26
申请人: 中国人民大学
IPC分类号: H04L9/40
摘要: 本公开提供一种网络日志异常行为检测方法。包括五个步骤:步骤1:将网络日志数据流计算主成分,保留参照窗口矩阵略图;步骤2:对数据流中后续到来的每个向量,通过滑动窗口上的最优矩阵略图算法更新相应的测试窗口的矩阵略图;步骤3:通过变化打分函数MGKL散度,对参照窗口的概率密度估计与测试窗口的的概率密度估计计算量化差异分数;步骤4:若差异分数大于阈值,则报告一次异常检测事件,并将当前测试窗口的矩阵略图作为新的参照窗口矩阵略图;步骤5:通过步骤2继续处理数据流中新的输入。可以实现挖掘发生主要变化的属性和特征,分析可能的异常行为发生的原因,同时在资源受限的场景下自适应地实现计算资源与近似精度的折衷。
-
公开(公告)号:CN118377995A
公开(公告)日:2024-07-23
申请号:CN202410513532.9
申请日:2024-04-26
申请人: 中国人民大学
IPC分类号: G06F17/13 , G06F16/9535 , G06F16/9536 , G06Q30/0601
摘要: 本公开提供一种基于神经常微分方程的序列重复模式处理方法。由静态推荐模块和动态重复感知模块组成,首先将用户和用户历史相关信息、候选物品信息输入所述静态推荐模块,所述静态推荐模块通过对用户历史序列进行分析构建用户静态偏好画像,并根据此用户建模计算用户对物品的静态偏好分数,并通过拼接函数将中间变量传递至所述动态重复感知模块;所述动态重复感知模块建模用户重复消费的意图,构建用户的短期动态偏好画像,并计算用户对物品的重复消费分数;最后将两个模块的分数相加得到用户对物品的最终偏好分数,并将分数最高的物品排序作为推荐的物品。从而构成可以有效捕获序列重复的动态模式,且适用于各种推荐方法。
-
公开(公告)号:CN116561252A
公开(公告)日:2023-08-08
申请号:CN202310463448.6
申请日:2023-04-26
申请人: 中国人民大学
摘要: 本发明通过人工智能领域的方法,实现了一种用于司法类案匹配的因果表征学习框架。采用基于工具变量回归的因果表征学习框架,首先通过处理变量分解模块,采用两个架构相同treatment重构模块分别处理源案例和目标案例,分别输出重建的嵌入向量,生成法律条文对于法律案件的直接因果效应,分别得到拟合部分和残差部分,之后采用处理变量重构模块,将拟合部分和残差部分通过注意权重重新组合在一起,最后通过下游应用模块,将每个输入文档表示为向量,并根据表示预测匹配得分。本发明提供的方法以合理的方式将法律条文引入到法律案例匹配的过程中,通过将法律条文视为工具变量,将法律案例视为处理变量,从而将中介效应和直接效应从法律案例中分解出来。
-
公开(公告)号:CN114491094A
公开(公告)日:2022-05-13
申请号:CN202210032855.7
申请日:2022-01-12
申请人: 中国人民大学 , 北京达佳互联信息技术有限公司
IPC分类号: G06F16/435 , G06F16/438
摘要: 本公开关于一种多媒体资源的确定方法、预测模型的训练方法及装置,涉及计算机技术领域。本公开实施例至少解决相关技术中,向账户推荐多媒体资源可能不准确的问题。该方法包括:获取当前账户的账户重构特征,以及多个候选多媒体资源中每个候选多媒体资源的资源重构特征;账户重构特征用于表征账户的搜索行为影响账户的互动行为的相关因素和非相关因素;资源重构特征用于表征在搜索条件下,对应搜索结果中的多媒体资源影响账户执行互动行为的相关因素和非相关因素;根据当前账户的账户重构特征以及每个候选多媒体资源的资源重构特征,预测当前账户的预测互动参数,并从多个候选多媒体资源中确定用于向当前账户推荐的待推荐多媒体资源。
-
公开(公告)号:CN113761355A
公开(公告)日:2021-12-07
申请号:CN202110481331.1
申请日:2021-04-30
申请人: 腾讯科技(深圳)有限公司 , 中国人民大学
IPC分类号: G06F16/9535 , G06Q30/02 , G06Q30/06 , G06N20/00
摘要: 本申请提供了一种信息推荐方法、装置、设备及计算机可读存储介质;涉及人工智能技术,方法包括:通过原始推荐模型进行信息推荐,获得推荐实例序列对应的反馈信息序列,反馈信息序列中的每条反馈信息包括延迟反馈奖励;获取推荐实例序列中的每个推荐实例对应的反馈修正参数,反馈修正参数与当前收到每个推荐实例的延迟反馈的概率负相关、以及与最终收到每个推荐实例的延迟反馈的概率正相关;基于反馈修正参数,对每个推荐实例对应的延迟反馈奖励进行修正,从而获得与推荐实例序列对应的修正后的反馈信息序列;基于推荐实例序列和修正后的反馈信息序列,更新原始推荐模型,获得推荐模型。通过本申请,能够提升信息推荐的准确度。
-
公开(公告)号:CN115309936A
公开(公告)日:2022-11-08
申请号:CN202210949277.3
申请日:2022-08-09
申请人: 中国人民大学
IPC分类号: G06F16/68 , G06F16/635 , G06N3/04 , G06N3/08
摘要: 本发明通过网络安全领域的方法,实现了一种基于奖励修正的去除注意力偏差的流式音乐推荐方法。方法的核心包含三个模块:奖励修正模型、注意力预测模块、相关性预测模块。奖励修正模块通过重要性采样的方法,结合预测的用户注意力和相关性来获得修正后无偏的奖励;注意力预测模块建模了用户对每一首歌的注意力的概率;相关性预测模块用来预测用户对每一首候选歌曲的偏好,并基于修正后的奖励进行参数更新。本发明以此来消除用户反馈中的注意力偏差获得无偏的奖励并提升模型预测的准确性。
-
公开(公告)号:CN117934074A
公开(公告)日:2024-04-26
申请号:CN202410059157.5
申请日:2024-01-16
申请人: 中国人民大学
IPC分类号: G06Q30/0207 , G06Q30/0214
摘要: 本发明通过互联网技术领域的方法,实现了一种基于奖励插补的流式推荐方法。系统从多个候选中给用户发放一个优惠券,随后观察用户是否会消费该优惠券并更新模型对应的参数为了得知其余选项的反馈,而由于优惠券推荐系统中的用户量达百万级,直接采用上下文批量赌博机(CBB)进行在线推荐的过程难以保证优惠券发放的实时性,这需要高效的用户奖励反馈插补实时扩充训练数据,并基于矩阵略图方法实现优惠券推荐的低资源消耗,达到节省网络资源、降低计算资源开销的目的。方案充分利用了多臂赌博机中的部分反馈机制,对奖励进行插补,使得算法效果有显著提升;其次引入了矩阵略图的方法,使得算法在保持较好的效果的同时,效率也得到显著提升。
-
公开(公告)号:CN116775915A
公开(公告)日:2023-09-19
申请号:CN202310781584.X
申请日:2023-06-28
申请人: 北京达佳互联信息技术有限公司 , 中国人民大学
IPC分类号: G06F16/435 , G06F16/9535 , G06F18/213 , G06F18/22 , G06F18/25 , G06F18/24 , G06F18/214
摘要: 本公开提供了一种资源推荐方法、推荐预测模型训练方法、装置及设备,属于多媒体技术领域。资源推荐方法包括:获取对象的历史推荐信息及历史搜索信息;基于待推荐的资源、历史推荐信息及历史搜索信息,获取对象的推荐兴趣特征及搜索兴趣特征;对对象的对象特征、资源的资源特征、推荐兴趣特征及搜索兴趣特征进行降维处理,得到资源的推荐概率;基于待推荐的多个资源的推荐概率,向对象推荐多个资源中的目标资源。本公开实施例提供的方案中,保证了推荐概率指示的情况与对象的兴趣相匹配,保证了推荐概率的准确性,进而保证了向对象推荐的资源为对象感兴趣的资源,以保证资源推荐的准确性,进而保证资源推荐效果。
-
公开(公告)号:CN112085524B
公开(公告)日:2022-11-15
申请号:CN202010896316.9
申请日:2020-08-31
摘要: 本发明涉及一种基于Q学习模型的结果推送方法和系统,包括以下步骤:将状态st、推送结果at,下一状态st+1和奖励值rt+1组成一个数据组,并将其存储至经验池D中;从经验池D中提取若干数据组,计算网络参数下的全梯度均值,此时的网络参数为锚点网络参数;随机提取上一步骤中的数据组,并计算其在当前网络参数下和锚点网络参数下的目标Q值和梯度值,将梯度值和全梯度均值带入方差缩减公式实现梯度更新;重复上述步骤直至训练结束,获得最终的Q学习模型,将待测状态输入最终的Q学习模型获得最佳推送结果。其通过将方差缩减技术引入到随机梯度下降的Q学习模型中,提高了强化学习的训练过程的稳定性。
-
-
-
-
-
-
-
-
-