-
公开(公告)号:CN116452269A
公开(公告)日:2023-07-18
申请号:CN202310391200.3
申请日:2023-04-13
Applicant: 安徽农业大学
IPC: G06Q30/0251 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于多行为的动态图神经网络推荐方法,包括:S1:根据用户和物品交互的行为序列集合,为用户和物品构建出基于多行为的动态图;S2:根据图注意力机制计算用户每个特定行为的传播权重,利用图卷积网络得出更新后的用户表示和物品表示;S3:根据全局用户物品交互图,构建物品关联图,利用图注意力机制和GRU计算用户行为演化表示;S4:根据学习到的用户、物品表示和用户演化表示,预测用户下一刻基于某种行为产生交互的物品,以及用户物品交互概率。本发明结合了多行为与图神经网络,既能捕捉丰富的行为语义,又可以学习物品之间的关联特征与行为演化之间的关系,从而实现更准确的推荐效果。
-
公开(公告)号:CN113506131B
公开(公告)日:2023-07-25
申请号:CN202110727165.9
申请日:2021-06-29
Applicant: 安徽农业大学
IPC: G06Q30/0601 , G06N3/0455 , G06N3/0475 , G06N3/048 , G06N3/094
Abstract: 本发明公开了一种基于生成式对抗网络的个性化推荐方法,利用用户对物品的评论情况,获取用户对物品的具体购买情况,再结合物品所属产地和随机变量,使用编码器捕获用户对物品的偏好,使用解码器预测用户将会购买的物品。利用预测的用户将会购买的物品、用户对物品的购买情况和物品所属产地,使用全连接层构建的判别器判断预测的用户将会购买的物品的真假情况。最终计算预测用户将会购买的物品与真实物品的相关系数,选取相关系数最高的物品进行推荐。
-
公开(公告)号:CN116401444A
公开(公告)日:2023-07-07
申请号:CN202310136573.6
申请日:2023-02-10
Applicant: 安徽农业大学
IPC: G06F16/9535 , G06F16/9537 , G06F16/2457 , G06N3/042 , G06N3/0464 , G06N3/047 , G06N3/048
Abstract: 本发明公开了一种基于时间上下文的图注意力机制的物品推荐方法及装置,方法包括:首先根据用户与物品交互数据信息,构建用户‑物品交互图,根据用户与物品发生交互的时间信息,确定时间权重系数,将时间权重系数融入到第一注意力机制中进行建模,生成包含时间信息的第二注意力机制,基于第二注意力机制,计算预测评分,并根据评分排序,向用户推荐物品,它通过利用时间上下文的图注意力机制,以解决现有的物品推荐系统存在的交互数据单一以及过平滑问题,提高物品的推荐效果和用户体验。
-
公开(公告)号:CN113191482A
公开(公告)日:2021-07-30
申请号:CN202110416061.6
申请日:2021-04-19
Applicant: 安徽农业大学
IPC: G06N3/04 , G06N3/08 , G06K9/62 , G06F16/45 , G06F16/9535
Abstract: 本发明公开了一种基于元路径的异质图神经网络表示方法,包括以下步骤:步骤1、确定目标节点的多条元路径,在每条元路径中采样目标节点的不同类型的邻居节点后按类型进行分组;步骤2、对步骤1得到的邻居节点分别进行特征提取、节点初始异质内容编码、特征聚合得到异质邻居信息;步骤3、分别聚合每条元路径中生成的邻居节点的异质邻居信息,并得到对应的嵌入表示;步骤4、再次基于注意力机制对各条元路径中的嵌入表示进行合并后优化,生成目标节点的最终嵌入表示。
-
公开(公告)号:CN113496259B
公开(公告)日:2024-09-10
申请号:CN202110725548.2
申请日:2021-06-29
Applicant: 安徽农业大学
IPC: G06N3/042 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种融入标签信息的图神经网络推荐方法,包括以下步骤:步骤1、构建用户‑物品交互图以及物品‑物品关联图;步骤2、学习用户‑物品交互图中节点的特征表示;步骤3、学习所述物品‑物品关联图中节点的特征表示;步骤4、利用用户‑物品交互图中节点的特征表示、物品‑物品关联图中节点的特征表示构建多层感知机预测用户对物品的交互偏好值;步骤5、基交互偏好值向用户推荐物品。相较于使用单一交互数据的传统推荐方法,本发明能进行更合理更精确的推荐,并在一定程度上缓解物品冷启动问题。
-
公开(公告)号:CN113506131A
公开(公告)日:2021-10-15
申请号:CN202110727165.9
申请日:2021-06-29
Applicant: 安徽农业大学
Abstract: 本发明公开了一种基于生成式对抗网络的个性化推荐方法,利用用户对物品的评论情况,获取用户对物品的具体购买情况,再结合物品所属产地和随机变量,使用编码器捕获用户对物品的偏好,使用解码器预测用户将会购买的物品。利用预测的用户将会购买的物品、用户对物品的购买情况和物品所属产地,使用全连接层构建的判别器判断预测的用户将会购买的物品的真假情况。最终计算预测用户将会购买的物品与真实物品的相关系数,选取相关系数最高的物品进行推荐。
-
公开(公告)号:CN114841778B
公开(公告)日:2024-06-04
申请号:CN202210561717.8
申请日:2022-05-23
Applicant: 安徽农业大学
IPC: G06Q30/0601 , G06F16/9535 , G06N3/045 , G06N3/0475 , G06N3/042 , G06N3/0442 , G06N3/0464 , G06N3/094 , G06F18/243 , G06F18/27
Abstract: 本发明公开了一种基于动态图神经网络的商品推荐方法,其步骤包括:1、获取一个用户的历史行为序列,并按照等时间间隔分割为T个时间步的子序列,构建每个子序列的用户行为交互图;2、通过图注意力网络分别聚合每个时间步上用户行为交互图上节点的信息;3、构建生成对抗网络中的生成器G;4、构建生成对抗网络中的判别器D;5、获得每个物品节点被用户交互的可能性,并对物品进行降序排序,并选取前N个物品推荐给相应用户。本发明能捕获用户行为交互图的随时间的演化过程,从而能增强推荐性能。
-
公开(公告)号:CN116595251A
公开(公告)日:2023-08-15
申请号:CN202310527881.1
申请日:2023-05-11
Applicant: 安徽农业大学
IPC: G06F16/9535
Abstract: 本发明公开了一种基于图元胞自动机的动态异质图神经网络推荐方法,为用户和物品构建动态异质图;根据图元胞自动机初始化用户和物品的节点坐标信息和节点特征表示;基于图重构的全局规则设计,根据用户不同行为以及行为权重对节点与边进行操作,实时更新用户和物品的动态异质图以及邻接矩阵和权重矩阵;基于图局部状态转换规则设计,通过图神经网络方法聚合用户和物品邻居节点信息,更新用户和物品的节点状态信息;根据状态更新后的用户特征表示和物品特征表示,预测用户和物品下一刻产生交互的评分。本发明既能有效地捕捉用户偏好的实时行为影响,又能够处理动态和不断变化的用户行为数据,从而实现更准确的推荐效果。
-
公开(公告)号:CN115689687A
公开(公告)日:2023-02-03
申请号:CN202211376444.6
申请日:2022-11-04
Applicant: 安徽农业大学
IPC: G06Q30/0601 , G06F16/9535 , G06F16/9537 , G06N3/045 , G06N3/048 , G06N3/08
Abstract: 本发明公开了一种基于元胞自动机的动态图神经网络推荐方法,根据用户物品交互信息构建用户物品交互动态图,对交互动态图进行划分,分为用户视角动态图和物品视角动态图。分别对用户视角动态图和物品视角动态图进行学习,过程为用户兴趣偏移、用户兴趣增强、用户元胞状态变化偏移量计算和用户兴趣聚合,物品视角动态图学习过程为物品邻居信息聚合、物品元胞状态信息判断和物品嵌入信息更新。利用用户物品嵌入表示预测未来时刻的表示并计算用户与物品交互概率,根据交互概率大小排序进行推荐。本发明很好的把握住推荐场景中用户与物品随时间不断演化的规律并及时捕捉到用户偏好的变化和物品携带信息的更新,找到用户感兴趣的物品,进行个性化推荐。
-
公开(公告)号:CN114841778A
公开(公告)日:2022-08-02
申请号:CN202210561717.8
申请日:2022-05-23
Applicant: 安徽农业大学
IPC: G06Q30/06 , G06F16/9535 , G06N3/04 , G06N3/08 , G06K9/62
Abstract: 本发明公开了一种基于动态图神经网络的商品推荐方法,其步骤包括:1、获取一个用户的历史行为序列,并按照等时间间隔分割为T个时间步的子序列,构建每个子序列的用户行为交互图;2、通过图注意力网络分别聚合每个时间步上用户行为交互图上节点的信息;3、构建生成对抗网络中的生成器G;4、构建生成对抗网络中的判别器D;5、获得每个物品节点被用户交互的可能性,并对物品进行降序排序,并选取前N个物品推荐给相应用户。本发明能捕获用户行为交互图的随时间的演化过程,从而能增强推荐性能。
-
-
-
-
-
-
-
-
-