-
公开(公告)号:CN112464104B
公开(公告)日:2024-05-14
申请号:CN202011269644.2
申请日:2020-11-13
申请人: 中国科学院深圳先进技术研究院
IPC分类号: G06F16/9536 , G06F16/958 , G06N3/0464 , G06N3/08
摘要: 本发明公开了一种基于网络自协作的隐式推荐方法和系统。该方法包括:对应于一个序列推荐模型,构建具有相同网络架构的对等序列推荐模型;对于所述序列推荐模型及其对等序列推荐模型进行协作训练,并在协作训练过程中,根据所述序列推荐模型中每一层参数的重要性通过从其对等序列推荐模型中移植参数来重激活该序列推荐模型的无效参数;以用户的历史浏览序列作为输入,利用经协作训练的所述序列推荐模型为用户进行序列推荐服务。本发明通过自动化地促进多个模型的协作和优化,能够获得更具表现力的序列推荐模型,为用户提供准确的推荐服务。
-
公开(公告)号:CN111368995A
公开(公告)日:2020-07-03
申请号:CN202010092180.6
申请日:2020-02-14
申请人: 中国科学院深圳先进技术研究院
IPC分类号: G06N3/08 , G06N3/04 , G06F16/9535 , G06F16/2457 , G06F16/2458
摘要: 本发明提供一种基于序列推荐系统的通用网络压缩框架和压缩方法。该通用网络压缩框架包括:基于分块自适应分解的输入嵌入层:用于根据推荐项的频率将推荐项集合划分为多个簇并将输入嵌入矩阵分割为对应的多个块,其中为每个簇的块分配不同维度;分层参数共享的中间层:连接所述输入嵌入层,由多个残差块堆积而成,采用分层参数共享机制进行参数共享;基于分块自适应分解的输出层:与所述输入嵌入层使用相同的分块嵌入的聚簇配置,并采用树型结构表示各簇的块,获得输出序列的概率分布,进而对期望的推荐项进行预测。本发明有效地解决了序列推荐模型参数量庞大的问题,提升了模型的训练和推断效率,缓解了模型过拟合现象。
-
公开(公告)号:CN111368995B
公开(公告)日:2023-05-02
申请号:CN202010092180.6
申请日:2020-02-14
申请人: 中国科学院深圳先进技术研究院
IPC分类号: G06N3/0495 , G06N3/0464 , G06N3/047 , G06N3/08 , G06N5/04 , G06F16/9535 , G06F16/2457 , G06F16/2458
摘要: 本发明提供一种基于序列推荐系统的通用网络压缩框架和压缩方法。该通用网络压缩框架包括:基于分块自适应分解的输入嵌入层:用于根据推荐项的频率将推荐项集合划分为多个簇并将输入嵌入矩阵分割为对应的多个块,其中为每个簇的块分配不同维度;分层参数共享的中间层:连接所述输入嵌入层,由多个残差块堆积而成,采用分层参数共享机制进行参数共享;基于分块自适应分解的输出层:与所述输入嵌入层使用相同的分块嵌入的聚簇配置,并采用树型结构表示各簇的块,获得输出序列的概率分布,进而对期望的推荐项进行预测。本发明有效地解决了序列推荐模型参数量庞大的问题,提升了模型的训练和推断效率,缓解了模型过拟合现象。
-
公开(公告)号:CN112464104A
公开(公告)日:2021-03-09
申请号:CN202011269644.2
申请日:2020-11-13
申请人: 中国科学院深圳先进技术研究院
IPC分类号: G06F16/9536 , G06F16/958 , G06N3/04 , G06N3/08
摘要: 本发明公开了一种基于网络自协作的隐式推荐方法和系统。该方法包括:对应于一个序列推荐模型,构建具有相同网络架构的对等序列推荐模型;对于所述序列推荐模型及其对等序列推荐模型进行协作训练,并在协作训练过程中,根据所述序列推荐模型中每一层参数的重要性通过从其对等序列推荐模型中移植参数来重激活该序列推荐模型的无效参数;以用户的历史浏览序列作为输入,利用经协作训练的所述序列推荐模型为用户进行序列推荐服务。本发明通过自动化地促进多个模型的协作和优化,能够获得更具表现力的序列推荐模型,为用户提供准确的推荐服务。
-
-
-