-
公开(公告)号:CN108846767B
公开(公告)日:2022-03-11
申请号:CN201710288302.7
申请日:2017-04-27
申请人: 清华大学 , 腾讯科技(深圳)有限公司
摘要: 本发明公开了一种社交群组的特征获取方法及装置,属于大数据技术领域。方法包括:获取社交群组的邀请关系记录和好友关系记录;创建群组网络结构;根据群组网络结构的用户分布特征和级联树特征中的至少一项,获取社交群组的指定特征,用户分布特征用于表示成员用户与好友用户的分布情况,级联树特征用于表示邀请方成员用户与被邀请方成员用户的分布情况。本发明通过根据社交群组的用户分布特征和级联树特征中的至少一项,获取社交群组的指定特征,而不仅是根据社交群组的属性特征,扩展了特征,提高了多样性,当应用于预测社交群组的生存时长时可以提高预测精确度。
-
公开(公告)号:CN107093172B
公开(公告)日:2020-03-17
申请号:CN201610091568.8
申请日:2016-02-18
申请人: 清华大学 , 腾讯科技(深圳)有限公司
摘要: 本发明公开了一种文字检测方法及系统;方法包括:将目标图像的三色通道中的每个图像进行减色处理,得到减色图像,以及,将目标图像转换为二值图像;将减色图像中具有相同色彩的连通块进行合并,以及将二值图像中具有相同色彩的连通块合并;对减色图像三色通道的每种色彩通道的连通块、以及二值图像中的连通块,分别在竖直和水平方向上以连接的方式进行合并,得到目标图像中候选的文字区域;在目标图像上对应候选的文字区域的位置提取特定区域,基于所提取的特定区域中包含文字区域的概率与预设概率阈值的比较结果判断提取的特定区域中是否包含文字行或文字列。实施本发明,能够对图像中的文本进行准确检测。
-
公开(公告)号:CN108880846A
公开(公告)日:2018-11-23
申请号:CN201710343881.0
申请日:2017-05-16
申请人: 清华大学 , 腾讯科技(深圳)有限公司
IPC分类号: H04L12/24
摘要: 本发明公开了一种为网络中节点确定向量表示形式的方法及装置,属于网络技术领域。该方法包括:根据网络中的节点和节点信息,生成网络结构;获取每个节点的初始背景向量和初始目标向量;以每个节点为起点进行随机游走,得到节点序列,并确定每个节点的节点频数;对每个节点的背景向量和目标向量进行迭代计算,得到每个节点的向量表示形式。本发明通过生成包括原始节点和群组节点的网络结构,并通过对每个节点的背景向量和目标向量进行迭代计算,得到包括原始节点和群组节点在内的每个节点的向量表示形式。由于基于原始节点和群组节点的向量表示形式,不仅可度量原始节点间的相似度,而且度量原始节点和群组节点的相似度,因而应用范围较广。
-
公开(公告)号:CN108875993A
公开(公告)日:2018-11-23
申请号:CN201710345002.8
申请日:2017-05-16
申请人: 清华大学 , 腾讯科技(深圳)有限公司
CPC分类号: G06N5/02 , G06F16/285 , G06Q10/04 , G06Q50/00 , G06Q50/01
摘要: 本发明是关于一种邀请行为预测方法及装置,属于互联网技术领域。所述方法包括:获取第一用户的群组行为特征信息;获取第二用户的群组关系特征信息;将群组的群组架构特征信息、第一用户的群组行为特征信息以及第二用户的群组关系特征信息输入邀请预测模型中,得到目标成员用户和目标成员用户的候选邀请用户;向目标成员用户发送邀请预测信息,邀请预测信息用于提示目标成员用户将目标成员用户的候选邀请用户加入群组。本发明通过基于能够代表群组内成员用户关系以及成员用户的邀请行为等的特征所训练的邀请预测模型,来进行邀请行为的预测,使得社交应用的智能化较优,社交应用中的群组所提供互动功能的利用率达到最大化。
-
公开(公告)号:CN108875993B
公开(公告)日:2022-05-10
申请号:CN201710345002.8
申请日:2017-05-16
申请人: 清华大学 , 腾讯科技(深圳)有限公司
摘要: 本发明是关于一种邀请行为预测方法及装置,属于互联网技术领域。所述方法包括:获取第一用户的群组行为特征信息;获取第二用户的群组关系特征信息;将群组的群组架构特征信息、第一用户的群组行为特征信息以及第二用户的群组关系特征信息输入邀请预测模型中,得到目标成员用户和目标成员用户的候选邀请用户;向目标成员用户发送邀请预测信息,邀请预测信息用于提示目标成员用户将目标成员用户的候选邀请用户加入群组。本发明通过基于能够代表群组内成员用户关系以及成员用户的邀请行为等的特征所训练的邀请预测模型,来进行邀请行为的预测,使得社交应用的智能化较优,社交应用中的群组所提供互动功能的利用率达到最大化。
-
公开(公告)号:CN104796449B
公开(公告)日:2017-05-24
申请号:CN201410028829.2
申请日:2014-01-22
申请人: 腾讯科技(深圳)有限公司 , 清华大学
IPC分类号: H04L29/08 , H04L12/803 , G06F17/30
摘要: 本发明公开了一种基于CDN的内容分发方法、装置及设备,属于网络服务领域。所述方法包括:获取指定内容的相关信息;根据所述指定内容的相关信息计算所述指定内容的分发参数;根据所述指定内容的分发参数对所述指定内容进行分发。本发明通过获取指定内容的重要性信息、用户偏好信息以及流行性信息中的至少一种并计算该指定内容的分发参数,根据计算出的分发参数对该指定内容进行分发,解决了现有技术只按照负载均衡的原则将网络内容分布式存储在若干个边缘服务器中而导致的系统性能不高的问题,综合考虑多种因素对内容分发的影响,从而达到节约服务器的处理资源和带宽利用率,提高系统性能的效果。
-
公开(公告)号:CN107346313B
公开(公告)日:2020-11-27
申请号:CN201610294838.5
申请日:2016-05-05
申请人: 清华大学 , 腾讯科技(深圳)有限公司
IPC分类号: G06F16/29 , G06F16/215
摘要: 本发明涉及一种虚拟面挖掘的方法和装置。所述方法包括:获取兴趣点数据、签到点数据和路网数据,对所述兴趣点数据和签到点数据进行整合得到点集合;根据所述点集合获取各兴趣点的签到点集合,对所述签到点集合中签到点进行过滤得到正确的签到点点集;获取所述正确的签到点点集的最小外接多边形;根据所述路网数据对所述正确的签到点点集的最小外接多边形进行边界优化。上述虚拟面挖掘的方法和装置,获取该签到点点集的最小外接多边形,采用路网对最小外接多边形进行边界优化,该最小外接多边形即为兴趣点的虚拟面,实现了对虚拟面的挖掘。
-
公开(公告)号:CN108880846B
公开(公告)日:2020-10-09
申请号:CN201710343881.0
申请日:2017-05-16
申请人: 清华大学 , 腾讯科技(深圳)有限公司
IPC分类号: H04L12/24
摘要: 本发明公开了一种为网络中节点确定向量表示形式的方法及装置,属于网络技术领域。该方法包括:根据网络中的节点和节点信息,生成网络结构;获取每个节点的初始背景向量和初始目标向量;以每个节点为起点进行随机游走,得到节点序列,并确定每个节点的节点频数;对每个节点的背景向量和目标向量进行迭代计算,得到每个节点的向量表示形式。本发明通过生成包括原始节点和群组节点的网络结构,并通过对每个节点的背景向量和目标向量进行迭代计算,得到包括原始节点和群组节点在内的每个节点的向量表示形式。由于基于原始节点和群组节点的向量表示形式,不仅可度量原始节点间的相似度,而且度量原始节点和群组节点的相似度,因而应用范围较广。
-
公开(公告)号:CN107093172A
公开(公告)日:2017-08-25
申请号:CN201610091568.8
申请日:2016-02-18
申请人: 清华大学 , 腾讯科技(深圳)有限公司
摘要: 本发明公开了一种文字检测方法及系统;方法包括:将目标图像的三色通道中的每个图像进行减色处理,得到减色图像,以及,将目标图像转换为二值图像;将减色图像中具有相同色彩的连通块进行合并,以及将二值图像中具有相同色彩的连通块合并;对减色图像三色通道的每种色彩通道的连通块、以及二值图像中的连通块,分别在竖直和水平方向上以连接的方式进行合并,得到目标图像中候选的文字区域;在目标图像上对应候选的文字区域的位置提取特定区域,基于所提取的特定区域中包含文字区域的概率与预设概率阈值的比较结果判断提取的特定区域中是否包含文字行或文字列。实施本发明,能够对图像中的文本进行准确检测。
-
公开(公告)号:CN104778173B
公开(公告)日:2020-01-10
申请号:CN201410012716.3
申请日:2014-01-10
申请人: 腾讯科技(深圳)有限公司 , 清华大学
IPC分类号: G06Q30/02
摘要: 本发明公开了一种目标用户确定方法、装置及设备,属于网络应用领域。所述方法包括:获取各个用户的特征信息;根据各个用户的特征信息生成各个用户的完整特征向量;根据各个用户的完整特征向量、训练模型和与指定功能业务相对应的目标函数获得各个用户的预测得分;根据各个用户的预测得分确定指定功能业务的目标用户。本发明通过获取各个用户的特征信息,并据以生成各个用户的完整特征向量,根据各个用户的完整特征向量、训练模型和与指定功能业务相对应的目标函数获得各个用户的预测得分,继而确定目标用户,解决了现有技术中仅仅根据各个用户的历史操作记录确定指定功能业务的目标用户的问题,达到提高确定目标用户准确率的目的。
-
-
-
-
-
-
-
-
-