-
公开(公告)号:CN109696954B
公开(公告)日:2021-05-07
申请号:CN201710987005.1
申请日:2017-10-20
申请人: 中国科学院计算技术研究所 , 腾讯科技(深圳)有限公司
摘要: 本发明涉及一种视线追踪方法、装置、设备和存储介质,包括:获取眼睛图像;确定所述眼睛图像中瞳孔成像点在屏幕的立体坐标系中的坐标、以及光源经角膜反射在所述眼睛图像中形成的光源成像点在所述立体坐标系中的坐标;根据所述瞳孔成像点的坐标和光源成像点的坐标确定光轴方向;按照与所述眼睛图像匹配的光视轴方向角度差以及所述光轴方向,确定视轴方向;根据所述视轴方向,确定在所述屏幕上的凝视点位置。本申请的方案提高了所确定的凝视点位置的准确性。
-
公开(公告)号:CN110188182A
公开(公告)日:2019-08-30
申请号:CN201910470526.9
申请日:2019-05-31
申请人: 中国科学院深圳先进技术研究院 , 腾讯科技(深圳)有限公司
IPC分类号: G06F16/332 , G06F17/27 , G06N3/04 , G06N3/08
摘要: 本申请公开一种对话生成模型训练方法,包括:获取对话数据集,所述对话数据集中的对话数据包括问句和所述问句对应的标注回复;基于所述对话数据集中的所述问句,通过构建的对话生成模型中的编码器获得所述问句的编码表示,通过所述对话生成模型中的解码器融合所述问句的编码表示和针对所述问句从知识库问答模型中迁移学习的知识信息,获得所述对话生成模型输出的所述问句对应的预测回复;基于所述问句对应的预测回复和标注回复确定损失函数,通过损失函数调整所述对话生成模型的参数直到所述对话生成模型的损失函数处于收敛。该方法使得模型能够更好融合知识信息,从而提高对话生成准确性和合理性。本申请还公开对话生成方法、装置、设备及介质。
-
公开(公告)号:CN110163052A
公开(公告)日:2019-08-23
申请号:CN201810861147.8
申请日:2018-08-01
申请人: 腾讯科技(深圳)有限公司 , 北京大学
摘要: 本发明揭示了一种视频动作识别方法、装置和机器设备。所述方法包括:获取进行动作识别的视频数据;对视频数据在神经网络中进行网络各层的特征抽取中,经由神经网络的网络结构使得视频图像上抽取的空域特征进入双线性层;相邻帧视频图像之间根据空域特征进行双线性层上的双线性相关性运算,获得视频数据中每帧视频图像的时空域特征;通过时空域特征进行视频中动作的分类,获得视频数据的动作识别结果。对于神经网络中网络各层的特征抽取,在双线性层上双线性相关性运算中参数和计算复杂度得到控制,进而在控制复杂度的情况下抽取了时空域特征由此,实现了时域关系上的显式建模,有效提升动作识别的性能。
-
公开(公告)号:CN109726726A
公开(公告)日:2019-05-07
申请号:CN201711023244.1
申请日:2017-10-27
申请人: 北京邮电大学 , 腾讯科技(深圳)有限公司
摘要: 本发明公开了一种视频中的事件检测方法及装置,属于计算机技术领域。所述方法包括:对待检测的视频进行特征提取,得到单帧特征向量集合,所述单帧特征向量集合包括至少两个单帧特征向量,所述单帧特征向量中的每个分量表示所述视频中的关键帧属于概念集合中对应的概念的概率,所述概念集合包括所述视频中的事件;对所述单帧特征向量集合进行均值池化和最大值池化,得到视频特征向量;将所述视频特征向量输入预先训练得到的事件分类器中;将所述事件分类器输出的事件作为所述视频中的事件。本发明解决了只对特征向量进行均值池化,或者,只对特征向量进行最大值池化,导致检测结果不准确的问题,提高了事件检测的准确性。
-
公开(公告)号:CN109711422A
公开(公告)日:2019-05-03
申请号:CN201711015902.2
申请日:2017-10-26
申请人: 北京邮电大学 , 腾讯科技(深圳)有限公司
摘要: 本发明涉及一种图像数据处理方法、装置、计算机设备和存储介质,所述方法包括:获取待处理图像,将所述待处理图像输入已训练的图像哈希码提取模型,所述图像哈希码提取模型包括卷积神经网络,所述卷积神经网络包括嵌入卷积层之后的哈希映射层;所述图像哈希码提取模型的参数由图像分类模型训练得到,所述图像分类模型包括所述卷积神经网络,并在所述哈希映射层之后连接分类输出层;获取所述图像哈希码提取模型输出的所述待处理图像对应的哈希码,可以直接从图像中学习出更加鲁棒、紧凑,区分力更强的图像哈希码,还提出一种图像哈希码提取模型的建立方法、装置、计算机设备和存储介质。
-
公开(公告)号:CN110188182B
公开(公告)日:2023-10-27
申请号:CN201910470526.9
申请日:2019-05-31
申请人: 中国科学院深圳先进技术研究院 , 腾讯科技(深圳)有限公司
IPC分类号: G06F16/332 , G06F16/36 , G06F40/126 , G06F40/211 , G06F40/35 , G06N3/042 , G06N3/096
摘要: 本申请公开一种对话生成模型训练方法,包括:获取对话数据集,所述对话数据集中的对话数据包括问句和所述问句对应的标注回复;基于所述对话数据集中的所述问句,通过构建的对话生成模型中的编码器获得所述问句的编码表示,通过所述对话生成模型中的解码器融合所述问句的编码表示和针对所述问句从知识库问答模型中迁移学习的知识信息,获得所述对话生成模型输出的所述问句对应的预测回复;基于所述问句对应的预测回复和标注回复确定损失函数,通过损失函数调整所述对话生成模型的参数直到所述对话生成模型的损失函数处于收敛。该方法使得模型能够更好融合知识信息,从而提高对话生成准确性和合理性。本申请还公开对话生成方法、装置、设备及介质。
-
公开(公告)号:CN109711422B
公开(公告)日:2023-06-30
申请号:CN201711015902.2
申请日:2017-10-26
申请人: 北京邮电大学 , 腾讯科技(深圳)有限公司
IPC分类号: G06V10/774 , G06V10/764 , G06V10/46 , G06V10/82 , G06N3/0464 , G06N3/08
摘要: 本发明涉及一种图像数据处理方法、装置、计算机设备和存储介质,所述方法包括:获取待处理图像,将所述待处理图像输入已训练的图像哈希码提取模型,所述图像哈希码提取模型包括卷积神经网络,所述卷积神经网络包括嵌入卷积层之后的哈希映射层;所述图像哈希码提取模型的参数由图像分类模型训练得到,所述图像分类模型包括所述卷积神经网络,并在所述哈希映射层之后连接分类输出层;获取所述图像哈希码提取模型输出的所述待处理图像对应的哈希码,可以直接从图像中学习出更加鲁棒、紧凑,区分力更强的图像哈希码,还提出一种图像哈希码提取模型的建立方法、装置、计算机设备和存储介质。
-
公开(公告)号:CN110163229A
公开(公告)日:2019-08-23
申请号:CN201810380427.7
申请日:2018-04-25
申请人: 华南理工大学 , 腾讯科技(深圳)有限公司
IPC分类号: G06K9/62
摘要: 本申请涉及一种数据处理方法、装置、计算机设备和存储介质。数据分类方法包括:获取目标分类数据;对目标分类数据进行分类得到第一分类结果;并对与目标分类数据数据结构相异且相关联的异构数据进行分类,得到目标分类数据的第二分类结果;通过预设加权策略对第一分类结果与第二分类结果进行合并得到分类预测结果。由于该分类预测结果是第一分类结果与第二分类结果通过预设加权策略进行合并得到的结果,而对异构数据进行分类,得到的第二分类结果可以对第一分类结果进行补充,从而达到提高分类准确率的效果。
-
公开(公告)号:CN109766840A
公开(公告)日:2019-05-17
申请号:CN201910029579.7
申请日:2019-01-10
申请人: 腾讯科技(深圳)有限公司
IPC分类号: G06K9/00
摘要: 本发明实施例公开了一种人脸表情识别方法、装置、终端及存储介质,其中方法包括:获取目标人脸图像,所述目标人脸图像包括多个面部动作单元,所述多个面部动作单元之间的关系满足表情关联规则;调用深度神经网络从所述目标人脸图像中提取各面部动作单元的第一图像特征;调用图神经网络按照所述表情关联规则对所述各面部动作单元的第一图像特征进行传播处理,得到所述各面部动作单元的第二图像特征;根据所述各面部动作单元的第二图像特征识别所述目标人脸图像对应的目标表情。本发明实施例可以更好地对人脸图像进行表情识别,提高准确性。
-
公开(公告)号:CN109492214A
公开(公告)日:2019-03-19
申请号:CN201710813362.6
申请日:2017-09-11
申请人: 苏州大学 , 腾讯科技(深圳)有限公司
IPC分类号: G06F17/27
摘要: 本发明提供一种属性词识别方法及装置,包括:获取评论语料的名词词表;获取上下位关系矩阵,所述上下位关系矩阵为种子词与种子词的下位词的上下位关系的矩阵;根据所述上下位关系矩阵及所述名词词表中的各词,确定所述名词词表中各词的预测上位词向量,所述预测上位词向量为所述上下位关系矩阵与词的词向量的乘积;根据各词的所述预测上位词向量确定种子词的属性词。该方法及装置,仅需通过少量人力资源确定种子词,而无需通过大量的人力资源,便可以确定与种子词相关的属性词,从而降低了人力资源消耗量。本发明还提供一种与上述属性词识别方法及装置对应的属性词的层次构建方法及装置,以及一种计算机设备及计算机存储介质。
-
-
-
-
-
-
-
-
-