-
公开(公告)号:CN109299315B
公开(公告)日:2023-03-28
申请号:CN201811022608.9
申请日:2018-09-03
申请人: 腾讯科技(深圳)有限公司
IPC分类号: G06F16/635 , G06F16/48 , G06F16/65
摘要: 本发明公开了一种多媒体资源分类方法、装置、计算机设备及存储介质,属于计算机技术领域。所述方法包括:获取多媒体资源,提取多媒体资源的多个特征信息;对多个特征信息进行聚类,得到至少一个聚类集合,确定每个聚类集合的聚类描述信息,每个聚类集合包括至少一个特征信息,每个聚类描述信息用于指示一个聚类集合的特征;基于每个聚类集合的聚类描述信息,确定多媒体资源的至少一个目标特征描述信息,每个目标特征描述信息用于表示一个聚类描述信息与其余聚类描述信息之间的关联;基于多媒体资源的至少一个目标特征描述信息,对多媒体资源进行分类,得到多媒体资源的分类结果。采用本发明,可以提高多媒体资源分类的准确性。
-
公开(公告)号:CN110532996A
公开(公告)日:2019-12-03
申请号:CN201910834142.0
申请日:2017-09-15
申请人: 腾讯科技(深圳)有限公司
IPC分类号: G06K9/00 , G06F16/783 , G06F16/735 , G06F16/75 , G06F16/9535 , G06N3/04 , G06N3/08
摘要: 本申请公开了一种信息处理的方法,该方法应用于人工智能领域,该方法包括:获取待处理视频;根据时间特征采样规则对待处理视频进行采样,并获取至少一个视频帧特征序列;通过第一神经网络模型对至少一个视频帧特征序列进行处理,得到每个视频帧特征序列的特征表达结果;通过第二神经网络模型对至少一个视频帧特征序列的特征表达结果进行处理,得到至少一个视频帧特征序列所对应的预测结果,预测结果用于确定待处理视频的类别。本申请还提供一种服务器。本申请在对视频进行分类的过程中,还考虑到视频在时间维度上的特征变化,从而能够更好地表达视频内容,提高视频分类的准确率,提升视频分类的效果。
-
公开(公告)号:CN109992679A
公开(公告)日:2019-07-09
申请号:CN201910218914.8
申请日:2019-03-21
申请人: 腾讯科技(深圳)有限公司
IPC分类号: G06F16/45
摘要: 本发明实施例公开了一种多媒体数据的分类方法及装置,应用于信息处理技术领域。在本实施例的方法中,多媒体数据的分类装置会按照时间顺序对待处理的多帧多媒体数据进行划分,分为多组多媒体数据,并提取各组多媒体数据分别对应的组合特征信息;最后再根据各组多媒体数据分别对应的组合特征信息,确定多帧多媒体数据的整体特征信息,以对多帧多媒体数据进行分类。这样,多媒体数据的分类装置在对多帧多媒体数据进行特征描述时,考虑到了多帧多媒体数据之间的时间特征,使得最终得到的整体特征信息能更好地反映多帧多媒体数据,从而使得对多帧多媒体数据的分类更准确。
-
公开(公告)号:CN109919087A
公开(公告)日:2019-06-21
申请号:CN201910168236.9
申请日:2019-03-06
申请人: 腾讯科技(深圳)有限公司
摘要: 本申请公开了一种视频分类的方法,包括:获取待分类视频文件所对应的图像帧序列,其中,图像帧序列中包括T帧图像;通过图像分类网络模型获取图像帧序列所对应的外观信息特征序列,外观信息特征序列中包括T个外观信息特征,外观信息特征与图像帧具有对应关系;通过运动预测网络模型获取外观信息特征序列所对应的运动信息特征序列,运动信息特征序列包括T个运动信息特征,运动预测网络模型用于预测外观信息特征所对应的运动信息特征;根据外观信息特征序列以及运动信息特征序列确定待分类视频文件的视频分类结果。本申请还提供一种模型训练的方法以及装置。本申请能够节省计算时间和资源,从而提升了数据处理的效率。
-
公开(公告)号:CN109299315A
公开(公告)日:2019-02-01
申请号:CN201811022608.9
申请日:2018-09-03
申请人: 腾讯科技(深圳)有限公司
IPC分类号: G06F16/635 , G06F16/48 , G06F16/65
摘要: 本发明公开了一种多媒体资源分类方法、装置、计算机设备及存储介质,属于计算机技术领域。所述方法包括:获取多媒体资源,提取多媒体资源的多个特征信息;对多个特征信息进行聚类,得到至少一个聚类集合,确定每个聚类集合的聚类描述信息,每个聚类集合包括至少一个特征信息,每个聚类描述信息用于指示一个聚类集合的特征;基于每个聚类集合的聚类描述信息,确定多媒体资源的至少一个目标特征描述信息,每个目标特征描述信息用于表示一个聚类描述信息与其余聚类描述信息之间的关联;基于多媒体资源的至少一个目标特征描述信息,对多媒体资源进行分类,得到多媒体资源的分类结果。采用本发明,可以提高多媒体资源分类的准确性。
-
公开(公告)号:CN109189950B
公开(公告)日:2023-04-07
申请号:CN201811023323.7
申请日:2018-09-03
申请人: 腾讯科技(深圳)有限公司
摘要: 本发明公开了一种多媒体资源分类方法、装置、计算机设备及存储介质,属于计算机技术领域。所述方法包括:根据资源分类指令,获取待分类的多媒体资源;调用资源分类模型,所述资源分类模型包括多个资源分类模块,每个资源分类模块对应于一种多媒体资源的分类算法;将所述多媒体资源输入所述资源分类模型中,由所述资源分类模型中的每个资源分类模块分别对所述多媒体资源进行分类,得到多个第一分类结果,基于所述多个第一分类结果输出第二分类结果,所述第二分类结果为所述多媒体资源的至少一个类型。本发明通过一个模型中的多个资源分类模块进行分类,并综合结果,有效提高了多媒体资源分类的准确性。
-
公开(公告)号:CN111524207B
公开(公告)日:2023-01-06
申请号:CN202010317848.2
申请日:2020-04-21
申请人: 腾讯科技(深圳)有限公司
摘要: 本发明提供了一种基于人工智能的图像生成方法、装置、电子设备及计算机可读存储介质;方法包括:获取待成像的对象的成像风格和成像条件;将成像风格对应的风格隐码和成像条件进行融合处理,得到包含成像条件的风格向量;对包含成像条件的风格向量、以及对象的模板特征图进行正则化处理,得到正则化后的特征图;对正则化后的特征图以及噪声进行融合处理,得到包含噪声的特征图;对包含噪声的特征图、以及包含成像条件的风格向量进行正则化处理,得到具有成像风格且符合成像条件的对象图像。通过本发明,能够生成符合用户需求的对象图像、提高生成图像的实用性。
-
公开(公告)号:CN109508584B
公开(公告)日:2022-12-02
申请号:CN201710833668.8
申请日:2017-09-15
申请人: 腾讯科技(深圳)有限公司
IPC分类号: G06V10/764 , G06V20/40 , G06F16/75 , G06F16/9535
摘要: 本申请公开了一种信息处理的方法,包括:获取待处理视频;根据时间特征采样规则对待处理视频进行采样,并获取至少一个视频帧特征序列,时间特征采样规则为时间特征与视频帧特征序列之间的对应关系;通过第一神经网络模型对至少一个视频帧特征序列进行处理,得到每个视频帧特征序列的特征表达结果;通过第二神经网络模型对至少一个视频帧特征序列的特征表达结果进行处理,得到至少一个视频帧特征序列所对应的预测结果,预测结果用于确定待处理视频的类别。本申请还提供一种服务器。本申请在对视频进行分类的过程中,还考虑到视频在时间维度上的特征变化,从而能够更好地表达视频内容,提高视频分类的准确率,提升视频分类的效果。
-
公开(公告)号:CN108304790B
公开(公告)日:2022-03-18
申请号:CN201810055213.2
申请日:2018-01-19
申请人: 腾讯科技(深圳)有限公司
IPC分类号: G06V40/20 , G06V10/40 , G06V10/774 , G06K9/62
摘要: 本发明涉及一种骨骼运动预测处理方法、装置和肢体运动预测处理方法,该骨骼运动预测处理方法包括:将历史观测的多个连续的骨骼运动状态向量输入预训练的机器学习模型中,以分别进行特征编码得到相应的骨骼运动特征向量;确定当前时刻的上一时刻的骨骼运动隐含状态向量;所述上一时刻的骨骼运动隐含状态向量,是针对所述上一时刻对所述骨骼运动特征向量进行运动意图提取得到;获取当前时刻的骨骼运动状态向量;根据所述上一时刻的骨骼运动隐含状态向量和当前时刻的骨骼运动状态向量进行解码,以计算下一时刻的骨骼运动状态向量。本申请的方案实现了对目标对象本身的骨骼运动的预测这一细节的运动预测处理。
-
公开(公告)号:CN111524207A
公开(公告)日:2020-08-11
申请号:CN202010317848.2
申请日:2020-04-21
申请人: 腾讯科技(深圳)有限公司
摘要: 本发明提供了一种基于人工智能的图像生成方法、装置、电子设备及计算机可读存储介质;方法包括:获取待成像的对象的成像风格和成像条件;将成像风格对应的风格隐码和成像条件进行融合处理,得到包含成像条件的风格向量;对包含成像条件的风格向量、以及对象的模板特征图进行正则化处理,得到正则化后的特征图;对正则化后的特征图以及噪声进行融合处理,得到包含噪声的特征图;对包含噪声的特征图、以及包含成像条件的风格向量进行正则化处理,得到具有成像风格且符合成像条件的对象图像。通过本发明,能够生成符合用户需求的对象图像、提高生成图像的实用性。
-
-
-
-
-
-
-
-
-