图像生成模型的训练方法和装置、图像生成方法及装置

    公开(公告)号:CN115631103B

    公开(公告)日:2023-09-05

    申请号:CN202211268479.8

    申请日:2022-10-17

    摘要: 本公开公开了一种图像生成模型的训练方法和装置,以及图像生成方法及装置,涉及人工智能技术领域,进一步涉及图像处理技术领域。具体实现方案为:获取图像生成时间步,并对图像生成时间步进行划分,得到N个时间步组,获取每个时间步组的噪声样本图像,并基于噪声样本图像对时间步组的图像去噪网络进行训练,得到时间步组的目标图像去噪网络,基于每个时间步组的目标图像去噪网络,得到目标图像生成模型。本公开实施例中,通过对每个时间步组分别进行图像去噪模型的训练,不仅可以考虑较近时间步的相近性,同时兼顾了较远时间步的差异性,能够在不增加模型训练的计算量的前提下,并减少不同网络任务之间的干扰,从而可以实现大幅提升模型精度。

    基于预训练的语义模型的模型改进方法及装置

    公开(公告)号:CN111709252B

    公开(公告)日:2023-03-28

    申请号:CN202010555885.7

    申请日:2020-06-17

    发明人: 陈徐屹 黄世维

    IPC分类号: G06F40/30 G06F16/31 G06N20/00

    摘要: 本申请公开了基于预训练的语义模型的模型改进方法及装置,涉及自然语言处理、深度学习技术领域。具体实现方案为:基于预训练的语义模型,得到初始改进模型,其中,在初始改进模型中,基于哈希查找法确定输入向量的语义结果信息;基于模型蒸馏法,训练初始改进模型,得到改进模型。本方案通过基于对输入向量进行哈希查找以得到输入向量的语义结果信息,替代了原有的语义模型的繁杂的迭代计算过程,得到了模型参数少、压缩比例高的改进模型,并提高了改进模型的处理速度。

    搜索结果排序模型生成方法和装置

    公开(公告)号:CN108121814B

    公开(公告)日:2022-04-22

    申请号:CN201711460165.7

    申请日:2017-12-28

    IPC分类号: G06F16/9535 G06N3/08

    摘要: 本申请实施例公开了搜索结果排序模型生成方法和装置。该方法的一具体实施方式包括:利用稳定性预测模型得到用于生成搜索结果排序模型的神经网络的训练样本的稳定性预测结果,以及基于稳定性预测结果和训练样本的原始标注信息,得到训练样本的标注信息;利用该训练样本和训练样本的标注信息对用于生成搜索结果排序模型的神经网络进行训练,得到搜索结果排序模型。搜索结果排序模型基于利用训练样本和包含稳定性预测结果的标注信息对用于生成搜索结果排序模型的神经网络进行训练而得到,使得搜索结果排序模型在对搜索结果进行排序时,不仅考虑搜索结果的点击情况,还会考虑搜索结果的稳定性,排序结果更加精确。

    深度神经网络计算加速的方法和装置

    公开(公告)号:CN108846478B

    公开(公告)日:2021-01-29

    申请号:CN201810694240.4

    申请日:2018-06-29

    IPC分类号: G06N3/063 G06F9/28

    摘要: 本发明实施例提出一种深度神经网络计算加速的方法、装置、终端和计算机可读存储介质,方法包括:对需要输入到矩阵模型中的各输入向量进行采样,获得多个采样向量;根据预设的量化参数对各采样向量进行乘积量化,获得多个量化点;根据量化参数将矩阵模型切分为多个矩阵块;各量化点与各矩阵块计算得到多个预计算表;通过各预计算表对各输入向量进行计算,得到矩阵模型的计算结果。本发明实施例中同一个矩阵模型的预计算表只需要建立一次,所有需要通过该矩阵模型进行计算的输入向量均可使用该预计算表进行查表计算,有效节省了输入向量与矩阵模型的计算过程,同时还能够保持矩阵模型原有的计算效果。

    数据处理方法和装置
    5.
    发明公开

    公开(公告)号:CN111104482A

    公开(公告)日:2020-05-05

    申请号:CN201911307167.1

    申请日:2019-12-18

    IPC分类号: G06F16/33 G06K9/62

    摘要: 本申请实施例公开了数据处理方法和装置。该方法的一具体实施方式包括:获取样本集;将该样本集中的多个目标样本分别输入预先训练的第一自然语言处理模型,得到从该预先训练的第一自然语言处理模型输出的预测结果;将得到的预测结果分别确定为该多个目标样本中各个目标样本的标注;基于该多个目标样本和该各个目标样本的标注,对待训练的第二自然语言处理模型进行训练,得到训练后的第二自然语言处理模型,第一自然语言处理模型中的参数,多于第二自然语言处理模型中的参数。本申请实施例能够利用第一自然语言处理模型的预测结果作为样本的标注,可以获得大量存在标注的样本对小模型进行训练,从而训练出精确度较高、且运行速度快的小模型。

    用于文本处理神经网络的训练方法、装置和介质

    公开(公告)号:CN116306862B

    公开(公告)日:2024-09-06

    申请号:CN202310015785.9

    申请日:2023-01-04

    摘要: 本公开提供了一种用于文本处理神经网络的训练方法、装置和介质,涉及人工智能领域,具体涉及自然语言处理、深度学习技术。该方法包括:获取神经网络的样本输入,样本输入包括多个分词;获取神经网络中的门控矩阵,门控矩阵用于计算多个分词中的每一个分词与神经网络中的多个专家网络中的每一个专家网络的相关性,多个专家网络用于对多个分词进行强化;基于门控矩阵和门控矩阵的转置矩阵的乘积,确定中间矩阵;基于中间矩阵和单位矩阵,确定第一损失值;以及基于第一损失值,调整门控矩阵的参数,以得到训练后的神经网络。

    深度学习模型的训练方法、自然语言处理方法和装置

    公开(公告)号:CN114202076B

    公开(公告)日:2023-05-23

    申请号:CN202111514073.9

    申请日:2021-12-10

    IPC分类号: G06N20/00 G06V10/774

    摘要: 本公开提供了一种深度学习模型的训练方法,涉及人工智能领域,尤其涉及深度学习技术和自然语言处理技术。具体实现方案为:将第一样本数据输入第一深度学习模型,得到第一输出结果;根据第一输出结果和第一目标输出结果,训练第一深度学习模型,得到经训练的第一深度学习模型,其中,第一目标输出结果是通过利用参考深度学习模型处理第一样本数据得到的;将第二样本数据输入第二深度学习模型,得到第二输出结果;以及根据第二输出结果和第二目标输出结果,训练第二深度学习模型,得到经训练的第二深度学习模型。本公开还提供了一种自然语言处理方法、装置、电子设备和存储介质。

    负样本挖掘方法、装置、电子设备及存储介质

    公开(公告)号:CN112560928A

    公开(公告)日:2021-03-26

    申请号:CN202011445714.5

    申请日:2020-12-08

    IPC分类号: G06K9/62 G06N20/00

    摘要: 本申请公开了负样本挖掘方法、装置、电子设备及存储介质,涉及深度学习及自然语言处理等人工智能领域,其中的方法可包括:在利用至少两个图形处理器进行多机模型训练时,任一图形处理器分别进行以下处理:在任一训练批次内,分别将训练批次内的各查询作为待处理查询;针对各待处理查询,分别将训练批次内除待处理查询外的其它各查询以及除自身外的其它各图形处理器对应的训练批次内的各查询作为关联查询,将各关联查询对应的样本作为待处理查询对应的弱负样本,对应的样本包括正样本和/或强负样本。应用本申请所述方案,可提升模型训练效果及数据利用率等。

    评论推荐方法和装置
    10.
    发明公开

    公开(公告)号:CN109710841A

    公开(公告)日:2019-05-03

    申请号:CN201811541291.X

    申请日:2018-12-17

    摘要: 本发明提出一种评论推荐方法和装置,其中,方法包括:确定当前待评论文章的文章特征信息;将文章特征信息输入预设的第一匹配模型,其中,第一匹配模型包括文章特征信息与预设精句的对应关系;获取第一匹配模型输出的与文章特征信息对应的多个第一候选精句;根据预设的筛选模型,从多个第一候选精句中筛选出多个第一目标精句,并将多个第一目标精句作为评论推荐给用户。由此,实现了针对文章的评论推荐服务,且推荐的评论质量较高,较容易被用户采纳,有利于增加用户和产品的粘性。