模型训练方法、推荐方法、装置、设备及计算机存储介质

    公开(公告)号:CN117828168A

    公开(公告)日:2024-04-05

    申请号:CN202211184138.2

    申请日:2022-09-27

    发明人: 刘冲 张立鑫

    摘要: 本申请提供了一种模型训练方法、排序方法、装置、设备及计算机存储介质;该模型训练方法包括:获取排序模型和训练数据,利用训练数据对排序模型进行训练,得到排序模型本次训练得到的当前第一模型参数;利用所述当前第一模型参数和之前训练得到的历史第一模型参数,确定本次训练的第二模型参数;获取利用当前第一模型参数对应的排序模型对训练样本进行预测处理,得到的第一预测结果,并获取利用第二模型参数对应的排序模型对训练样本进行预测处理,得到的第二预测结果;利用一致性损失函数、第一预测结果和第二预测结果,对当前第一模型参数进行调整,直至得到训练好的排序模型。通过本申请,使得训练好的排序模型能够保留历史学习到的知识信息。

    信息处理模型的训练方法、信息处理方法及相关设备

    公开(公告)号:CN115774817A

    公开(公告)日:2023-03-10

    申请号:CN202111043012.9

    申请日:2021-09-07

    摘要: 本申请涉及人工智能领域,具体公开了一种信息处理模型的训练方法、信息处理方法及相关设备,该训练方法包括:获取第一用户的交互信息序列和第二用户的交互信息序列;根据第一用户的第一用户特征生成第一用户的局部特征和第一用户的全局特征;以及根据第二用户的第一用户特征生成第二用户的局部特征;根据第一用户的局部特征和第一用户的全局特征计算第一得分;以及根据第一用户的全局特征和第二用户的局部特征计算第二得分;根据第一得分和第二得分对第一神经网络模型、用户特征模型和判别模型进行训练;根据训练后的第一神经网络模型和训练后的用户特征模型确定信息处理模型。本方案可以有效保证在目标域中所确定目标信息与用户之间的匹配性。

    一种应用于卷积神经网络的池化处理的方法及系统

    公开(公告)号:CN109754359B

    公开(公告)日:2021-12-07

    申请号:CN201711059065.3

    申请日:2017-11-01

    IPC分类号: G06T1/20 G06N3/02

    摘要: 本申请公开了一种池化处理的方法,应用于卷积神经网络的池化处理系统,池化处理系统包括第一存储设备、数据区域、池化核和池化控制器,该方法包括:池化控制器每个读取周期从第一存储设备中读取k个特征数据,向数据区域写入所读取的k个特征数据,k个特征数据按照第一方向排布,在一个更新周期中,数据区域被写入n队按照第一方向排布的nk个数据,更新周期的时长为读取周期的时长的n倍;在更新周期结束后,数据区域中的数据被传递到池化核做池化运算,数据区域中的数据包括nk个数据和排布在nk个数据之前的上一个更新周期中在第二方向上排布的最后m队数据。本申请技术方案由于数据复用降低了存储读写的次数,提高了池化处理的效率。

    一种数据处理方法及相关装置

    公开(公告)号:CN114611690B

    公开(公告)日:2024-11-08

    申请号:CN202210223399.4

    申请日:2022-03-09

    发明人: 杨帅 刘冲 张立鑫

    摘要: 本申请涉及计算机技术领域,提供一种数据处理方法及相关装置,用以提高模型训练速度,该方法包括:基于样本数据集合,采用迭代方式,对初始点击率预估模型进行剪枝‑重生处理,获得目标点击率预估模型,其中,在一次迭代过程中,对当前的点击率预估模型进行剪枝处理后,对剪枝处理后得到的点击率预估模型进行训练,以及对当前的点击率预估模型进行重生处理,对重生处理后得到的点击率预估模型进行训练。这样,可以得到轻量级的目标点击率预估模型,减少模型占用的内存,提高模型训练速度。

    卷积计算加速器、卷积计算方法及卷积计算设备

    公开(公告)号:CN110210610B

    公开(公告)日:2023-06-20

    申请号:CN201810259875.1

    申请日:2018-03-27

    摘要: 本申请是关于一种卷积计算加速器、卷积计算方法及卷积计算设备,涉及电子电路技术领域。该卷积计算加速器包括:控制器、计算矩阵以及第一缓存,计算矩阵中包含至少一行计算单元,每行计算单元中包含至少两个计算单元;控制器,用于控制将载入至第一缓存的输入数据输入至对应行的计算单元中,由对应行的计算单元将输入数据在对应行的计算单元中进行传输;对应行的计算单元中的每一个计算单元将接收到的输入数据与预先存储的卷积核进行卷积计算,处于同一行的至少两个计算单元复用同一份输入数据,且只需要一个输入通道,从而降低了计算矩阵的缓存容量和输入带宽需求,提高了计算矩阵的可扩展性。

    一种数据处理方法及相关装置

    公开(公告)号:CN114611690A

    公开(公告)日:2022-06-10

    申请号:CN202210223399.4

    申请日:2022-03-09

    发明人: 杨帅 刘冲 张立鑫

    IPC分类号: G06N3/08 G06N3/04 G06F16/435

    摘要: 本申请涉及计算机技术领域,提供一种数据处理方法及相关装置,用以提高模型训练速度,该方法包括:基于样本数据集合,采用迭代方式,对初始点击率预估模型进行剪枝‑重生处理,获得目标点击率预估模型,其中,在一次迭代过程中,对当前的点击率预估模型进行剪枝处理后,对剪枝处理后得到的点击率预估模型进行训练,以及对当前的点击率预估模型进行重生处理,对重生处理后得到的点击率预估模型进行训练。这样,可以得到轻量级的目标点击率预估模型,减少模型占用的内存,提高模型训练速度。

    一种计算资源调整方法、装置以及相关设备

    公开(公告)号:CN110083448A

    公开(公告)日:2019-08-02

    申请号:CN201810072678.9

    申请日:2018-01-25

    IPC分类号: G06F9/50 G06N3/04

    摘要: 本发明实施例公开了一种计算资源调整方法、装置以及相关设备,所述方法包括:获取目标池化层的期望池化耗时和目标池化层的待处理数据量,并获取用于进行池化处理的计算资源单位对应的当前时钟频率;根据所述目标池化层的期望池化耗时和所述目标池化层的待处理数据量,确定目标时钟频率;当所述目标池化层相关联的卷积层完成卷积处理,且所述当前时钟频率和所述目标时钟频率不同时,将所述当前时钟频率切换为所述目标时钟频率,并基于具有所述目标时钟频率的所述计算资源单位,在所述目标池化层进行池化处理。采用本发明,可以节约计算资源,提高计算资源的使用率。

    卷积计算加速器、卷积计算方法及卷积计算设备

    公开(公告)号:CN110210610A

    公开(公告)日:2019-09-06

    申请号:CN201810259875.1

    申请日:2018-03-27

    IPC分类号: G06N3/063 G06T1/40

    摘要: 本申请是关于一种卷积计算加速器、卷积计算方法及卷积计算设备,涉及电子电路技术领域。该卷积计算加速器包括:控制器、计算矩阵以及第一缓存,计算矩阵中包含至少一行计算单元,每行计算单元中包含至少两个计算单元;控制器,用于控制将载入至第一缓存的输入数据输入至对应行的计算单元中,由对应行的计算单元将输入数据在对应行的计算单元中进行传输;对应行的计算单元中的每一个计算单元将接收到的输入数据与预先存储的卷积核进行卷积计算,处于同一行的至少两个计算单元复用同一份输入数据,且只需要一个输入通道,从而降低了计算矩阵的缓存容量和输入带宽需求,提高了计算矩阵的可扩展性。

    基于芯片的指令集处理方法、装置及存储介质

    公开(公告)号:CN110045960A

    公开(公告)日:2019-07-23

    申请号:CN201810041814.8

    申请日:2018-01-16

    IPC分类号: G06F8/41 G06F9/38 G06N3/08

    摘要: 本发明实施例公开了一种基于芯片的指令集处理方法、装置及计算机可读存储介质,属于数据处理技术领域。方法包括:基于芯片的架构对待加速的深度学习模型进行编译,得到与芯片匹配的待处理的深度学习指令集;对待处理的深度学习指令集进行压缩处理,得到压缩后的指令集;将所述压缩后的指令集通过写寄存器的方式存储至所述芯片的指令集缓冲区中,以用于执行对应的任务。通过对待处理的深度学习指令集进行压缩处理,可以降低对存储空间的需求;将压缩后的指令集通过写寄存器的方式存储至芯片的指令集缓冲区中,实现指令寄存器化,降低指令交互的开销。

    基于芯片的指令集处理方法、装置及存储介质

    公开(公告)号:CN110045960B

    公开(公告)日:2022-02-18

    申请号:CN201810041814.8

    申请日:2018-01-16

    IPC分类号: G06F8/41 G06F9/38 G06N3/08

    摘要: 本发明实施例公开了一种基于芯片的指令集处理方法、装置及计算机可读存储介质,属于数据处理技术领域。方法包括:基于芯片的架构对待加速的深度学习模型进行编译,得到与芯片匹配的待处理的深度学习指令集;对待处理的深度学习指令集进行压缩处理,得到压缩后的指令集;将所述压缩后的指令集通过写寄存器的方式存储至所述芯片的指令集缓冲区中,以用于执行对应的任务。通过对待处理的深度学习指令集进行压缩处理,可以降低对存储空间的需求;将压缩后的指令集通过写寄存器的方式存储至芯片的指令集缓冲区中,实现指令寄存器化,降低指令交互的开销。