交互数据处理方法、装置、计算机可读存储介质和计算机设备

    公开(公告)号:CN110163377B

    公开(公告)日:2021-03-16

    申请号:CN201910055386.9

    申请日:2019-01-21

    IPC分类号: G06N20/00 G06K9/62

    摘要: 本申请涉及一种交互数据处理方法、装置、计算机可读存储介质和计算机设备,包括:获取互为对抗关系当前第一交互模型和当前第二交互模型输出的第一交互动作数据和第二交互动作数据;在虚拟交互场景中,第一虚拟执行主体根据第一交互动作数据执行对应的第一交互动作和第二虚拟执行主体根据第二交互动作数据执行对应的第二交互动作;根据第一交互动作和第二交互动作的执行分别得到第一交互结果数据和第二交互结果数据;当第一交互结果数据满足第一预设收敛条件时,根据预设模型评估规则评估当前第一交互模型的模型交互性能,得到模型性能评估结果;根据模型性能评估结果得到更新后的第二交互模型。本申请提供的方案提高交互模型的数据处理能力。

    数据传输方法、装置、处理设备及介质

    公开(公告)号:CN111953614A

    公开(公告)日:2020-11-17

    申请号:CN202010793135.3

    申请日:2020-08-07

    IPC分类号: H04L12/801 H04L12/911

    摘要: 本发明实施例基于云技术公开了一种数据传输方法、装置、处理设备及介质,其中方法包括:获取目标对象的计算图中的多个目标节点的支配点信息;根据各目标节点的支配点信息,将至少两个目标节点聚合为目标聚合节点;采用所述目标聚合节点更新所述计算图,并将更新后的计算图发送至计算设备,所述更新后的计算图用于指示:所述计算设备按照所述目标聚合节点的指示,在所述目标对象的计算过程中对所述被聚合的目标节点所表示的数据处理操作的执行结果数据进行聚合,并传输聚合结果。本发明实施例可通过更新后的计算图指示计算设备对目标节点的执行结果数据进行聚合传输,从而减少数据传输的次数,以节省网络资源并缩短传输总时长。

    一种数据传输方法、装置、处理设备及介质

    公开(公告)号:CN111935026A

    公开(公告)日:2020-11-13

    申请号:CN202010793588.6

    申请日:2020-08-07

    摘要: 本申请实施例公开了一种数据传输方法、装置、处理设备及介质,涉及云计算,其中方法包括:获取目标对象的计算图中的至少两个目标节点的调度时长和通信量,按照调度时长将通信量满足通信量条件的目标节点聚合为聚合节点,采用聚合节点更新计算图,并将更新后的计算图发送至计算设备,更新后的计算图用于指示计算设备按照聚合节点的指示,在目标对象的计算过程中对被聚合的目标节点所表示的数据处理操作的执行结果数据进行聚合,并传输聚合后的数据。本申请实施例可通过各个目标节点的调度时长更新计算图,并基于更新后的计算图指示计算设备对目标节点的执行结果数据进行聚合传输,从而减少数据传输的次数,以节省网络资源并缩短传输总时长。

    一种数据传输方法、装置、处理设备及介质

    公开(公告)号:CN111935006A

    公开(公告)日:2020-11-13

    申请号:CN202010799569.4

    申请日:2020-08-07

    IPC分类号: H04L12/709 H04L12/751

    摘要: 本申请实施例公开了一种数据传输方法、装置、处理设备及介质,涉及云计算,其中方法包括:获取目标对象的计算图中多个目标节点之间的可达性关系和各目标节点的调度时长,根据调度时长和多个目标节点之间的可达性关系,将至少两个目标节点聚合为目标聚合节点,采用目标聚合节点更新计算图,并将更新后的计算图发送至计算设备,更新后的计算图用于指示计算设备按照目标聚合节点的指示,在目标对象的计算过程中对被聚合的目标节点所表示的数据处理操作的执行结果数据进行聚合,并传输聚合后的数据。本申请实施可基于更新后的计算图指示计算设备对目标节点的执行结果数据进行聚合传输,从而减少数据传输的次数,以节省网络资源并缩短传输总时长。

    机器学习模型的编译优化方法和装置

    公开(公告)号:CN111580828A

    公开(公告)日:2020-08-25

    申请号:CN202010366380.6

    申请日:2020-04-30

    IPC分类号: G06F8/41 G06N20/00

    摘要: 本发明公开了一种机器学习模型的编译优化方法和装置。其中,该方法包括:运行第一机器学习模型分别对N个数据集进行处理,得到N组模型运行信息;根据所述N组模型运行信息,在所述第一组操作中确定出N个操作集合;根据所述N个操作集合,在所述第一组操作中确定允许被分别编译的多个操作子集合;使用所述目标编译器分别对与每个所述编译区域对应的所述操作子集合进行编译。本发明解决了由于在机器学习在编译时没有引入运行时的采样信息,导致的编译周期长、浪费资源的技术问题。

    机器学习模型的编译优化方法和装置

    公开(公告)号:CN111580827A

    公开(公告)日:2020-08-25

    申请号:CN202010366307.9

    申请日:2020-04-30

    IPC分类号: G06F8/41 G06N20/00

    摘要: 本发明公开了一种机器学习模型的编译优化方法和装置。其中,该方法包括:多次运行第一机器学习模型对一组预热数据进行处理,采集处理过程的模型运行信息;根据所述模型运行信息,确定所述第一组操作中的张量形状未发生变化的操作作为目标操作;在所述目标操作包括所述第一组操作中的多个操作的情况下,通过所述目标编译器对所述第一机器学习模型中的所述目标操作进行合并,得到第二机器学习模型。本发明解决了由于在机器学习在编译时没有引入运行时的采样信息,导致的编译周期长、浪费资源的技术问题。

    机器学习模型的编译优化方法和装置

    公开(公告)号:CN111580826A

    公开(公告)日:2020-08-25

    申请号:CN202010366299.8

    申请日:2020-04-30

    IPC分类号: G06F8/41 G06N20/00

    摘要: 本发明公开了一种机器学习模型的编译优化方法和装置。其中,该方法包括:多次运行第一机器学习模型对一组预热数据进行处理,获取在多次运行第一机器学习模型的过程中第一组操作中的每个操作的输入张量和输出张量的形状,比较在多次运行第一机器学习模型的过程中第一组操作中的每个操作的输入张量和输出张量的形状是否发生变化;确定在多次运行第一机器学习模型的过程中输入张量和输出张量的形状均未发生变化的操作为稳定操作;在第一组操作中包括多个稳定操作的情况下,将所述多个所述稳定操作划分为一个或多个编译区域;通过所述目标编译器对所述第一机器学习模型中的目标编译区域上的所述稳定操作进行合并,得到第二机器学习模型。

    超参数调优、模型构建方法和装置

    公开(公告)号:CN110889450A

    公开(公告)日:2020-03-17

    申请号:CN201911179159.3

    申请日:2019-11-27

    IPC分类号: G06K9/62 G06N3/04

    摘要: 本申请涉及一种超参数调优、模型构建方法和装置,所述方法包括:获取对初始神经网络模型进行训练后得到的第一神经网络模型;对所述第一神经网络模型进行训练,得到第二神经网络模型;根据所述第二模型能力评估值与所述第一模型能力评估值之间的差异,得到所述第二神经网络模型相对于所述第一神经网络模型的模型成长度;根据所述模型成长度,在所述第二神经网络模型中筛选出成长潜力模型;根据所述成长潜力模型中的超参数,得到优选超参数。本申请可以避免将具有成长潜力的超参数淘汰。

    一种在网络系统中传输数据的方法及装置

    公开(公告)号:CN104767679B

    公开(公告)日:2018-12-18

    申请号:CN201410008150.7

    申请日:2014-01-08

    IPC分类号: H04L12/701 H04L12/743

    摘要: 本发明涉及一种在网络系统中传输数据的方法及装置。在一个实施例中,上述方法包括:在第一加速节点通过第一网络连接接收所述客户端发送的第一数据包;获取一个用于唯一标识用户的第一会话标识符;判断所述第一数据包在所述第一加速节点中的传输类型;根据所述第一会话标识符从所述第一加速节点与所述第一数据包的目标节点之间的连接池内获取第二网络连接;通过所述第二网络连接将所述第一数据包发送至所述第一数据包的目标节点;以及分别存储所述第一会话标识符与所述第一数据包的传输类型、所述第一网络连接的标识符、以及所述第二网络连接的标识符之间的对应关系。根据上述的方法及装置,可提升数据传输效率以及增加单机的接入连接能力。

    一种模型训练方法、装置、设备、系统及存储介质

    公开(公告)号:CN110766090B

    公开(公告)日:2024-08-09

    申请号:CN201911048084.5

    申请日:2019-10-30

    IPC分类号: G06N20/00

    摘要: 本申请提供的一种模型训练方法,在该方法中将模型训练阶段先划分成多个连续的训练阶段,在每个训练阶段中既着重于模型网络参数的迭代更新同时又着重于针对特定超参数的优化搜索,如此就能够使得每个训练阶段训练结束后的模型能够具备特定超参数的最优能力,每个训练阶段训练结束后会自动将当前训练阶段训练所得的最优模型作为下一训练阶段的初始模型,采用这种阶层递进地方式进行训练,使得最后一个训练阶段训练所得最优模型就整合了所有特定超参数的最优能力,而且超参数的优化过程是在模型正常训练流程中进行,并不需额外花费过多时间,如此就能够很好地评估训练时间和训练效果,能够在指定时间内训练得到综合性能最优的模型。