一种用于空间探索的代理模型的在线数据选择方法

    公开(公告)号:CN117909746A

    公开(公告)日:2024-04-19

    申请号:CN202410322521.2

    申请日:2024-03-20

    Abstract: 本说明书公开了一种用于空间探索的代理模型的在线数据选择方法,可以获取训练样本集,首先确定出训练样本集中样本的实际排序结果,在每一轮迭代训练前,通过上一轮得到的代理模型对训练样本集中的各样本进行排序,得到一个排序结果,通过实际排序结果确定出子数据集A和子数据集C,以及通过另一种排序结果,确定出子数据集B。根据子数据集A、B、C,对代理模型进行每一轮训练,训练完成后的代理模型可以对给出的若干待排序数据进行排序,本方法重点考虑排序高的空间点的数据拟合能力,并提供了一种高排序点和全空间点之间权衡的可控调节机制,从而提高了空间探索准确性,且由于提高了对高排序点的预测准确性,提高了探索的空间采样效率。

    一种生成存内计算神经网络模型的方法、装置及介质

    公开(公告)号:CN117077726B

    公开(公告)日:2024-01-09

    申请号:CN202311344094.X

    申请日:2023-10-17

    Abstract: 本申请公开了一种生成存内计算神经网络模型的方法,首先根据待构建的神经网络模型的目标任务,根据历史执行所述目标任务的任务数据作为训练样本,以及将目标任务的执行结果作为标注,之后通过对量化可微超网络的模型结构进行初始化,确定模型各节点之间数据传递顺序的有向无环图,确定架构参数以及权重参数,依该有向无环图的顺序,通过训练样本对权重参数进行调整,然后通过调整后的权重参数配置的模型,调整架构参数,得到存内运行的神经网络模型。通过权值继承,实现了可交替优化的两种参数,分别通过有监督训练和启发式学习进行调整,使得可以更为高效的学习深度神经网络架构。

    一种模型训练和编译器自动调优的方法、装置及设备

    公开(公告)号:CN116860259B

    公开(公告)日:2023-12-19

    申请号:CN202311138278.0

    申请日:2023-09-05

    Abstract: 本说明书公开了一种模型训练和编译器自动调优的方法、装置及设备。所述模型训练的方法包括:获取目标程序,并确定编译器对该目标程序进行编译时的各优化序列;确定出初始优化序列并生成当前样本点,以及,确定初始优化序列对所述目标程序进行编译的第一运行时间;生成邻域样本点,并确定邻域样本点对目标程序进行编译的第二运行时间;判断第一运行时间是否大于第二运行时间,若是,将邻域样本点作为当前样本点;在达到指定迭代次数后,确定运行时间小于预设时间的若干个各候选优化序列,并根据各候选优化序列构建训练样本;通过构建的训练样本对预测模型进行训练。

    计算机程序的编译调优方法、装置和存储介质

    公开(公告)号:CN116991429A

    公开(公告)日:2023-11-03

    申请号:CN202311266395.5

    申请日:2023-09-28

    Abstract: 本申请涉及一种计算机程序的编译调优方法、装置和存储介质,其中,该编译调优方法包括:选择样本硬件集合和样本程序集合并为每个样本程序随机生成优化序列,对每种样本程序与优化序列的组合进行编译、特征抽取以及运行,得到训练数据集,基于训练数据集对预设的多任务学习模型进行训练,得到预训练模型,基于预训练模型进行成本函数模型的初始化,得到目标成本函数模型,利用该目标成本函数模型对目标源程序进行调优,得到目标源程序的最优优化序列。通过本申请,解决了相关技术中计算机程序编译调优效率低下的问题,提高了计算机程序的编译调优效率。

    基于人工智能的编译器自动调优方法及装置

    公开(公告)号:CN116931955A

    公开(公告)日:2023-10-24

    申请号:CN202311202659.0

    申请日:2023-09-18

    Abstract: 本说明书公开了基于人工智能的编译器自动调优方法及装置,在此方法中,将程序输入到模型中得到各优化序列,编译器针对每个优化序列对程序进行编译运行得到实际运行时间,据此来调整智能体模型输出各优化序列的概率,使得训练后的智能体模型能够输出最优的优化序列,而编译器使用最优优化序列对待运行程序进行编译优化,从而在一定程度上提高运行效率和减少资源浪费。

    一种数据处理的方法、装置、存储介质以及电子设备

    公开(公告)号:CN116415103B

    公开(公告)日:2023-09-05

    申请号:CN202310681557.5

    申请日:2023-06-09

    Abstract: 本说明书公开了一种数据处理的方法、装置、存储介质以及电子设备,可以读取存储在指定设备内存的目标数据,并确定目标数据的各数据维度,可以根据目标数据的各数据维度,确定各种候选数据拆分方式,以及确定按照每种候选数据拆分方式执行目标数据的数据处理任务后的效率值,并根据每种候选数据拆分方式对应的效率值,确定目标数据拆分方式,其中,针对每种候选数据拆分方式,该候选数据拆分方式用于确定指定设备中至少部分的数据处理单元所要处理的数据的数据维度,数据处理单元可以包括:指定设备中的寄存器以及各级缓存。以按照目标数据拆分方式,对神经网络模型中的待处理数据进行数据处理,从而能够提高神经网络模型中矩阵运算的效率。

    一种分布式模型训练系统及方法

    公开(公告)号:CN118396140B

    公开(公告)日:2024-09-13

    申请号:CN202410849948.8

    申请日:2024-06-27

    Abstract: 本说明书公开了一种分布式模型训练系统及方法,第二计算节点基于适应度函数确定各树型结构模型的当前适应度,选择目标树型结构模型,第一计算节点选择参考树型结构模型,根据参考树型结构模型和目标树型结构模型,生成进化操作执行任务,将其分配给各第二计算节点,使其执行各进化操作执行任务,得到更新后的树型结构模型,第一计算节点从各更新后的树型结构模型中确定各选中的树型结构模型,并以此构建当前待训练模型,迭代多次直到满足第一预设条件,得到训练完成的目标模型。可见,上述方案实现了基于大型计算集群的分布式训练的适配,解决了大型树型模型占用计算资源高的问题,提升了大型树型模型的训练效率。

    用于存储数据集的方法、系统及用于训练模型的方法

    公开(公告)号:CN118502681A

    公开(公告)日:2024-08-16

    申请号:CN202410975313.2

    申请日:2024-07-19

    Abstract: 本申请涉及用于存储数据集的方法、系统及用于训练模型的方法。该存储方法包括:获得低速存储设备的平均传输速率;根据训练程序中一次迭代的时间、训练程序的总迭代次数及平均传输速率,获得数据集中用于存储至低速存储设备的低速子集,其中,数据集用于训练模型;以及确定数据集中需要存储在高速存储设备的高速子集,高速子集用于支持训练程序的启动训练。采用本方法能够使高速存储设备和低速存储设备构成的系统的总体成本较低;并能保证有效地支持模型的训练。

    一种生成存内计算神经网络模型的方法、装置及介质

    公开(公告)号:CN117077726A

    公开(公告)日:2023-11-17

    申请号:CN202311344094.X

    申请日:2023-10-17

    Abstract: 本申请公开了一种生成存内计算神经网络模型的方法,首先根据待构建的神经网络模型的目标任务,根据历史执行所述目标任务的任务数据作为训练样本,以及将目标任务的执行结果作为标注,之后通过对量化可微超网络的模型结构进行初始化,确定模型各节点之间数据传递顺序的有向无环图,确定架构参数以及权重参数,依该有向无环图的顺序,通过训练样本对权重参数进行调整,然后通过调整后的权重参数配置的模型,调整架构参数,得到存内运行的神经网络模型。通过权值继承,实现了可交替优化的两种参数,分别通过有监督训练和启发式学习进行调整,使得可以更为高效的学习深度神经网络架构。

    一种量化感知训练的点云目标检测方法及装置

    公开(公告)号:CN116721399B

    公开(公告)日:2023-11-14

    申请号:CN202310925867.7

    申请日:2023-07-26

    Abstract: 本说明书公开了一种量化感知训练的点云目标检测方法及装置,可以获取训练样本,将训练样本中的点云样本数据输入到全精度网络中,得到目标检测结果,以对全精度网络进行训练,得到训练后的全精度网络,而后,将训练后的全精度网络进行模型量化,得到量化后网络,量化后网络的参数精度低于全精度网络的参数精度,而后,将训练样本输入到量化后网络中,得到量化后网络得到的目标检测结果,根据标注信息和目标检测结果,对量化后网络进行参数微调训练,得到训练后的量化后网络,最后,将训练后的量化后网络部署在无人驾驶设备中,以使无人驾驶设备通过量化后网络进行点云目标检测,从而在保证准确性的情况下提高了无人驾驶设备的点云检测效率。

Patent Agency Ranking