-
公开(公告)号:CN115499308A
公开(公告)日:2022-12-20
申请号:CN202210972995.2
申请日:2022-08-15
Applicant: 鹏城实验室
IPC: H04L41/0803 , H04L41/0894 , H04L41/08 , H04L67/06 , H04L9/40 , H04L67/10
Abstract: 本发明公开了一种分布式FTP容器部署方法、装置、终端及存储介质,方法包括:调用服务插件程序,通过服务插件程序读取共享存储服务器中的用户存储根目录信息,并将集群中用户信息同步初始化存储至FTP服务的数据库中;通过数据库中的用户信息对用户登入权限进行校验,并根据校验结果在共享存储服务器中配置对应的用户存储根目录信息及FTP服务访问权限文件;将配置后的FTP服务以helm容器化的方式部署至所述集群中。本发明通过Mysql数据库、FTP服务以及服务插件的多容器微服务分布式组网模式,提高了服务器整体的扩展性和高可用性,从而提高了用户文件的上传和下载的效率。
-
公开(公告)号:CN115407936A
公开(公告)日:2022-11-29
申请号:CN202210938171.3
申请日:2022-08-05
Applicant: 鹏城实验室
Abstract: 本发明公开了一种数据集处理方法、系统、终端及计算机可读存储介质,所述方法包括:根据指定的本地原始数据的路径和目标对象云的基本信息,调用框架层接口创建数据集,并对数据集进行压缩处理;当数据集压缩处理完成后得到多个不同的数据块,并将所有数据块异步上传到目标对象云进行存储;当进行机器学习时,加载目标对象云中的数据集到机器节点,完成模型训练。本发明基于数据集样本相似性特性对数据进行合理分块压缩存储,极大的增加传输效率同时也减少了存储介质,在数据落地存储前对块进行合理的打乱处理,在实际任务训练时时取得更好的训练效果,优化了数据集在统一对象存储的加载速度和训练效果。
-
公开(公告)号:CN114385785A
公开(公告)日:2022-04-22
申请号:CN202111594472.0
申请日:2021-12-23
Applicant: 鹏城实验室
Abstract: 本发明公开了一种支持高并发的大规模生成式语言模型快速推理方法及系统,方法包括:获取第i步的前序文本的注意力中间值和第i步的预测文本,并保存第i步的前序文本的注意力中间值;获取第i步的预测文本对应的注意力中间值,根据第i步的预测文本对应的注意力中间值与第i步的前序文本对应的注意力中间值获取第i+1步的前序文本对应的注意力输出结果;根据第i+1步的前序文本对应的注意力输出结果生成第i+1步的预测文本。本发明能够加速大规模生成式语言模型的推理速度,缩短用户等待模型输出的时间。
-
公开(公告)号:CN114218918A
公开(公告)日:2022-03-22
申请号:CN202111447284.5
申请日:2021-11-30
Applicant: 鹏城实验室
IPC: G06F40/194 , G06F40/289 , G06F40/111
Abstract: 本发明公开了语料相似检测方法、装置、智能终端及存储介质,其中,上述语料相似检测方法包括:获取输入文档集合;分别对上述输入文档集合中的各个输入文档进行分布式预处理,获取待检测编码文档集合,其中,上述分布式预处理包括字符剔除、分词和单词格式转换,上述待检测编码文档集合中包括多个待检测编码文档,上述待检测编码文档中的各个单词为整数类型的编码;基于上述待检测编码文档集合进行语料相似检测。与现有技术相比,本发明中在进行文档比较时,只需要分别对文档中的单词进行比较,且只需要进行整数类型的数据比较,有利于减少计算量、降低比较时间,提高语料相似检测的效率。
-
公开(公告)号:CN112529176A
公开(公告)日:2021-03-19
申请号:CN202011395802.9
申请日:2020-12-03
Applicant: 鹏城实验室
Abstract: 本发明公开了一种加速脉冲神经网络的训练方法、终端及存储介质,所述方法包括:获取用于训练的脉冲序列和初始突触权值,根据所述脉冲序列和所述初始突触权值生成脉冲神经元的输入信号;获取基于所述输入信号产生的实际输出脉冲序列;获取期望输出脉冲序列,根据所述实际输出脉冲序列以及所述期望输出脉冲序列对所述初始突触权值进行更新,以实现对脉冲神经网络进行训练。本发明通过主机设备读取图片数据并转成脉冲序列以及设定初始权值。然后将脉冲神经网络训练中最耗时的参数更新任务交由专门的加速设备处理,提高了参数更新的速度,进而加速了脉冲神经网络的训练过程。从而解决了现有技术中脉冲神经网络的训练过程耗时长的问题。
-
公开(公告)号:CN112506666B
公开(公告)日:2024-08-23
申请号:CN202011525125.8
申请日:2020-12-22
Abstract: 本发明公开了一种基于驱动封装的GPU分时共享方法及系统,所述方法包括:获取任务切换指令,并根据所述任务切换指令确定切换前的任务;根据所述切换前的任务,确定所述切换前的任务所占用的GPU显存资源;将所述GPU显存资源备份,并在备份完成后释放所述GPU显存资源,以使得切换后的任务使用GPU并运行。本发明可通过截获用户应用对GPU资源的使用,并且在任务切换时,将所述GPU显存资源备份,并在备份完成后释放所述GPU显存资源,以使得切换后的任务使用GPU并运行,从而实现了GPU资源在不同任务之间的分时共享,推高了集群资源的利用率,降低了用户的等待时间。
-
公开(公告)号:CN115391006A
公开(公告)日:2022-11-25
申请号:CN202210972749.7
申请日:2022-08-15
Applicant: 鹏城实验室
Abstract: 本发明公开了一种异构多集群的数据处理方法、装置、介质及终端,方法包括:在Kubernetes数据处理系统中增加新的Kubernetes虚拟节点,将每个所述Kubernetes虚拟节点与异构多集群中的每个异构集群相对应;基于所述Kubernetes虚拟节点为每个所述异构集群单独创建一个适配器;在Kubernetes数据处理系统中部署一个与所述适配器相对应的节点代理程序,其中,所述适配器通过所述节点代理程序可与Kubernetes的应用编程接口服务器通信;基于所述节点代理程序,将所述应用编程接口服务器对kubelet的操作转换为对异构集群的作业操作;本发明采用上述方法后解决了异构多集群调度较为困难的问题,实现了能够通过使用Kubernetes集群软件像数据处理普通的单集群一样去数据处理异构的多集群。
-
公开(公告)号:CN114676795B
公开(公告)日:2022-08-23
申请号:CN202210582633.2
申请日:2022-05-26
Applicant: 鹏城实验室
Abstract: 本发明涉及模型训练技术领域,具体是涉及一种深度学习模型的训练方法、装置、设备及存储介质。本发明首先根据待训练的深度学习模型所需要的训练数据集的容量选择将训练数据集存储至本地节点的存储方式,之后完成训练数据集在本地节点的存储操作,最后本地节点采用训练数据集训练深度学习模型。本发明根据训练数据集的容量将训练数据集存储至本地节点,能够节省存储数据所需要的时间,进而节省了训练所需要的整体时间,从而提高了训练效率。
-
公开(公告)号:CN114037047A
公开(公告)日:2022-02-11
申请号:CN202111177498.5
申请日:2021-10-09
Applicant: 鹏城实验室
Abstract: 本发明公开了一种脉冲神经网络的训练方法,所述方法通过获取目标卷积神经网络,其中,所述目标卷积神经网络为预先经过训练的卷积神经网络;将所述目标卷积神经网络转换为初始脉冲神经网络;同时在时间域和空间域对所述初始脉冲神经网络进行训练,将训练后的所述初始脉冲神经网络作为目标脉冲神经网络。由于本发明在将卷积神经网络转换为脉冲神经网络之后,还会对脉冲神经网络在时间域和空间域上进行训练,因此可以进一步优化脉冲神经网络在时间域和空间域上的信息传输能力。从而解决了现有的ANN‑to‑SNN的训练方法得到的SNN,完成一次前向推理所需要的时间步长较长的问题。
-
公开(公告)号:CN112817722A
公开(公告)日:2021-05-18
申请号:CN202110141136.4
申请日:2021-02-01
Abstract: 本发明公开了一种基于优先级的分时调度方法、终端及存储介质,方法包括:确定各个待调度任务的所属用户;获取第一预设时长内各个用户已运行任务的时长,根据各个用户已运行任务的时长在各个待调度任务中确定目标任务;为目标任务分配运行资源。本发明在对各个用户的任务进行调度时,根据一定时长内各个用户已经运行任务的时长确定当前需要被分配运行资源的任务,可以实现各个用户的任务完成进度更平均。
-
-
-
-
-
-
-
-
-