-
公开(公告)号:CN113609310B
公开(公告)日:2023-08-08
申请号:CN202110983670.X
申请日:2021-08-25
申请人: 上海交通大学 , 上海燧原科技有限公司
IPC分类号: G06F16/36 , G06F9/50 , G06F9/54 , G06T1/20 , G06F18/214
摘要: 本发明提供了一种单机大规模知识图谱嵌入方法及系统,包括:步骤S1:根据关系对知识图谱进行划分操作,得到多个子知识图谱;步骤S2:将各个子知识图谱与GPU绑定,利用GPU对子知识图谱进行训练,得到知识图谱中每个实体与关系对应的嵌入向量。相比于传统使用分布式集群来进行大规模知识图谱嵌入训练的方法,本发明使用非易失性内存大容量的特性,并且合理分配知识图谱训练过程中的数据在非易失性内存、GPU显存与DRAM的位置,能够克服分布式训练过程中网络通信所带来的性能开销,使得在不影响最终嵌入向量质量的情况下,总体训练效率提升40%‑50%;同时还能大大节约搭建分布式集群的费用,具有经济上的优势。
-
公开(公告)号:CN113609310A
公开(公告)日:2021-11-05
申请号:CN202110983670.X
申请日:2021-08-25
申请人: 上海交通大学 , 上海燧原科技有限公司
摘要: 本发明提供了一种单机大规模知识图谱嵌入方法及系统,包括:步骤S1:根据关系对知识图谱进行划分操作,得到多个子知识图谱;步骤S2:将各个子知识图谱与GPU绑定,利用GPU对子知识图谱进行训练,得到知识图谱中每个实体与关系对应的嵌入向量。相比于传统使用分布式集群来进行大规模知识图谱嵌入训练的方法,本发明使用非易失性内存大容量的特性,并且合理分配知识图谱训练过程中的数据在非易失性内存、GPU显存与DRAM的位置,能够克服分布式训练过程中网络通信所带来的性能开销,使得在不影响最终嵌入向量质量的情况下,总体训练效率提升40%‑50%;同时还能大大节约搭建分布式集群的费用,具有经济上的优势。
-
公开(公告)号:CN116909612A
公开(公告)日:2023-10-20
申请号:CN202310936690.0
申请日:2023-07-27
申请人: 上海燧原科技有限公司
摘要: 本发明公开了一种任务调度固件的热升级方法、装置、电子设备及介质。该方法包括:在内核态驱动安装过程中,对固件集合中的任务无关固件进行注册,固件集合包括任务无关固件和至少一个用于实现设定任务调度功能的任务调度固件;每当检测到第一任务进程的启动时,控制第一任务进程由用户态进入至内核态,并在内核态中对第一任务进程所需的至少一个目标任务调度固件进行注册。本发明实施例的技术方案将固件中的任务无关固件和任务调度固件进行解耦,可以在无需重装内核态驱动的前提下,实现对任务调度固件的升级,同时,用户在升级所需的任务调度固件时,不会对其他用户的任务造成影响,实现了任务调度固件的进程隔离。
-
公开(公告)号:CN116756049A
公开(公告)日:2023-09-15
申请号:CN202311034832.0
申请日:2023-08-17
申请人: 上海燧原科技有限公司
IPC分类号: G06F11/36 , G06F30/367
摘要: 本发明公开了一种芯片的通用验证方法、装置、电子设备及存储介质。该方法包括:构建与待测芯片匹配的统一验证平台框架;按照待测芯片的测试类型,对各标准特性组件进行实例化处理,以在统一验证平台框架中实现与测试类型匹配的特性层测试环境;获取与待测芯片的测试类型匹配的目标测试用例,并将目标测试用例注入至统一验证平台框架中,以完成对待测芯片的验证。本发明实施例的技术方案简化了芯片验证流程,提高了芯片验证效率,并可以提高芯片验证结果的准确性,同时,降低了芯片验证的成本,缩短了芯片上市的时间,可以有效提高芯片质量和用户满意度。
-
公开(公告)号:CN116560666A
公开(公告)日:2023-08-08
申请号:CN202310834277.3
申请日:2023-07-10
申请人: 上海燧原科技有限公司
摘要: 本发明公开了基于多层级代码生成的AI前端统一计算方法、装置及介质。包括:对主流AI计算框架和模型标准所编写或定义的网络模型进行解析以获取各计算节点的节点参数,并根据节点参数调用统一API接口生成一致的前端计算图;对前端计算图以迭代的形式推断各运算实例的输出类型与形状,按照静态单赋值形式对各运算实例进行高层级中间表示及整合以生成前端计算图的高层级中间表示;对前端计算图的高层级中间表示按照多层级下降标准进行转义生成前端计算图的标准中间表示以兼容现有AI编译后端。本发明解决了AI编译领域计算前端软件碎片化和兼容性低等问题且在不同硬件平台和主流AI模型上展示出更高兼容性和更快的端到端编译及执行速度。
-
公开(公告)号:CN116151194B
公开(公告)日:2023-07-07
申请号:CN202310348704.7
申请日:2023-04-04
申请人: 上海燧原科技有限公司
IPC分类号: G06F40/12 , G06N3/0475 , G06N3/047 , G06N3/088 , G06N5/04
摘要: 本发明涉及自然语言处理技术领域,公开了一种中文通用语言的生成方法、装置、设备及存储介质。该方法包括:获取用户输入的风格提示符、中文文本前缀和文本生成长度;将用户输入的风格提示符、中文文本前缀和文本生成长度输入至预训练的目标语言模型,获取目标语言模型输出的续写文本;其中,目标语言模型基于生成式预训练网络建立;对续写文本进行展示。本实施例的技术方案,通过基于生成式预训练网络建立可以生成中文通用语言的语言模型,可以基于单一语言模型实现对不同风格的中文语言的自动生成,可以提升中文语言生成的多样性和通用性。
-
公开(公告)号:CN116149797B
公开(公告)日:2023-07-07
申请号:CN202310348238.2
申请日:2023-04-04
申请人: 上海燧原科技有限公司
摘要: 本发明公开了一种面向异构场景的AI统一计算方法、装置、设备及介质。包括:获取AI计算图,并将AI计算图转义为中间表达后,将中间表达形式的AI计算图拆分为多个图单元;将各图单元编译为至少一种类型的计算设备能识别的计算字节码单元,并提供给AI计算框架中的运行时系统;其中,各计算设备中预先实现多个标准计算接口;运行时系统在将各计算字节码单元分发调度至目标计算设备后,调用各标准计算接口实施计算,并响应于内存访问指令,统一内存管理器对各目标计算设备进行统一的内存分配和回收。本发明实施例的技术方案屏蔽了不同芯片厂商的设备差异性对上层AI计算框架的影响,实现了不同芯片厂商对主流AI计算框架的兼容和复用。
-
公开(公告)号:CN115904539A
公开(公告)日:2023-04-04
申请号:CN202211516714.9
申请日:2022-11-29
申请人: 上海燧原科技有限公司
IPC分类号: G06F9/445
摘要: 本发明公开了一种切分策略的在线生成方法、装置、设备及存储介质。该方法包括:获取当前加载至AI平台的机器学习模型,并在机器学习模型中识别目标算子;根据目标算子中各算子参数的各张量维度和AI平台的硬件规格,确定与目标算子匹配的多个备选切分图样;获取与AI平台匹配的时间成本模型,并采用时间成本模型分别评估每个备选切分图样在至少一个运算循环方式下的时间开销;根据各时间开销,确定由目标切分图样和目标运算循环方式组合得到目标切分策略;在机器学习模型的执行过程中,按照目标切分策略执行针对目标算子的在线计算。通过本发明实施例的技术方案,以满足在线即时地确定算子切分策略的业务需求,降低维护成本。
-
公开(公告)号:CN115495095B
公开(公告)日:2023-03-21
申请号:CN202211442570.7
申请日:2022-11-18
申请人: 上海燧原科技有限公司
IPC分类号: G06F8/41
摘要: 本发明公开了一种张量程序的整程序编译方法、装置、设备、介质及集群。该方法包括:获取与张量程序源代码匹配的整程序高层程序中间表示;查询预先构建的性能代价模型,将整程序高层程序中间表示转换为整程序高层程序结构化中间表示;其中,整程序高层程序结构化中间表示由多个顶点连接构成,顶点中分配有整程序高层程序中间表示内的局部代码且与计算集群中的计算节点关联;将整程序高层程序结构化中间表示转换为整程序结构化字节码,以完成张量程序的整程序编译过程。通过执行本技术方案,可以将大规模张量程序作为整体进行编译优化,支持多程序多数据执行模式,具有更大的优化潜力。
-
公开(公告)号:CN115391727A
公开(公告)日:2022-11-25
申请号:CN202210995283.2
申请日:2022-08-18
申请人: 上海燧原科技有限公司
摘要: 本发明实施例公开了一种神经网络模型的计算方法、装置、设备及存储介质。该方法包括:将输入数据集加载至目标芯片高级缓存区中;将输入数据集中数据搬运至低级缓存区再搬运至计算单元,进行一维DFT运算得到一半数据量的第一DFT结果,根据结果的共轭对称性得到第一输入DFT运算结果;再进行一维DFT运算得到一半数据量的第二DFT结果,根据结果的中心共轭对称性得到第二输入DFT运算结果;从目标级缓存区搬运共享卷积核DFT运算结果至低级缓存区,再搬运至计算单元,对各第二输入DFT运算结果以及共享卷积核DFT运算结果进行运算,得到卷积运算结果,进行神经网络模型计算。该方法可以提高目标芯片的运算速度。
-
-
-
-
-
-
-
-
-