张量程序的整程序编译方法、装置、设备、介质及集群

    公开(公告)号:CN115495095B

    公开(公告)日:2023-03-21

    申请号:CN202211442570.7

    申请日:2022-11-18

    IPC分类号: G06F8/41

    摘要: 本发明公开了一种张量程序的整程序编译方法、装置、设备、介质及集群。该方法包括:获取与张量程序源代码匹配的整程序高层程序中间表示;查询预先构建的性能代价模型,将整程序高层程序中间表示转换为整程序高层程序结构化中间表示;其中,整程序高层程序结构化中间表示由多个顶点连接构成,顶点中分配有整程序高层程序中间表示内的局部代码且与计算集群中的计算节点关联;将整程序高层程序结构化中间表示转换为整程序结构化字节码,以完成张量程序的整程序编译过程。通过执行本技术方案,可以将大规模张量程序作为整体进行编译优化,支持多程序多数据执行模式,具有更大的优化潜力。

    深度学习模型的生成方法、优化方法、装置、设备及介质

    公开(公告)号:CN113283613A

    公开(公告)日:2021-08-20

    申请号:CN202110833986.0

    申请日:2021-07-23

    IPC分类号: G06N20/00 G06F40/253

    摘要: 本发明实施例公开了一种深度学习模型的生成方法、优化方法、装置、设备及介质。该深度学习模型的生成方法,包括:获取业务模型代码和目标模型并行配置参数;根据所述业务模型代码构建初始抽象语法树,并根据所述目标模型并行配置参数将所述初始抽象语法树更新为目标抽象语法树;将所述目标抽象语法树加载到目标深度学习框架上,并通过所述目标深度学习框架对所述目标抽象语法树进行计算图编译生成在多个设备上并行执行的深度学习模型。上述技术方案主要作用于模型代码编译阶段,能够避免对业务模型代码进行侵入式修改,实现了使深度学习模型支持模型并行的自动化。

    张量程序的整程序编译方法、装置、设备、介质及集群

    公开(公告)号:CN115495095A

    公开(公告)日:2022-12-20

    申请号:CN202211442570.7

    申请日:2022-11-18

    IPC分类号: G06F8/41

    摘要: 本发明公开了一种张量程序的整程序编译方法、装置、设备、介质及集群。该方法包括:获取与张量程序源代码匹配的整程序高层程序中间表示;查询预先构建的性能代价模型,将整程序高层程序中间表示转换为整程序高层程序结构化中间表示;其中,整程序高层程序结构化中间表示由多个顶点连接构成,顶点中分配有整程序高层程序中间表示内的局部代码且与计算集群中的计算节点关联;将整程序高层程序结构化中间表示转换为整程序结构化字节码,以完成张量程序的整程序编译过程。通过执行本技术方案,可以将大规模张量程序作为整体进行编译优化,支持多程序多数据执行模式,具有更大的优化潜力。

    深度学习模型的生成方法、优化方法、装置、设备及介质

    公开(公告)号:CN113283613B

    公开(公告)日:2021-11-09

    申请号:CN202110833986.0

    申请日:2021-07-23

    IPC分类号: G06N20/00 G06F40/253

    摘要: 本发明实施例公开了一种深度学习模型的生成方法、优化方法、装置、设备及介质。该深度学习模型的生成方法,包括:获取业务模型代码和目标模型并行配置参数;根据所述业务模型代码构建初始抽象语法树,并根据所述目标模型并行配置参数将所述初始抽象语法树更新为目标抽象语法树;将所述目标抽象语法树加载到目标深度学习框架上,并通过所述目标深度学习框架对所述目标抽象语法树进行计算图编译生成在多个设备上并行执行的深度学习模型。上述技术方案主要作用于模型代码编译阶段,能够避免对业务模型代码进行侵入式修改,实现了使深度学习模型支持模型并行的自动化。