运算装置及其操作方法和机器可读存储介质

    公开(公告)号:CN117992235A

    公开(公告)日:2024-05-07

    申请号:CN202410236006.2

    申请日:2024-03-01

    摘要: 本公开提供一种运算装置及其操作方法和机器可读存储介质。该运算装置包括至少一个计算核、第一合并缓存、第一逻辑运算器、第二缓存及第二逻辑运算器。第一逻辑运算器被配置为:计数具备相同寄存器位置的线程请求各自的数量,并将该数量中第二多者作为第一数量;基于第一数量将线程请求区分为第一线程请求及第二线程请求,其中,在相同寄存器位置上第一线程请求的数量小于或等于第一数量;提供第一线程请求第二缓存及第二逻辑运算器,以使第二逻辑运算器进行运算;以及,依据第二线程请求进行运算,其中,第一逻辑运算器与第二逻辑运算器并行地进行运算。本公开的运算装置及其操作方法可进一步地利用运算资源,减少性能损失。

    系统级芯片问题定位方法、装置、电子设备及存储介质

    公开(公告)号:CN117971543A

    公开(公告)日:2024-05-03

    申请号:CN202410186127.0

    申请日:2024-02-19

    IPC分类号: G06F11/07 G06F11/30

    摘要: 本发明提供一种系统级芯片问题定位方法、装置、电子设备及存储介质,属于芯片测试技术领域,方法适用于仿真服务器,包括基于监控模块获取系统级芯片所有接口的操作数据和响应数据,所述监控模块与所述接口一一对应;根据所述操作数据、所述响应数据以及预先收到的所述接口的地址数据,确定问题接口以实现问题定位。本发明在仿真服务器上为系统级芯片的每个接口设置监控模块,获取接口的操作数据和响应数据,并基于预先收到的所述接口的地址数据进行问题定位,无需为每个IP、每个接口添加中断功能,降低设计工作量,还能实现SOC芯片的全面验证,无需验证工程师一一排查,提高了验证效率。

    一种分布式训练方法、装置和存储介质

    公开(公告)号:CN117910549A

    公开(公告)日:2024-04-19

    申请号:CN202410176300.9

    申请日:2024-02-07

    IPC分类号: G06N3/098 G06N3/063 G06N3/047

    摘要: 一种分布式训练方法、装置和存储介质。该分布式训练方法包括:获取N个输入数据中的第n‑1个输入数据和第n个输入数据;通过第n‑1个处理器获取第n‑1个输入数据和第n个输入数据对应的第一损失函数;通过第n个处理器获取第n‑1个输入数据和第n个输入数据对应的第二损失函数;基于N个输入数据的第一损失函数和第二损失函数获取梯度标量;基于梯度标量更新神经网络的权重参数;N为大于0的偶数,n为大于1小于等于N的整数。该分布式训练方法大大的提高了数据处理的效率。

    内核执行方法、装置、电子设备和存储介质

    公开(公告)号:CN117908965A

    公开(公告)日:2024-04-19

    申请号:CN202410176031.6

    申请日:2024-02-07

    摘要: 本发明提供一种内核执行方法、装置、电子设备和存储介质,其中方法包括:执行第一内核的预加载,所述预加载用于加载内核执行所需的数据;在所述第一内核的预加载完成后,执行所述第一内核,并在所述第一内核的执行过程中,执行第二内核的预加载;在所述第一内核执行完成、且所述第二内核的预加载完成后,执行所述第二内核。本发明提供的方法、装置、电子设备和存储介质,将第二内核的预加载提前到第一内核的执行过程中实现,压缩了第一内核和第二内核在执行上的时间间隔,提高了整体执行效率。并且,提前执行预加载,无需用户修改内核代码,可由硬件控制直接实现,具备通用性,大大降低了通过提前执行预加载来提升执行效率的实现成本。

    模型缓存量化方法及装置
    89.
    发明公开

    公开(公告)号:CN117892779A

    公开(公告)日:2024-04-16

    申请号:CN202410071156.2

    申请日:2024-01-17

    摘要: 本发明提供一种模型缓存量化方法及装置,所述方法包括:对模型的缓存进行切块,得到多个缓存块;采用原始精度在当前缓存块存储对应推理数据,直至当前缓存块的存储空间达到容量上限时,对当前缓存块所存储的推理数据进行量化处理。本发明提供的模型缓存量化方法及装置,采用原始精度在当前缓存块存储对应推理数据,即当前缓存块中参与推理运算的是原始高精度数据,从而能够保证模型精度。此外,在当前缓存块的存储空间达到容量上限时,对当前缓存块所存储的推理数据进行量化处理,从而能够在保证模型精度的基础上节省内存开销。