一种神经网络压缩方法及装置
    5.
    发明公开

    公开(公告)号:CN114662685A

    公开(公告)日:2022-06-24

    申请号:CN202210317603.9

    申请日:2022-03-29

    IPC分类号: G06N3/067 G06N3/08

    摘要: 本发明提供一种神经网络压缩方法及装置,为每个神经网络的每个参数配置配置值,在配置值的邻域中搜索性能更高的配置值,从性能更高的配置值中选择预设个性能最大的配置值和距离参考集最大的配置值作为参考值构建参考集,选择参考集中任意两个参考值构建子集,得到多个子集,对子集中的两个参考值进行线性组合计算,得到最优解,利用最优解执行神经网络的压缩。在本方案中,为神经网络的每个参数配置配置值,使得神经网络参数空间的每一部分都被搜索到,并在不改变参数配置值的情况下,筛选出高性能的配置值,利用线性组合运算,得到最优解,利用最优解执行神经网络的压缩,从而实现不改变参数值并保持神经网络精度和性能的同时压缩神经网络。

    神经网络训练方法、图像检索方法及装置

    公开(公告)号:CN114219983A

    公开(公告)日:2022-03-22

    申请号:CN202111555642.4

    申请日:2021-12-17

    摘要: 本申请提供了一种神经网络训练方法、图像检索方法及装置,该训练方法通过预先设定的损失函数对第一浅层卷积神经网络、第一深层卷积神经网络、第二浅层卷积神经网络和第二深层卷积神经网络进行训练,使第一浅层卷积神经网络、第一深层卷积神经网络、第二浅层卷积神经网络和第二深层卷积神经网络学习到能提取与图像相似性相关的特征,在此基础上,使用浅层卷积神经网络和深层卷积神经网络提取不同类型的特征,并对特征进行融合,使融合后的特征能表征更加丰富的图像信息,使得利用融合后的特征检索图像,可以提高图像检索的精度。

    神经网络训练方法、图像检索方法及装置

    公开(公告)号:CN114219983B

    公开(公告)日:2024-10-18

    申请号:CN202111555642.4

    申请日:2021-12-17

    摘要: 本申请提供了一种神经网络训练方法、图像检索方法及装置,该训练方法通过预先设定的损失函数对第一浅层卷积神经网络、第一深层卷积神经网络、第二浅层卷积神经网络和第二深层卷积神经网络进行训练,使第一浅层卷积神经网络、第一深层卷积神经网络、第二浅层卷积神经网络和第二深层卷积神经网络学习到能提取与图像相似性相关的特征,在此基础上,使用浅层卷积神经网络和深层卷积神经网络提取不同类型的特征,并对特征进行融合,使融合后的特征能表征更加丰富的图像信息,使得利用融合后的特征检索图像,可以提高图像检索的精度。

    一种日志数据预处理方法及装置
    10.
    发明公开

    公开(公告)号:CN114676105A

    公开(公告)日:2022-06-28

    申请号:CN202210317584.X

    申请日:2022-03-29

    摘要: 本发明提供一种日志数据预处理方法及装置,通过对获取的待处理的第一日志文件进行格式转换,得到第二日志文件,为第二日志文件中同类型的错误日志数据分配相同错误标记,得到第三日志文件,基于具有不同错误标记的所有错误日志数据的时间戳和预设序列长度,构建多个故障相关序列,计算所有故障相关序列之间的序列似然度,将序列似然度小于预设值的故障相关序列对划分为一组,得到聚类后的故障相关序列并进行训练,得到对应的故障分类模型。基于上述,对日志数据进行预处理时,能够在减少数据量的基础上保留更多与故障相关的日志数据,有利于后续故障预测过程中更为精准的进行预测各类故障。