一种数据集扩充方法及装置
    1.
    发明公开

    公开(公告)号:CN118607668A

    公开(公告)日:2024-09-06

    申请号:CN202410830079.4

    申请日:2024-06-25

    摘要: 本公开提供了一种数据集扩充方法及装置,属于数据处理技术领域,该方法包括:基于第一语言模型生成第一样本数据;将第一样本数据添加至包含有第二样本数据的数据集中,从数据集中筛选出第三样本数据;第二样本数据为真实数据,第三样本数据为第一样本数据中与真实数据的关联度小于第一阈值的数据;基于第四样本数据训练第一语言模型;第四样本数据为数据集中除第三样本数据之外的数据;返回执行基于第一语言模型生成第一样本数据的步骤,直至满足设定条件,得到扩充后的数据集。本公开提供的一种数据集扩充方法及装置能够淘汰低质量样本,优化生成过程,有效保留更加丰富和高质量的样本。

    大语言模型自我提升方法及装置

    公开(公告)号:CN118093823B

    公开(公告)日:2024-09-03

    申请号:CN202410287285.5

    申请日:2024-03-13

    摘要: 本公开提供了一种大语言模型自我提升方法及装置,属于深度学习技术领域,该方法包括:在第一知识库中检索与第一输入信息对应的反思样本,得到反思样本信息;将反思样本信息和第一输入信息输入至大语言模型中,得到目标反思信息;基于第一输入信息和目标反思信息对第一知识库进行更新;在第二知识库中检索与第二输入信息对应的改进样本,得到改进样本信息;将第二输入信息和改进样本信息输入至大语言模型中,得到目标改进信息;基于第二输入信息和目标改进信息对第二知识库进行更新。本公开根据大语言模型的反思信息和改进信息更新第一知识库和第二知识库,丰富了第一知识库和第二知识库的内容,提高了大语言模型的输出质量。

    测评题目动态生成方法及系统、电子设备、可读存储介质

    公开(公告)号:CN117993366B

    公开(公告)日:2024-06-21

    申请号:CN202410381770.9

    申请日:2024-04-01

    摘要: 本公开提供了一种测评题目动态生成方法及系统、电子设备、可读存储介质,属于模型测评领域,该方法包括:基于种子题目和提示生成多个第一测试题目;基于目标模型针对多个第一测试题目的第一回复信息确定多个第一测试题目的难度;若多个第一测试题目的难度不符合预设难度,则对多个第一测试题目进行调整,返回执行基于目标模型针对多个第一测试题目的回复信息确定多个第一测试题目的难度的步骤;若多个第一测试题目的难度符合预设难度,则将多个第一测试题目确定为针对目标模型的测试题目。本公开提供的测评题目动态生成方法及系统、电子设备、可读存储介质,以解决现有评估方法缺乏自适应性的问题。

    虹膜图像生成方法及系统
    4.
    发明公开

    公开(公告)号:CN115620080A

    公开(公告)日:2023-01-17

    申请号:CN202211177298.4

    申请日:2022-09-26

    摘要: 本发明涉及图像处理技术领域,提出了虹膜图像生成方法及系统,包括:获得隐空间Z,隐空间Z包括多个向量组,每个向量组包括向量Zi、向量Zo和向量Zt;多个生成图像分为类内图像和类间图像,类内图像为:向量Zi和向量Zt均相同的多个向量组生成的图像,类间图像为:向量Zi和向量Zt均不同的多个向量组生成的图像;将每两个类内图像以及每两个类间图像分别输入识别网络,得到每两个类内图像以及每两个类间图像的匹配概率,并根据匹配概率计算对比损失;根据对比损失和对抗损失计算目标函数,优化生成对抗网络参数。通过上述技术方案,解决了现有技术中虹膜图像数据库数据量不足的问题。

    多智能体强化学习方法及装置、电子设备、存储介质

    公开(公告)号:CN118052272A

    公开(公告)日:2024-05-17

    申请号:CN202410189439.7

    申请日:2024-02-20

    摘要: 本公开提供了一种多智能体强化学习方法及装置、电子设备、存储介质,属于超图表示学习技术领域,该方法包括:基于多智能体系统中各个智能体的观测信息生成多条超边。每条超边连接多个智能体,多条超边组成超图结构。超图结构为多智能体系统对应的通信结构。基于各个智能体的观测信息计算多智能体之间的消息权重。基于通信结构和消息权重生成多智能体系统对应的关联度。基于关联度对各个智能体的通信信息进行融合,得到每个智能体对应的融合通信信息。融合通信信息用于指导对应智能体的动作。本公开提供的多智能体强化学习方法及装置、电子设备、存储介质能对多个来自不同智能体的异构信息进行通信融合。

    一种图像分类方法及装置、电子设备、可读存储介质

    公开(公告)号:CN118097283A

    公开(公告)日:2024-05-28

    申请号:CN202410274125.7

    申请日:2024-03-11

    摘要: 本公开提供了一种图像分类方法及装置、电子设备、可读存储介质,属于机器学习技术领域,该方法包括:基于第一分类类别对目标分类器的权重进行更新。确定第一训练集中样本类别和第二训练集中样本类别的数量比例,基于数量比例计算目标分类器对应的图像分类模型的损失函数值。第一训练集为第一分类类别对应的训练集,第二训练集属于图像分类模型的历史训练集,为第二分类类别对应的训练集。第二分类类别不同于第一分类类别。基于损失函数值、第一训练集以及第二训练集对图像分类模型的骨干网络进行参数更新直至图像分类模型收敛。基于收敛后的图像分类模型进行图像分类。本公开提供的图像分类方法能够减轻数据不平衡问题对图像分类模型训练性能的影响,提高模型的泛化能力。

    大语言模型自我提升方法及装置

    公开(公告)号:CN118093823A

    公开(公告)日:2024-05-28

    申请号:CN202410287285.5

    申请日:2024-03-13

    摘要: 本公开提供了一种大语言模型自我提升方法及装置,属于深度学习技术领域,该方法包括:在第一知识库中检索与第一输入信息对应的反思样本,得到反思样本信息;将反思样本信息和第一输入信息输入至大语言模型中,得到目标反思信息;基于第一输入信息和目标反思信息对第一知识库进行更新;在第二知识库中检索与第二输入信息对应的改进样本,得到改进样本信息;将第二输入信息和改进样本信息输入至大语言模型中,得到目标改进信息;基于第二输入信息和目标改进信息对第二知识库进行更新。本公开根据大语言模型的反思信息和改进信息更新第一知识库和第二知识库,丰富了第一知识库和第二知识库的内容,提高了大语言模型的输出质量。

    大语言模型评测方法及装置、电子设备、可读存储介质

    公开(公告)号:CN118364250A

    公开(公告)日:2024-07-19

    申请号:CN202410499728.7

    申请日:2024-04-24

    IPC分类号: G06F18/21 G06F16/332

    摘要: 本公开提供了一种大语言模型评测方法及装置、电子设备、可读存储介质,属于智能对话技术领域,该方法包括:基于第一问题和多个第一追问问题依次对第一语言模型进行静态测试,得到第一语言模型针对于第一问题和多个第一追问问题的第一回复信息;基于第一问题和多个第二追问问题依次对第一语言模型进行动态测试,得到第一语言模型针对于第一问题和多个第二追问问题的第二回复信息;基于第一回复信息和第二回复信息确定第一语言模型的评测结果。本公开提出的静态测试和动态测试结合的评估方法能够更准确地评估模型的多轮对话能力,从而更好地反映模型在真实世界应用中的表现。

    智能决策方法及装置、电子设备、可读存储介质

    公开(公告)号:CN118153629A

    公开(公告)日:2024-06-07

    申请号:CN202410249830.1

    申请日:2024-03-05

    IPC分类号: G06N3/0455 G06N3/0985

    摘要: 本公开提供了一种智能决策方法及装置、电子设备、可读存储介质,该方法包括:基于第一任务的决策知识信息确定所述第一任务对应的模型参数;基于所述模型参数对决策模型的网络参数进行调整;所述决策模型为第二任务的决策模型;所述网络参数调整后的决策模型用于任务决策。本公开提供的智能决策方法及装置、电子设备、可读存储介质可以提高智能体在新决策任务中决策的准确性。

    多任务模型训练方法及装置、电子设备、可读存储介质

    公开(公告)号:CN117789005A

    公开(公告)日:2024-03-29

    申请号:CN202410056168.8

    申请日:2024-01-15

    IPC分类号: G06V10/82 G06N3/0464 G06N3/08

    摘要: 本公开提供了一种多任务模型训练方法及装置、电子设备、可读存储介质,属于多任务决策领域,该方法包括:根据训练任务对训练数据集进行划分,得到多个子数据集;确定每个子数据集对应的任务标签,将每个子数据集对应的任务标签转换为每个子数据集对应的任务掩码;基于每个子数据集对应的任务掩码对多任务模型中的权重参数进行筛选,得到每个子数据集对应的第一权重参数;将多个子数据集依次输入至多任务模型中对多任务模型进行训练。本公开提供的多任务模型训练方法及装置、电子设备、可读存储介质能够根据任务掩码找到多个任务之间的共同特征,从而能够高效利用权重参数,同时使模型的计算开销大的问题得到缓解。