基于少样本学习的大语言模型的图到文本生成方法及装置

    公开(公告)号:CN118628614A

    公开(公告)日:2024-09-10

    申请号:CN202411107024.7

    申请日:2024-08-13

    IPC分类号: G06T11/60 G06N3/042 G06N3/088

    摘要: 本发明涉及人工智能技术领域,特别是指一种基于少样本学习的大语言模型的图到文本生成方法及装置。方法包括:构建正例样本和负例样本,对初始的图神经网络进行训练,得到图编码器,设定四个不同的训练任务,获取分别对应的训练样本,对初始的线性网络进行训练,得到图到文本投影器;选取少样本学习样本,使用少样本学习样本对预训练的大语言模型进行微调,根据图编码器、图到文本投影器以及微调后的大语言模型,得到训练好的基于大语言模型的图到文本生成模型;获取待生成图,将待生成图输入训练好的基于大语言模型的图到文本生成模型,得到待生成图对应的生成文本。采用本发明,可以降低对大规模标注数据集的依赖,提高训练的模型的准确度。