基于图像处理的AI仿真教学方法及系统

    公开(公告)号:CN117422627B

    公开(公告)日:2024-02-20

    申请号:CN202311733029.6

    申请日:2023-12-18

    IPC分类号: G06T5/00 G06T5/50

    摘要: 本发明涉及图像处理技术领域,具体涉及基于图像处理的AI仿真教学方法及系统,包括:获取教学视频的逐帧灰度图像,根据多帧灰度图像中同一个位置的像素点的灰度值变化情况获取像素点的运动模糊特征量,结合像素点的梯度方向获取像素点的相关性向量,根据每个分块中所有像素点的相关性向量获取每个分块的动态程度,根据像素点以及其八邻域内其余像素点的相关性向量和所在分块的动态程度得到像素点的运动特征量,根据运动特征量将当前帧灰度图像划分为多个类别,对每个类别的图像分别进行盲去卷积,得到当前帧去模糊灰度图像。本发明消除了教学视频中教师动作变化带来的运动模糊对教学视频清晰度的影响,提高了教学质量。

    基于知识图谱集成的大语言模型向量检索方法

    公开(公告)号:CN117520485A

    公开(公告)日:2024-02-06

    申请号:CN202410022166.7

    申请日:2024-01-08

    摘要: 本发明涉及数据处理技术领域,具体涉及基于知识图谱集成的大语言模型向量检索方法,包括:采集文本数据集构建知识图谱,获取实体集合中每个实体的名词序列和编号序列,从而得到每个实体的属性特征值,以此将所有实体划分的若干个聚类簇,根据所有聚类簇中所有实体的属性特征值之间的差异,得到TransE模型的修正损失函数,从而得到三元组集合中的每个三元组的向量表示,由此获取用户查询时的查询结果。本发明通过分析实体集合中实体之间的相似性,对TransE模型的损失函数进行修正,获取准确的向量表示结果,从而提高了用户查询时的检索准确性。

    基于AI大语言模型的上下文构造方法及系统

    公开(公告)号:CN117494717A

    公开(公告)日:2024-02-02

    申请号:CN202311818165.5

    申请日:2023-12-27

    摘要: 本发明涉及自然语言的处理分析技术领域,具体涉及一种基于AI大语言模型的上下文构造方法及系统。本发明首先根据上游任务及下游任务对应训练集间对应文本的主题重合度,获取上游任务与下游任务的任务相关性,进而在上游任务的预训练过程中,根据上游任务的预测准确性及任务相关性获取预训练过程中损失的奖惩参考权重;然后根据奖惩参考权重调整大语言模型,通过不断地迭代调整及预训练,调整模型的学习目标,进而可以将调整后的预训练模型在特殊领域任务中进行微调并保存应用。本发明结合上下游任务的相关性对模型的预训练引入奖惩机制,加强模型与下游任务的联系性,提高大语言模型的上下文构造准确性。

    基于对比学习和联合损失函数的小样本知识增强学习方法

    公开(公告)号:CN117436543A

    公开(公告)日:2024-01-23

    申请号:CN202311296929.9

    申请日:2023-10-08

    IPC分类号: G06N20/00 G06T7/00

    摘要: 本发明提供基于对比学习和联合损失函数的小样本知识增强学习方法,所述方法包括以下步骤:S1、进行外部知识库集成;S2、依据集成的外部知识库进行连续提示的生成和嵌入;S3、使用对比学习框架训练模型,区分正样本和负样本;S4、通过遮蔽语言建模来训练模型;S5、将对比学习和遮蔽语言建模的损失函数结合为联合损失函数,并用于训练模型。本发明有效地整合了外部知识库、连续提示的生成和嵌入、对比学习、遮蔽语言建模和联合损失函数的设计和训练等多个组件。与现有技术相比,该方法提供了一种更灵活、更强大的小样本学习解决方案,可以自适应地适用于不同的任务和数据分布,实现更精确和高效的训练,并具有更好的泛化能力。

    一种大语言模型超参数优化方法及系统

    公开(公告)号:CN117216232B

    公开(公告)日:2024-01-09

    申请号:CN202311486828.8

    申请日:2023-11-09

    摘要: 本发明提供了一种大语言模型超参数优化方法及系统。其中,该方法首先初始化大语言模型及其相关的超参数,包括但不限于学习速率和批次大小。然后,在每一批训练数据处理后,使用一个联合评估函数来对模型的性能和结构复杂度进行全面评估。该联合评估函数综合考虑了模型对数据的拟合能力和模型自身的结构复杂度。根据联合评估函数的结果,该方法动态地通过预定算法调整模型的超参数。进一步地,该方法引入了一个名为结构性动量的动态变量指标,用于追踪和优化模型结构。该方法将持续循环执行上述步骤,直到模型达到预定的性能指标或满足其他终止条件。通过该优化方法,可以有效地调整大语言模型的超参数和结构,从而提高模型性能。

    一种基于分层图注意力与动态元学习的智能知识增强方法

    公开(公告)号:CN117332784A

    公开(公告)日:2024-01-02

    申请号:CN202311278469.7

    申请日:2023-09-28

    摘要: 本发明提供一种基于分层图注意力与动态元学习的智能知识增强方法,所述方法包括下列步骤:S101、进行数据预处理,获得结构化数据;S102、基于所述结构化数据对自适应迁移学习模型进行训练;S103、采用训练后自适应迁移学习模型进行特征提取;S104、根据不同的子任务,构建多个基于不同特征提取结果的分层图注意力网络,并采用动态元学习算法优化所述分层图注意力网络;S105、采用优化后的所述分层图注意力网络实现对不同子任务的结果输出,本发明通过精确捕捉复杂知识结构、灵活实现跨领域知识迁移和自适应,以及高效响应动态环境变化三个方面使得本发明在智能知识增强领域具有广泛的应用前景和实用价值,为解决实际问题提供了更加强大和灵活的工具。

    一种培训成果验收方法及系统
    38.
    发明公开

    公开(公告)号:CN117216692A

    公开(公告)日:2023-12-12

    申请号:CN202311466877.5

    申请日:2023-11-07

    摘要: 本发明提供一种培训成果验收方法及系统,属于人工智能技术领域。所述方法包括:获取待验收人员的培训过程数据,所述培训过程数据基于预设置的记录逻辑按照培训标签进行记录;提取二级、三级标签所对应二级和三级培训过程数据,并将其与预设置的二级、三级培训标准数据进行比对,得到二级、三级考核得分;提取一级标签所对应的一级培训过程数据,并将其输入至一级评价模型得到一级考核得分;将一级、二级和三级考核得分分别基于对应的一级考核权重、二级考核权重和三级考核权重得到最终的考核得分。采用本发明,能够将直接量化数据和非直接量化数据进行整合,整合得到的得分具有全面性,提高了验收的全面性和严谨性。