-
公开(公告)号:CN118092764A
公开(公告)日:2024-05-28
申请号:CN202410274114.9
申请日:2024-03-11
Applicant: 北京邮电大学
IPC: G06F3/0486 , G06F3/04812 , G06F3/0488 , G06N3/09
Abstract: 本公开提供了一种大语言模型指导的智能体动作控制方法及装置,属于人工智能领域,该方法包括:基于大语言模型将目标任务转换为智能体的目标动作序列;将目标动作序列输入至第一智能体控制模型中以实现智能体的控制。本公开提供的一种大语言模型指导的智能体动作控制方法及装置,以解决目前智能体控制的精准性差的问题。
-
公开(公告)号:CN117993366A
公开(公告)日:2024-05-07
申请号:CN202410381770.9
申请日:2024-04-01
Applicant: 北京邮电大学
IPC: G06F40/166 , G06F40/194 , G06F40/253 , G06N3/045 , G06N3/048
Abstract: 本公开提供了一种测评题目动态生成方法及系统、电子设备、可读存储介质,属于模型测评领域,该方法包括:基于种子题目和提示生成多个第一测试题目;基于目标模型针对多个第一测试题目的第一回复信息确定多个第一测试题目的难度;若多个第一测试题目的难度不符合预设难度,则对多个第一测试题目进行调整,返回执行基于目标模型针对多个第一测试题目的回复信息确定多个第一测试题目的难度的步骤;若多个第一测试题目的难度符合预设难度,则将多个第一测试题目确定为针对目标模型的测试题目。本公开提供的测评题目动态生成方法及系统、电子设备、可读存储介质,以解决现有评估方法缺乏自适应性的问题。
-
公开(公告)号:CN116563635A
公开(公告)日:2023-08-08
申请号:CN202310550550.X
申请日:2023-05-16
Applicant: 北京邮电大学
IPC: G06V10/764 , G06V10/82 , G06V10/77 , G06N3/0464 , G06N3/0895 , G06N3/096 , G06N3/048 , G06F21/71
Abstract: 本发明涉及图像处理技术领域,提出了基于类别属性建模的图像分类系统,包括图像预处理模块,用于对原始图像进行预处理,得到原始图像的多个数据增广变换图像;骨干网络,用于提取第一数据增广变换图像的特征向量xs;持续学习的知识蒸馏分支,用于通过最小化蒸馏损失函数,使特征向量xs与特征向量xt的概率分布误差在第一设定范围内;自监督学习分支,用于通过最小化对比损失函数,使特征向量xs和特征向量xc的误差在第二设定范围内;属性注意力模块,用于使用属性标记与交叉注意力机制计算特征向量xs的属性编码e;分类模块,用于计算每个类别的分类分数。通过上述技术方案,解决了现有技术中基于回放的持续学习方法内存消耗大的问题。
-
公开(公告)号:CN114463214A
公开(公告)日:2022-05-10
申请号:CN202210108471.9
申请日:2022-01-28
Applicant: 北京邮电大学
Abstract: 本发明涉及虹膜补全技术领域,提出了区域注意力机制引导的双路虹膜补全方法及系统,包括Transformer编码器、CNN编码器、融合模块、残差块、区域注意力模块和解码器。通过引入区域注意力机制,使用二值遮挡图像m来约束特征图f1和特征图f2两个不同的注意力输出,对于f2,关注其中对应输入图像的遮挡部分,对于f1,关注其中对应输入图像的非遮挡部分,使得网络更加关注虹膜图像中遮挡区域的修复,生成高质量虹膜补全图像。
-
公开(公告)号:CN119357900B
公开(公告)日:2025-05-13
申请号:CN202411507526.9
申请日:2024-10-28
Applicant: 北京邮电大学
IPC: G06F18/25 , G06F18/10 , G06N3/042 , G06F18/213 , G06N3/0442 , G06N3/045 , G06N3/048
Abstract: 本发明公开了一种基于图神经网络的多模态阅读眼动表征方法,属于智能学习领域,该方法包括以下步骤:获取被试眼动数据,对所述被试眼动数据进行预处理得到预处理眼动数据;将所述预处理眼动数据转化为拓扑结构图;对所述拓扑结构图进行迭代与多维注意力处理得到节点特征和多维边特征;基于图注意力网络的多维建模方法对所述节点特征和所述多维边特征进行交互融合得到最终的阅读眼动表征输出。本发明提出了一种结合了门控神经网络和边特征图注意力网络的多模态眼动表征方法,能够有效融合眼动特征和文本刺激信息,实现对眼动追踪数据的高效表征。
-
公开(公告)号:CN119671185A
公开(公告)日:2025-03-21
申请号:CN202411821115.7
申请日:2024-12-11
Applicant: 北京邮电大学
IPC: G06Q10/0631 , G06Q50/40 , G06F18/2415 , G06F18/213 , G06F18/20
Abstract: 本公开提供了多线路车辆智能排班方法及系统、设备、存储介质,属于智能车辆调度技术领域,该方法包括:构建特征提取网络,特征提取网络用于提取第一信息的特征向量。构建车辆选择网络,车辆选择网络用于选择车辆进行排班。构建模拟环境,模拟环境用于模拟车辆的运行信息。基于特征提取网络和车辆选择网络构建智能体。基于模拟环境生成第一信息,基于第一信息和奖励函数对智能体进行训练得到强化学习智能体,其中,第一信息为模拟车辆的历史运行信息,奖励函数为第一信息对应的奖励值计算函数,将第二信息输入到强化学习智能体中得到目标排班方案,第二信息为多线路车辆信息。本公开提供的多线路车辆智能排班方法及系统、设备、存储介质能够提高对复杂车辆排班问题的应对能力。
-
公开(公告)号:CN119558343A
公开(公告)日:2025-03-04
申请号:CN202411713024.1
申请日:2024-11-27
Applicant: 北京邮电大学
Abstract: 本发明公开了一种协作与竞争场景下的可泛化智能体生成方法,包括:构建多样性策略池;选取一个子环境,提取团队智能体的策略网络参数,并赋值给学习者;采用多智能体强化学习算法对学习者的策略网络参数进行优化更新,获得学习者的第一策略网络参数;构建回合记忆库,对队友和对手的观测数据进行视角对齐转换;在优化更新过程中,基于学习者观测特征,从回合记忆库中检索与学习者最匹配的观测数据;对检索到的观测数据进行位置编码处理后,基于超网络生成学习者的第二策略网络参数;结合第一策略网络参数和第二策略网络参数,获得优化后的学习者策略网络参数。本发明智能体的设定能够在当前环境下与未知的队友和对手进行有效的协作与竞争。
-
公开(公告)号:CN119443028A
公开(公告)日:2025-02-14
申请号:CN202411493069.2
申请日:2024-10-24
Applicant: 北京邮电大学
IPC: G06F30/392 , G06F30/27 , G06N3/084 , G06N3/0475 , G06N3/045
Abstract: 本发明公开了一种芯片拥塞预测方法,包括:构建单元操作集,基于单元操作集构建搜索空间,使用梯度下降法选取神经网络架构并进行迭代更新,获得最优神经网络架构;获取目标领域和源领域的芯片布局布线设计图集并选取预设数量的图像,获得目标训练集和源训练图集,通过选取的图像训练循环生成对抗网络;基于源领域的芯片布局布线设计图集与循环生成对抗网络获得辅助数据集;基于目标训练集与辅助训练集对最优神经网络结构进行训练,获得最终芯片拥塞预测模型,基于最终芯片拥塞预测模型进行芯片拥塞预测。本发明克服了使用机器学习模型进行拥塞预测时需要大量专业知识和巨大工程消耗的问题,大幅度减少跨芯片拥塞预测需要的数据样本数量。
-
公开(公告)号:CN118153629B
公开(公告)日:2025-02-11
申请号:CN202410249830.1
申请日:2024-03-05
Applicant: 北京邮电大学
IPC: G06N3/0455 , G06N3/0985
Abstract: 本公开提供了一种智能决策方法及装置、电子设备、可读存储介质,该方法包括:基于第一任务的决策知识信息确定所述第一任务对应的模型参数;基于所述模型参数对决策模型的网络参数进行调整;所述决策模型为第二任务的决策模型;所述网络参数调整后的决策模型用于任务决策。本公开提供的智能决策方法及装置、电子设备、可读存储介质可以提高智能体在新决策任务中决策的准确性。
-
公开(公告)号:CN119151774A
公开(公告)日:2024-12-17
申请号:CN202411373580.9
申请日:2024-09-29
Applicant: 北京邮电大学
IPC: G06T3/04 , G06T5/70 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08 , G06F3/0486 , G06F3/04845
Abstract: 本公开提供了一种图像拖拽编辑方法及系统,属于图像处理技术领域,该方法包括:基于第一图像和第一图像的拖拽点信息进行意图推理,得到N个语义意图;所述第一图像为拖拽编辑前的原始图像;基于N个语义意图分别对第一图像进行编辑,得到N个第二图像;所述N个第二图像用于指示用户从所述N个第二图像中选取目标图像。本公开提供的图像拖拽编辑方法及系统能够得到符合用户预期的拖拽编辑结果。
-
-
-
-
-
-
-
-
-