-
公开(公告)号:CN119314189A
公开(公告)日:2025-01-14
申请号:CN202411357589.0
申请日:2024-09-27
Applicant: 国网山东省电力公司德州供电公司 , 北京邮电大学
IPC: G06V30/41 , G06V30/414 , G06V30/42 , G06V30/19 , G06V30/146 , G06N5/025 , G06N5/04
Abstract: 本发明提供一种基于大模型的生成式视觉文档零样本信息抽取方法,包括六个单元架构:数据预处理、多模态特征提取任务、基于大语言模型的布局增强任务、特征融合任务、适配器预训练任务以及基于大语言模型的信息抽取任务;本发明进行特征的融合和处理,以供大语言模型执行信息抽取任务;通过文本区域预测任务和坐标映射文本恢复任务进行训练,以增强特征处理能力;充分利用视觉文档的各方面特征和大语言模型理解能力,提升文档信息抽取的准确性,无需预定义实体类别的文档信息抽取,从而快速扩展供应链语义词典的业务范围,并显著提高信息处理的灵活性与效率,适合推广应用。
-
公开(公告)号:CN119566034A
公开(公告)日:2025-03-07
申请号:CN202411706036.1
申请日:2024-11-26
Applicant: 国网山东省电力公司德州供电公司 , 国网智能科技股份有限公司
IPC: B09B3/35 , B09B3/30 , H01B19/00 , B09B101/15
Abstract: 本发明涉及复合绝缘子回收装置及工作方法,包括用于运输待回收绝缘子的上料输送线;绝缘子固定机构接收来自上料输送线中的绝缘子,并在上料搬运机构的配合下,固定待回收的绝缘子;切割机械手利用末端携带的切割工装,在绝缘子固定机构的配合下,沿待回收绝缘子的轴线方向将伞裙部分切割分离,再将分离伞裙后的绝缘子中的玻璃纤维杆和金属头切割分离;分拣输送线利用分拣机械手将分离的伞裙、玻璃纤维杆和金属头分拣至相应的回收容器中。考虑了复合绝缘子的结构特点,先切割复合绝缘子的伞裙部分,使橡胶材质的伞裙部分被分离暴露出芯杆,再切割复合绝缘子芯杆部分的玻璃纤维杆和金属头部分,从而得到能够回收的材料。
-
公开(公告)号:CN117950861A
公开(公告)日:2024-04-30
申请号:CN202410049550.6
申请日:2024-01-12
Applicant: 北京邮电大学 , 联通时科(北京)信息技术有限公司
Abstract: 本发明提供一种联邦机器学习系统资源分配处理方法及装置。该方法包括:确定联邦机器学习系统中智能终端在当前联邦学习回合的总时延得分和本地模型参数的质量,基于与智能终端对应的声誉评估模型进行分析,获得智能终端在当前联邦学习回合的当前声誉值;获得预设的智能终端集合中每个智能终端的资源属性信息,将资源属性信息输入至预设的智能终端选择和延迟准入模型,获得选择调用的当前联邦学习回合中的目标智能终端和资源分配策略;基于资源分配策略对目标智能终端分配相应的目标新鲜度的联邦学习的全局模型参数和相应的资源。本发明提供的方法,能够有效提高联邦机器学习系统资源分配效率和准确率,使每个回合选择的智能终端保持稳定。
-
公开(公告)号:CN118095410A
公开(公告)日:2024-05-28
申请号:CN202410062281.7
申请日:2024-01-16
Applicant: 北京邮电大学 , 联通时科(北京)信息技术有限公司
IPC: G06N3/098 , G06N3/0455
Abstract: 本发明提供一种神经网络架构搜索的联邦学习参数高效微调方法及装置。该方法包括:基于联邦学习架构中客户端的预训练语言模型进行神经网络架构搜索中,对预训练语言模型的结构参数和参数高效微调模块进行迭代优化,获得第一结构参数和第一参数高效微调模块,并对其进行迭代聚合处理,获得全局结构参数和全局参数高效微调模块;基于全局参数高效微调模块和全局结构参数对客户端的预训练语言模型的第一结构参数和第一参数高效微调模块进行参数更新处理,获得参数更新结果,并基于参数更新结果对预训练语言模型进行微调,获得微调结果。本发明提供的方法,能够有效提高联邦学习参数高效微调效率和准确率,从而降低了通信成本。
-
公开(公告)号:CN118014035A
公开(公告)日:2024-05-10
申请号:CN202311814341.8
申请日:2023-12-26
Applicant: 北京邮电大学 , 联通时科(北京)信息技术有限公司
IPC: G06N3/08 , G06N3/0464 , G06N3/048 , G06N3/0499 , G06N3/0455
Abstract: 本发明提供一种基于自动化适配器的参数高效微调方法及装置,涉及人工智能技术领域,方法包括:获取预训练模型;在预训练模型的候选位置并行插入在先创建的适配器,得到待训练模型;其中,候选位置包括预训练模型的前馈模块、多头注意力模块和整个网络层;利用预设消融机制和神经网络架构搜索,对待训练模型进行训练,以利用适配器对预训练模型进行参数高效微调。本发明通过在预训练模型的候选位置并行插入适配器,并利用预设消融机制和神经网络架构搜索,对插入适配器的预训练模型进行训练,以提高最终适配器对预训练模型的微调性能,在确保少量可调参数的情况下提供强大的性能,进一步减少了微调计算开销,提高了参数高效微调精度。
-
-
-
-