- 专利标题: 基于改进BERT模型的电力审计文本分类方法及装置
-
申请号: CN202211283079.4申请日: 2022-10-20
-
公开(公告)号: CN115357719A公开(公告)日: 2022-11-18
- 发明人: 孟庆霖 , 穆健 , 戴斐斐 , 赵宝国 , 王霞 , 崔霞 , 宋岩 , 葛晓舰 , 吕元旭 , 赵战云 , 唐厚燕 , 王瑞 , 许良 , 徐业朝 , 徐晓萱 , 马剑 , 李常春 , 郭保伟 , 李婧
- 申请人: 国网天津市电力公司培训中心 , 天津天源电力工程有限公司 , 天津市城西广源电力工程有限公司 , 天津市宁河区宁东盛源电力工程有限公司 , 国网天津市电力公司 , 国家电网有限公司
- 申请人地址: 天津市河东区中山门二号路6号; ; ; ; ;
- 专利权人: 国网天津市电力公司培训中心,天津天源电力工程有限公司,天津市城西广源电力工程有限公司,天津市宁河区宁东盛源电力工程有限公司,国网天津市电力公司,国家电网有限公司
- 当前专利权人: 国网天津市电力公司培训中心,天津天源电力工程有限公司,天津市城西广源电力工程有限公司,天津市宁河区宁东盛源电力工程有限公司,国网天津市电力公司,国家电网有限公司
- 当前专利权人地址: 天津市河东区中山门二号路6号; ; ; ; ;
- 代理机构: 北京知联天下知识产权代理事务所
- 代理商 张迎新
- 主分类号: G06F16/35
- IPC分类号: G06F16/35 ; G06F16/36 ; G06F40/284 ; G06N3/04 ; G06Q50/06
摘要:
本发明公开一种基于改进BERT模型的电力审计文本分类方法及装置,其中分类方法包括:获取电力文本;构建EPAT‑BERT模型;将电力文本输入EPAT‑BERT模型进行预训练,获得预训练后的EPAT‑BERT模型;其中,预训练包括分别进行字粒度掩码语言模型训练和实体粒度的掩码语言模型训练;对预训练后的EPAT‑BERT模型进行微调后开展性能评价,确定文本分类EPAT‑BERT模型;将待分类的电力审计文本输入文本分类EPAT‑BERT模型,输出电力审计文本的类别标签。本发明提出的两种预训练任务,以大规模电力文本作为训练语料,把握电力文本中的词法、语法以及相关知识,实现电力审计文本的高效自动分类。
公开/授权文献
- CN115357719B 基于改进BERT模型的电力审计文本分类方法及装置 公开/授权日:2023-01-03