-
公开(公告)号:CN113918743B
公开(公告)日:2022-04-15
申请号:CN202111526779.7
申请日:2021-12-15
IPC分类号: G06F16/51 , G06F16/54 , G06V10/774 , G06V10/764 , G06K9/62
摘要: 本发明提供了一种面向长尾分布场景下图片分类的模型训练方法,包括:构建第一损失函数,用于加入原型归一化以及角域上与类别数量相关的带有边界的交叉熵分类损失;构建第二损失函数,使得各个类别的原型分散的更加均匀的,与类别数量相关最小角度最大化的正则项损失;构建第三损失函数,用于帮助模型有效训练的特征向量模长大小的正则化损失;将第一损失函数、第二损失函数、第三损失函数组合起来得到最终的损失函数Loss。本发明的有益效果是:本发明可以避免训练数据不均衡带来的模型先验偏差的问题以及进一步提升模型在测试集上的泛化性,从而在长尾分布场景下提升图片分类准确率。
-
公开(公告)号:CN118657173A
公开(公告)日:2024-09-17
申请号:CN202411136019.9
申请日:2024-08-19
IPC分类号: G06N3/042 , G06N3/045 , G06N3/0495 , G06N3/096 , G06N3/084 , G06F18/241 , G06F40/284
摘要: 本发明公开了一种知识蒸馏方法和系统,方法包括:获取教师模型在训练集样本上的输出作为软标记训练集;设计学生模型架构和学生模型与教师模型的层对应关系;将训练集或软标记训练集划分为超批次,进行基于主成分分析的第一轮白盒知识蒸馏;进行基于软标记训练集的第二轮黑盒知识蒸馏;测试学生模型性能。本发明利用主成分分析将隐含层大小和架构不同的教师模型和学生模型相互对应,以完成白盒知识蒸馏的方法,使白盒知识蒸馏能被应用在更多学生模型上,便于进一步提高压缩比。本发明蒸馏方法相对白盒知识蒸馏和黑盒知识蒸馏均具有更好的性能。
-
公开(公告)号:CN115510226B
公开(公告)日:2023-11-10
申请号:CN202211070367.1
申请日:2022-09-02
IPC分类号: G06F16/35 , G06F16/36 , G06F40/211 , G06F40/242 , G06F40/30 , G06N3/0464 , G06N3/045 , G06N3/042 , G06N3/09 , G06F17/16 , G06F18/2415
摘要: 本申请属于自然语言处理技术领域,公开了一种基于图神经网络的情感分类方法。通过利用BERT编码器得到文本句的上下文表示;基于句法依赖树,构建初始邻接矩阵;使用Glove词向量模型将初始邻接矩阵映射成初始化邻接矩阵表示;构建根选择分数向量和初始化邻接矩阵表示输入到结构归纳器中,获取潜在图以及语义图;将潜在图和语义图输入到图卷积神经网络中得到潜在图表示和语义图表示,将其结合交互得到经过语义信息增强的潜在图表示和与潜在图交互后的语义图表示;进一步获取用于情感分析的特征表示,经过平均池化操作得到最终特征表示,输入到图卷积网络的线性层,得到文本句的情感极性。实现更好的关联方面词与意见词,提高情感分类的准确性。
-
公开(公告)号:CN116955539A
公开(公告)日:2023-10-27
申请号:CN202311192177.1
申请日:2023-09-15
摘要: 本发明提供一种基于思维链推理隐式生成内容合规性判定方法,包括:步骤一:将安全性未知文本X输入大规模语言模型M;步骤二:询问大规模语言模型M安全性未知文本X中的主客体成份,获取主体文本S以及客体文本T;步骤三:询问大规模语言模型M潜在观点,获得潜在观点文本O;步骤四:根据步骤三获得的潜在观点文本O,询问大规模语言模型M安全性未知文本X表达的意图是否符合规范,如果符合规范,输出:安全,否则输出:不安全。本发明的有益效果是:本发明很好的利用大规模语言模型的常识推断能力以及特定领域的专家知识,合理的提示大规模语言模型进行链式推理,逐步地揭示出深层的文本隐藏语义,大幅度提升了系统文本安全检测系统的性能。
-
公开(公告)号:CN116909574A
公开(公告)日:2023-10-20
申请号:CN202311154532.6
申请日:2023-09-08
IPC分类号: G06F8/41 , G06F16/33 , G06F40/194
摘要: 本发明提供了一种检索增强的结构化代码生成系统及方法,该结构化代码生成系统包括检索前处理模块、结构信息提取模块和代码生成融合模块,所述检索前处理模块根据自然语言描述来检索到功能相关的代码片段;所述结构信息提取模块对所述检索前处理模块检索到的代码片段进行结构信息的提取;所述代码生成融合模块将输入的自然语言和代码片段进行融合,完成代码生成任务。本发明的有益效果是:本发明在不改变原有模型规模的条件下,增强其泛化性,提升代码生成的能力。
-
公开(公告)号:CN116318929A
公开(公告)日:2023-06-23
申请号:CN202310206593.6
申请日:2023-03-07
IPC分类号: H04L9/40 , H04L41/0631 , H04L41/16
摘要: 本发明涉及网络安全技术领域,特别涉及一种基于安全告警数据的攻击策略抽取方法。其方法包括以下步骤:S1.从告警文本中获取攻击者的单步攻击信息;S2.构建攻击活动序列集;S3.构建候选攻击策略;S4.构建攻击策略数据集;S5.预训练;S6.模型训练;S7.攻击策略抽取;S8.人工验证。本方法通过训练模型来判断攻击者的一个候选攻击策略是否为全部的有效攻击步骤,并且这些攻击步骤的组合能完成攻击者的攻击目的;通过这个模型,能够使用枚举候选攻击策略的方式关联出攻击者的全部有效攻击步骤,组成攻击者的攻击策略,而无需定义大量的关联规则;而且在过去的关联经验中未被关联的两个告警也可能被本方法所关联。
-
公开(公告)号:CN115357909B
公开(公告)日:2023-05-16
申请号:CN202211279030.1
申请日:2022-10-19
IPC分类号: G06F21/57 , G06N3/042 , G06N3/0464 , G06N3/045 , G06N3/09
摘要: 本发明提供了一种用于代码漏洞检测的全局信息感知图神经网络系统,包括关系代码表示模块和全局信息感知模块;关系代码表示模块在图卷积神经网络信息聚合过程中添加边类型信息,用边类型信息丰富节点特征表示,并使用注意力机制增强节点特征;全局信息感知模块在图卷积神经网络中使用大核卷积和小核卷积分别提取代码属性图中的全局特征和局部特征,学习更抽象高级的图表征用于代码漏洞分类。本发明的有益效果是:本发明能缓解传统图神经网络难以有效捕获大图图表征的缺陷,有效地学习代码量大的函数的代码属性图的向量表示并提升漏洞检测的准确率和F1指标。
-
公开(公告)号:CN115600012A
公开(公告)日:2023-01-13
申请号:CN202211523157.3
申请日:2022-12-01
IPC分类号: G06F16/9535 , G06F8/75 , G06F18/214 , G06N3/0464 , G06N3/08
摘要: 本发明提供了一种基于知识增强和结构对比的API推荐方法,包括以下步骤:步骤1,代码预处理构图;解析源代码,提取方法、API和结构节点以及它们之间的关系,构成调用关系图和层次结构图;步骤2,知识增强的图嵌入学习;使用图卷积神经网络GCN在调用关系图上传播信息来细化方法和API的初始嵌入表示,同时用翻译模型TransH学习层次结构图中的实体和关系的嵌入表示;步骤3,多任务学习;包括主要的API推荐任务和辅助的对比学习任务。本发明的有益效果是:本发明提出了知识增强的图嵌入学习,使得方法和API的嵌入向量中不仅建模了调用交互还融合了代码中的层次结构信息,优化了方法和API的表示,达到更准确的推荐效果。
-
公开(公告)号:CN115599927A
公开(公告)日:2023-01-13
申请号:CN202211396787.9
申请日:2022-11-08
IPC分类号: G06F16/36 , G06F16/31 , G06F40/126 , G06N3/04
摘要: 本发明公开了一种基于度量学习的时序知识图谱补全方法及系统,包括:将若干个候选尾实体分别填入待补全三元组,获得若干个待评估四元组;根据第一头实体和所有候选尾实体的所有邻居实体、第一实体关系、以及第一时序信息,对第一头实体和候选尾实体进行实时编码,获得头实体编码结果和尾实体编码结果,并编码得到时序知识图谱中样本数据集对应的四元组编码结果;利用度量学习机制,结合所有编码结果,对各待评估四元组进行相似度评分排序,并根据排序结果确定待补全三元组对应的第一尾实体。本发明根据待补全三元组内的第一实体关系和第一时序信息,并基于少量样本数据,筛选得到第一尾实体,使得能够在保证补全效果的同时,减少整体运算数据。
-
公开(公告)号:CN115357909A
公开(公告)日:2022-11-18
申请号:CN202211279030.1
申请日:2022-10-19
摘要: 本发明提供了一种用于代码漏洞检测的全局信息感知图神经网络系统,包括关系代码表示模块和全局信息感知模块;关系代码表示模块在图卷积神经网络信息聚合过程中添加边类型信息,用边类型信息丰富节点特征表示,并使用注意力机制增强节点特征;全局信息感知模块在图卷积神经网络中使用大核卷积和小核卷积分别提取代码属性图中的全局特征和局部特征,学习更抽象高级的图表征用于代码漏洞分类。本发明的有益效果是:本发明能缓解传统图神经网络难以有效捕获大图图表征的缺陷,有效地学习代码量大的函数的代码属性图的向量表示并提升漏洞检测的准确率和F1指标。
-
-
-
-
-
-
-
-
-