-
公开(公告)号:CN113901801B
公开(公告)日:2024-05-07
申请号:CN202111084273.5
申请日:2021-09-14
申请人: 燕山大学
IPC分类号: G06F40/279 , G06F40/216 , G06N3/049 , G06N3/084 , G06N3/0442
摘要: 本发明涉及一种基于深度学习的文本内容安全检测方法。该方法包括算法部分,对应的检测器是一个卷积神经网络框架。本发明算法整体架构采用的是长短记忆网络LSTM,此结构是一种循环神经网络,实现简单并具有长期记忆功能;在此基础上,还加入了注意力机制,此机制可将计算机有限的资源高效利用,并且使用时能并行,可在减少网络参数的情况下提升准确率。另外,本发明的算法部分还加入了残差结构,使得学习结果对网络权重的波动变化更加敏感,同时残差结果对数据的波动更加敏感。本方法提出基于深度的方法,通过改变模型参数,可构建出不同的文本内容检测器。
-
公开(公告)号:CN113901801A
公开(公告)日:2022-01-07
申请号:CN202111084273.5
申请日:2021-09-14
申请人: 燕山大学
IPC分类号: G06F40/279 , G06F40/216 , G06N3/04 , G06N3/08
摘要: 本发明涉及一种基于深度学习的文本内容安全检测方法。该方法包括算法部分,对应的检测器是一个卷积神经网络框架。本发明算法整体架构采用的是长短记忆网络LSTM,此结构是一种循环神经网络,实现简单并具有长期记忆功能;在此基础上,还加入了注意力机制,此机制可将计算机有限的资源高效利用,并且使用时能并行,可在减少网络参数的情况下提升准确率。另外,本发明的算法部分还加入了残差结构,使得学习结果对网络权重的波动变化更加敏感,同时残差结果对数据的波动更加敏感。本方法提出基于深度的方法,通过改变模型参数,可构建出不同的文本内容检测器,剔除有害信息,为人们提供一个优质、安全的网络环境。
-
公开(公告)号:CN113610120B
公开(公告)日:2023-09-29
申请号:CN202110825738.1
申请日:2021-07-21
申请人: 燕山大学
IPC分类号: G06V10/764 , G06V10/762 , G06V10/82 , G06N3/0464 , G06N3/084
摘要: 本发明涉及一种基于弱监督学习的App图像内容安全检测方法。其包括算法部分,对应的检测器是一个卷积神经网络框架,本发明算法backbone部分采用的是Resnet。基于Resnet网络的优点,使得学习结果堆网络权重的波动变化更加敏感,同时残差结果对数据的波动更加敏感。另外,本发明的算法部分还加入了Inception结构,其结构在控制了计算量和参数的同时,获得了良好的分类。本方法提出采取弱监督学习的方法,通过改变模型参数,可构建见出不同的App内容检测器,剔除不良、违法信息,为人们提供一个优质、安全的网络环境;传统基于监督学习的图片检测方法的数据集标注主要靠人工,本发明采用弱监督学习方法,可大大降低人力成本。
-
公开(公告)号:CN113688740B
公开(公告)日:2024-02-27
申请号:CN202110984742.2
申请日:2021-08-26
申请人: 燕山大学
IPC分类号: G06V40/20 , G06V20/40 , G06V10/44 , G06V10/774 , G06V10/764 , G06V10/75 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/084
摘要: 本发明涉及图像处理技术领域,具体涉及一种基于多传感器融合视觉的室内姿势检测方法,包括如下步骤:S1,搭建和训练网络模型;S2,获取实时采集的视频数据和腰带式辅助检测设备的辅助检测参数;S3,将数据输入网络模型获取检测结果,通过卡尔曼滤波器和匈牙利指派算法跟踪患者;S4,将处理之后包含box和检测结果的视频实时同步上传网络中,一旦患者出现跌倒的情况及时发送警报;本发明结合数据融合、监督学习和深度学习方法,对患者的位置、与姿势进行实时跟踪检测和通知,并可短时间内对病人下一个姿势进行预测,实现对病人的跟踪和姿势进行检测。
-
公开(公告)号:CN113572742A
公开(公告)日:2021-10-29
申请号:CN202110750388.7
申请日:2021-07-02
申请人: 燕山大学
摘要: 本发明公开了一种基于深度学习的网络入侵检测方法,该方法训练过程为:将获取的数据集输入待训练的卷积神经网络模型,通过待训练的卷积神经网络模型提取网络流量特征;再通过空间金字塔模型“卷积层+上采样层+下采样层”反复提取网络流量更丰富的特征,得到多尺度的有效特征层;最后通过逻辑回归预测网络入侵分类置信度,使用逻辑分类模型预测类别,将真实框与预测框通过误差模型计算真实框与预测框的损失误差;然后通过反向梯度进行反复迭代优化,将损失误差最小的待训练的网络入侵检测模型作为训练好的网络入侵检测模型;本发明方法进一步提高了网络入侵的检测精度和速度,提高了对未知攻击的检测能力,降低了误报率。
-
公开(公告)号:CN113927597B
公开(公告)日:2023-04-07
申请号:CN202111226194.3
申请日:2021-10-21
申请人: 燕山大学
IPC分类号: B25J9/16
摘要: 本发明涉及深度学习与视觉机器人技术领域,具体涉及基于深度学习的机器人连接件六自由度位姿估计系统,包括如下步骤:利用虚拟现实技术制作数据集;改进DOPE算法对连接件进行6D位姿估计;搭建机器人连接件位姿估计抓取平台;本发明利用虚拟现实技术对数据集做了改进,使数据集背景信息多样化,即使换到新环境也不会影响精度;对于特定的工业场景制作特定的数据集,利用虚拟现实技术进行制作,极大地减轻了人工标注物体的工作量;同时在单目视觉机器人连接件分拣场景中,对遮挡问题利用随机掩模局部处理方法对数据集进行了改进,提高了网络在处理物体遮挡时的准确度。
-
公开(公告)号:CN115905107A
公开(公告)日:2023-04-04
申请号:CN202211403872.3
申请日:2022-11-10
申请人: 燕山大学
摘要: 本发明公开了一种支持IRT的PROFINET SoC芯片架构,包括包含RISC‑V CPU模块、PROFINET IP模块、IEC 1158帧编/解码模块、Manchester编/解码模块、RAM数据存储模块、CRC帧校验模块、DMA模块和MEMORY模块,以及各模块之间的AXI4通讯关系,本发明通过设计RISC‑V CPU+FPGA异构SOC,实现灵活的可编程性和通讯硬件加速性能;Programming system和Programmable logic之间通过AXI4片内总线通讯,实现片内数据高效,准确传输。
-
公开(公告)号:CN113927597A
公开(公告)日:2022-01-14
申请号:CN202111226194.3
申请日:2021-10-21
申请人: 燕山大学
IPC分类号: B25J9/16
摘要: 本发明涉及深度学习与视觉机器人技术领域,具体涉及基于深度学习的机器人连接件六自由度位姿估计系统,包括如下步骤:利用虚拟现实技术制作数据集;改进DOPE算法对连接件进行6D位姿估计;搭建机器人连接件位姿估计抓取平台;本发明利用虚拟现实技术对数据集做了改进,使数据集背景信息多样化,即使换到新环境也不会影响精度;对于特定的工业场景制作特定的数据集,利用虚拟现实技术进行制作,极大地减轻了人工标注物体的工作量;同时在单目视觉机器人连接件分拣场景中,对遮挡问题利用随机掩模局部处理方法对数据集进行了改进,提高了网络在处理物体遮挡时的准确度。
-
公开(公告)号:CN113688740A
公开(公告)日:2021-11-23
申请号:CN202110984742.2
申请日:2021-08-26
申请人: 燕山大学
摘要: 本发明涉及图像处理技术领域,具体涉及一种基于多传感器融合视觉的室内姿势检测方法,包括如下步骤:S1,搭建和训练网络模型;S2,获取实时采集的视频数据和腰带式辅助检测设备的辅助检测参数;S3,将数据输入网络模型获取检测结果,通过卡尔曼滤波器和匈牙利指派算法跟踪患者;S4,将处理之后包含box和检测结果的视频实时同步上传网络中,一旦患者出现跌倒的情况及时发送警报;本发明结合数据融合、监督学习和深度学习方法,对患者的位置、与姿势进行实时跟踪检测和通知,并可短时间内对病人下一个姿势进行预测,实现对病人的跟踪和姿势进行检测。
-
公开(公告)号:CN113591093B
公开(公告)日:2023-05-16
申请号:CN202110831387.5
申请日:2021-07-22
申请人: 燕山大学
IPC分类号: G06F21/57 , G06N3/045 , G06N3/0455 , G06N3/0499 , G06N3/084
摘要: 本发明公开了一种基于自注意力机制的工业软件漏洞检测方法,该方法采用自注意力机制对软件漏洞进行检测,检测过程分为代码预处理过程和漏洞检测模型训练测试过程;首先获取数据库漏洞程序,提取库API函数调用和程序片段,分为5类漏洞问题构建成工业软件漏洞的漏洞库,然后对漏洞库的关键点进行切片,将切片后的程序组装成行关联代码并进行数据处理,之后将行关联代码转换成对应的向量获得特征向量,并处理成相同长度大小;将特征向量与位置编码向量相加作为漏洞检测模型的输入,然后训练D_transformer神经网络,将训练好的模型通过测试样本验证模型的检测能力。本发明方法进一步提高了检测分类精度,降低了漏报率。
-
-
-
-
-
-
-
-
-