网络安全防御系统、方法、设备及存储介质

    公开(公告)号:CN115801332A

    公开(公告)日:2023-03-14

    申请号:CN202211321238.5

    申请日:2022-10-26

    Abstract: 本发明提供一种网络安全防御系统、方法、设备及存储介质,涉及网络安全技术领域,其中网络安全防御系统,包括网络安全模块、主动防御模块、策略评估模块和被动防御模块,网络安全模块分别与主动防御模块和策略评估模块连接,策略评估模块与所述被动防御模块连接:网络安全模块针对获取的入侵告警信息,先经由主动防御模块通过自学习入侵警告信息后确定目标攻击类别及应对目标攻击类别的目标对抗策略集群信息,待网络安全模块执行目标对抗策略集群信息后生成的目标策略效能信息表征策略成功时,策略评估模块再生成主动防御成功的指示信息,并使得被动防御模块执行被动防御。使用网络安全防御系统能够大幅提高网络安全防御系统的可靠性和安全性。

    基于注意力机制和孪生反卷积的服务机器人抓取检测方法

    公开(公告)号:CN115648215A

    公开(公告)日:2023-01-31

    申请号:CN202211376120.2

    申请日:2022-11-04

    Abstract: 本发明属于服务机器人技术领域,具体涉及一种基于注意力机制和孪生反卷积的服务机器人抓取检测方法、系统、装置,旨在解决现有基于编码‑解码结构的抓取回归网络在解码过程中会呈现出棋盘格伪影,从而降低服务机器人抓取检测性能的问题。本发明方法包括:获取包含目标物体的原始彩色图像和原始深度图像;获取目标物体包围框,并得到第一深度图像区域、第一彩色图像区域;将图像区域调整至设定尺寸;对调整尺寸的图像区域进行编码;对编码后的特征图进行精修;将精修后的特征图进行解码;得到最佳抓取检测框,实现对目标物体的抓取检测。本发明消除了基于编码‑解码结构的抓取回归网络在解码过程中呈现出的棋盘格伪影,提高了抓取检测的性能。

    基于特征提取算法和关键帧的激光SLAM系统及方法

    公开(公告)号:CN113269094B

    公开(公告)日:2023-01-13

    申请号:CN202110580471.4

    申请日:2021-05-26

    Abstract: 本发明涉及一种基于特征提取算法和关键帧的激光SLAM系统及方法,所述激光SLAM系统包括特征提取模块,跟踪模块和建图模块;所述特征提取模块用于提取当前帧的平面特征点及边缘特征点;所述跟踪模块用于根据当前帧的平面特征点及边缘特征点,对当前帧进行实时跟踪,确定当前帧的位姿,并确定当前帧是否为关键帧;所述建图模块用于在所述当前帧为关键帧时,并行关键帧到局部地图的匹配以及根据关键帧的位置进行回环检测,优化位姿并得到全局一致的地图。使用一个关键帧到局部地图的匹配来获得更精确的位姿和全局地图,除此之外,一个回环检测线程来抑制大场景的累计误差。

    基于扰动观测技术的水下机器人作业控制方法

    公开(公告)号:CN114800487A

    公开(公告)日:2022-07-29

    申请号:CN202210247365.9

    申请日:2022-03-14

    Abstract: 本发明提供一种基于扰动观测技术的水下机器人作业控制方法,包括:水下机器人前往预定的目标区域,通过机载视觉识别待抓取的目标物体的识别码,确定待抓取的目标物体的位置信息;根据所设计的扰动观测器估计水下机器人受到的外界扰动,并基于饱和函数对扰动观测值进行平滑处理;设计两阶段快速滑模控制器加快水下机器人的控制响应速度;基于模糊推理表建立控制器输出与脚蹼频率的映射关系;综上,控制所述水下机器人进行水下作业,抓取所述的目标物体。本发明能够对外界扰动进行实时的估计和补偿处理,提高水下机器人的控制响应速度,实现扰动环境下的水下作业任务,为真实水下环境作业提供了理论基础,提高了水下作业的处理效率和准确性。

    面向杂质性目标的机器人操作协同抓取方法、系统及设备

    公开(公告)号:CN113001552B

    公开(公告)日:2022-07-15

    申请号:CN202110290232.5

    申请日:2021-03-16

    Abstract: 本发明属于机器人领域,具体涉及了一种面向杂质性目标的机器人操作协同抓取方法、系统及设备,旨在解决现有杂质目标抓取过程中难以适应动态环境的问题。本发明包括:根据视觉传感器获得工作区域的初始彩色图像和初始深度图像,分别提取第一图像、第二图像;所述第一图像为目标可见情况下的局部掩膜图像,所述第二图像为目标不可见情况下最大物体聚集区域的局部全一掩膜图像;利用所述第一图像或所述第二图像,采用操作动作协调机制,利用预构建的操作动作原语策略网络获取输出动作;机器人基于所述输出动作转化的控制指令进行动作。本发明可实现密集杂乱环境下杂质性目标的鲁棒抓取,并且不需要庞大的训练数据,能够适应动态环境。

    基于特征提取算法和关键帧的激光SLAM系统及方法

    公开(公告)号:CN113269094A

    公开(公告)日:2021-08-17

    申请号:CN202110580471.4

    申请日:2021-05-26

    Abstract: 本发明涉及一种基于特征提取算法和关键帧的激光SLAM系统及方法,所述激光SLAM系统包括特征提取模块,跟踪模块和建图模块;所述特征提取模块用于提取当前帧的平面特征点及边缘特征点;所述跟踪模块用于根据当前帧的平面特征点及边缘特征点,对当前帧进行实时跟踪,确定当前帧的位姿,并确定当前帧是否为关键帧;所述建图模块用于在所述当前帧为关键帧时,并行关键帧到局部地图的匹配以及根据关键帧的位置进行回环检测,优化位姿并得到全局一致的地图。使用一个关键帧到局部地图的匹配来获得更精确的位姿和全局地图,除此之外,一个回环检测线程来抑制大场景的累计误差。

    面向海产品抓取的双目视觉实时感知定位方法、系统、装置

    公开(公告)号:CN110232711B

    公开(公告)日:2021-08-13

    申请号:CN201910487521.7

    申请日:2019-06-05

    Abstract: 本发明属于计算机视觉领域,具体涉及一种面向海产品抓取的双目视觉实时感知定位方法、系统、装置,旨在解决海产品感知定位精度不够导致跟踪失败的问题。本系统方法包括获取双目视觉图像对并进行极线对齐;获取当前系统状态,若为true,基于深度学习算法获取对齐后的图像对中海产品的目标检测结果并根据左图、右图跟踪结果对比目标检测结果的中心点,得到跟踪器跟踪结果;若为false,所述目标检测结果包含任一预设种类海产品目标,将左图和右图的检测结果组成点对集合,进行极线、位置匹配,得到跟踪器跟踪结果,否则重新获取图相对;根据跟踪器跟踪结果和当前系统状态获取海产品种类及三维坐标。本发明提高了海产品感知定位的精度及可靠性。

    刚柔耦合欠驱动手指及三指欠驱动机器人手

    公开(公告)号:CN112621796A

    公开(公告)日:2021-04-09

    申请号:CN202110258364.X

    申请日:2021-03-10

    Inventor: 王睿 苏从嘉 王硕

    Abstract: 本发明涉及拟人机器人技术领域,提供了一种刚柔耦合欠驱动手指及三指欠驱动机器人手,主要包括手指支撑架、第一指节、第二指节和第三指节依次可转动连接,第二指节与第三指节构成四连杆机构;第一拉簧分别与手指支撑架和第一指节相连;第二拉簧分别与第一指节和第二指节相连,第二拉簧的弹性系数大于第一拉簧;柔性带的第一端与第二指节相连,柔性带的第二端与牵拉机构相连。本发明通过柔性带的牵拉运动实现手指的弯曲与伸展,并且柔性带直接与物体进行接触抓取,由于柔性带本身的柔顺特性,可以保证柔性带与物体能够形成较大的接触面积,提高了抓取不同形状、软硬及大小物体的自适应能力。

    面向斜坡区域的基于多线激光雷达的斜坡角度估计方法

    公开(公告)号:CN106646508B

    公开(公告)日:2020-04-07

    申请号:CN201611052553.7

    申请日:2016-11-24

    Abstract: 本发明公开了一种面向斜坡区域的基于多线激光雷达的斜坡角度估计方法,包括:获取给定斜坡区域的原始激光雷达点云数据DL;结合多线激光雷达坐标系OLXLYLZL到机器人坐标系ORXRYRZR的坐标变换关系,对DL进行坐标变换和滤波处理,生成新的激光雷达点云数据DS;基于DS,利用PROSAC算法进行平面拟合,得到斜坡坡面方程;从DS中选取3个到平面XRORYR的距离均不超过给定阈值dZ的数据点,并利用该组数据点计算得到地面方程;依据所述斜坡坡面方程和所述地面方程计算得到斜坡角度的估计结果。本发明利用多线激光雷达获取斜坡区域的距离信息并基于斜坡坡面法向量实现斜坡角度的估计,提高了斜坡角度估计的质量,为机器人环境理解等方面的应用提供技术支持。

    海产品抓取的双目视觉实时感知定位方法、系统、装置

    公开(公告)号:CN110232711A

    公开(公告)日:2019-09-13

    申请号:CN201910487521.7

    申请日:2019-06-05

    Abstract: 本发明属于计算机视觉领域,具体涉及一种海产品抓取的双目视觉实时感知定位方法、系统、装置,旨在解决海产品感知定位精度不够导致跟踪失败的问题。本系统方法包括获取双目视觉图像对并进行极线对齐;获取当前系统状态,若为true,基于深度学习算法获取对齐后的图像对中海产品的目标检测结果并根据左图、右图跟踪结果对比目标检测结果的中心点,得到跟踪器跟踪结果;若为false,所述目标检测结果包含任一预设种类海产品目标,将左图和右图的检测结果组成点对集合,进行极线、位置匹配,得到跟踪器跟踪结果,否则重新获取图相对;根据跟踪器跟踪结果和当前系统状态获取海产品种类及三维坐标。本发明提高了海产品感知定位的精度及可靠性。

Patent Agency Ranking