带角度估计的管线焊点深度学习视觉检测方法

    公开(公告)号:CN112990269B

    公开(公告)日:2022-10-14

    申请号:CN202110181248.2

    申请日:2021-02-08

    Abstract: 本发明属于工业智能质检检测技术领域,具体涉及一种带角度估计的管线焊点视觉检测方法、系统、设备,旨在现有的管线焊点视觉检测方法难以适应检测场景多变、目标尺寸、遮挡、光照多变的复杂场景,导致管线焊点检测精度差以及不能检测焊点所在局部管线的旋转角度的问题。本方法包括获取待检测焊点的连接管线场景图像,作为输入图像;通过预训练的管线焊点检测模型检测输入图像中的连接管线上是否包含焊点,若包含,则输出焊点的类别、位置、尺寸及旋转角度;所述管线焊点检测模型基于深度神经网络构建。本发明提高了管线焊点的检测精度,并解决了不能检测焊点所在局部管线的角度的问题。

    五自由度全驱动仿人大拇指和仿人灵巧手

    公开(公告)号:CN114536380B

    公开(公告)日:2022-09-06

    申请号:CN202210442625.8

    申请日:2022-04-26

    Abstract: 本发明涉及仿人灵巧手技术领域,提供一种五自由度全驱动仿人大拇指和仿人灵巧手,该五自由度全驱动仿人大拇指包括拇指基座、第一指节、第二指节、第三指节、第四指节和第五指节;第一指节与拇指基座可转动连接形成第一关节,第二指节与第一指节可转动连接形成第二关节,第三指节与第二指节可转动连接形成第三关节,第四指节与第三指节可转动连接形成第四关节,第五指节与第四指节可转动连接形成第五关节;第二关节、第四关节和第五关节具有屈伸自由度,第一关节和第三关节具有回转自由度。该五自由度大拇指的灵巧性超越了现有灵巧手大拇指,活动范围比人手大拇指更大,有助于实现部分人手不能实现的动作。

    五自由度全驱动仿人大拇指和仿人灵巧手

    公开(公告)号:CN114536380A

    公开(公告)日:2022-05-27

    申请号:CN202210442625.8

    申请日:2022-04-26

    Abstract: 本发明涉及仿人灵巧手技术领域,提供一种五自由度全驱动仿人大拇指和仿人灵巧手,该五自由度全驱动仿人大拇指包括拇指基座、第一指节、第二指节、第三指节、第四指节和第五指节;第一指节与拇指基座可转动连接形成第一关节,第二指节与第一指节可转动连接形成第二关节,第三指节与第二指节可转动连接形成第三关节,第四指节与第三指节可转动连接形成第四关节,第五指节与第四指节可转动连接形成第五关节;第二关节、第四关节和第五关节具有屈伸自由度,第一关节和第三关节具有回转自由度。该五自由度大拇指的灵巧性超越了现有灵巧手大拇指,活动范围比人手大拇指更大,有助于实现部分人手不能实现的动作。

    零件表面瑕疵检测中神经网络的训练样本的合成方法

    公开(公告)号:CN109584206B

    公开(公告)日:2021-07-06

    申请号:CN201811221719.2

    申请日:2018-10-19

    Inventor: 孙佳 王鹏

    Abstract: 本发明属于表面瑕疵检测技术领域,具体提供了一种零件表面瑕疵检测中神经网络的训练样本的合成方法。训练样本的合成方法包括:步骤S1:获取带瑕疵零件样本的图像;步骤S2:从带瑕疵零件样本的图像中获取瑕疵图像;步骤S3:提取瑕疵图像的图像特征并将扰动加入图像特征来生成训练样本。通过这样的方法获取训练样本,只需获取少量的带有瑕疵的零件,通过获取少量的瑕疵零件表面的图像,对图像中存在的瑕疵进行提取获取各种瑕疵的图像,从各种瑕疵的图像中提取瑕疵的图像特征,再对各图像特征加入相应的扰动以生成数量巨大的训练样本,满足了神经网络的训练需求,解决了用于神经网络训练的训练样本获取困难,无法获取大量训练样本的问题。

    基于深度卷积生成对抗网络样本生成的外观瑕疵检测方法

    公开(公告)号:CN109598287B

    公开(公告)日:2021-06-08

    申请号:CN201811278762.2

    申请日:2018-10-30

    Inventor: 王鹏 孙东平 孙佳

    Abstract: 本发明涉及一种基于深度卷积生成对抗网络样本生成的外观瑕疵检测方法,包括:将原始采集的小样本精密零件瑕疵图像提取瑕疵区域,构成原始小样本瑕疵块数据集,并利用该数据集训练DCGAN模型并生成全新的瑕疵块;将原始小样本精密零件瑕疵数据集中的每一张完整图像拆分成若干图像块数据,构成图像拆分训练数据集,并将数据集与生成瑕疵块数据集一起作为训练集训练Faster R‑CNN模型;对待检测的零件瑕疵图像进行图形块拆分,并通训练好的Faster R‑CNN模型行瑕疵检测及分类。本发明解决了小样本瑕疵检测问题、提高了小目标对象的检测及分类精度。

    叶片精整作业机器人系统
    107.
    发明公开

    公开(公告)号:CN112828728A

    公开(公告)日:2021-05-25

    申请号:CN202110220356.6

    申请日:2021-02-26

    Inventor: 王鹏 王瑛璐

    Abstract: 本发明属于高精度自动化复杂曲面精整技术领域,具体涉及一种叶片精整作业机器人系统,旨在解决现有技术中航空发动机叶片精整作业自动化程度低、效率低、加工件加工精度和表面质量精度低与不稳定的问题。本申请系统中的上位机模块能够在线测量待加工叶片当前三维尺寸数据,并与待加工叶片目标尺寸数据的比对计算,将外形尺寸加工余量转化为机器人工艺参数,根据航空发动机叶片曲面外形与机器人工艺参数对机器人的精整运动路径进行规划,并向机器人控制器发出精整运动控制指令程序,同时借助力控柔顺系统,实现对复杂曲面叶片对象的高精度自动化精整。

    显著物体区域检测方法及系统

    公开(公告)号:CN110942095A

    公开(公告)日:2020-03-31

    申请号:CN201911178510.7

    申请日:2019-11-27

    Abstract: 本发明涉及一种显著物体区域检测方法及系统,所述检测方法包括:通过采用多层卷积网络从待检测图像中进行特征抽取,获得多层级特征图;对多层级特征图进行显著值非线性回归处理,得到初级显著图;对所述初级显著图进行三次双线性插值处理,获得与所述待检测图像匹配的终极显著图。本发明通过采用多层卷积网络进行特征图抽取获得多层级特征图,进而进行显著值非线性回归处理得到初级显著图,通过三次双线性插值处理得到所述待检测图像匹配的终极显著图,从而实现端到端的特征抽取,可提高抽取图像显著物体区域的效率。

    结合小样本实例分割和三维匹配的物体位姿估计方法

    公开(公告)号:CN110322512A

    公开(公告)日:2019-10-11

    申请号:CN201910576543.0

    申请日:2019-06-28

    Abstract: 本发明属于计算机视觉和机器人技术领域,特别涉及一种结合小样本实例分割和三维匹配的物体位姿估计方法,旨在为了解决现有六自由度物体位姿估计方法对背景杂乱、前景物体遮挡鲁棒性弱,需要训练样本数量大的问题,本发明基于有限样本扩容变换得到的大量训练样本,训练得到实例分割模型,使用训练好的实例分割模型对包含待测目标物体场景的彩色图像进行实例分割,依据实例分割结果获取目标物体的深度图像点云和目标物体三维模型,通过预设的三维匹配方法将目标物体图像点云和目标物体三维模型进行匹配,并确定出目标物体的六自由度位姿。本发明能够在训练样本有限、背景杂乱、前景物体遮挡条件下,有效进行六自由度物体位姿估计,鲁棒性好。

    显著区域检测方法和检测系统

    公开(公告)号:CN106570498B

    公开(公告)日:2019-06-14

    申请号:CN201610889100.3

    申请日:2016-10-12

    Inventor: 王鹏 罗永康

    Abstract: 本发明涉及一种显著区域检测方法和检测系统。其中,该方法包括对输入图像进行超像素分割,获得图像超像素处理单元;接着,基于图像超像素处理单元,度量输入图像的拓扑背景置信度;然后,基于输入图像的拓扑背景置信度,计算图像颜色和空间位置特征上的对比度,获得图像初级显著值;再利用紧凑性扩散方法修正图像初级显著值,得到紧凑性显著图;接着又利用输入图像的拓扑背景置信度与紧凑性显著图,进行显著值赋值,得到图像单尺度显著图;最后,利用多尺度融合的方法对图像单尺度显著图进行处理,得到尺度显著图,从而获得图像显著物体区域。通过采用上述技术方案,解决了如何快速有效地抽取图像显著区域的技术问题。

Patent Agency Ranking