-
公开(公告)号:CN112270249B
公开(公告)日:2024-01-23
申请号:CN202011152483.9
申请日:2020-10-26
申请人: 湖南大学
摘要: 本发明提供了一种融合RGB‑D视觉特征的目标位姿估计方法。所述融合RGB‑D视觉特征的目标位姿估计方法包括如下步骤:获取包含目标物体的RGB图像和深度图像;将RGB图像输入至主干网络进行RGB特征提取和实例分割,获得多通道卷积特征图像和目标物体分割掩码;利用目标分割掩码裁剪多通道卷积特征图像和深度图像,得到每个目标物体的图像卷积特征块和深度图像块;对目标物体任意尺寸的图像卷积特征块进行空间金字塔池化,得到规范大小的目标RGB特征向量;从深度图像块获取目标物体点云,并提取点云特征,获得点云特征向量;融合目标的RGB特征和点云特征,进行目标位置估计和姿态估计,输出每个对应目标的类别和位姿P。本发明目标位姿估计精度高、过程简便。
-
公开(公告)号:CN114714365B
公开(公告)日:2022-08-23
申请号:CN202210641069.7
申请日:2022-06-08
申请人: 湖南大学
摘要: 本发明具体公开了一种基于云平台的无序工件抓取方法及其系统,所述方法包括:搭建硬件系统和云平台;图像采集装置标定获取内参;手眼标定与拾取装置标定;利用预设训练好的实例分割模型获取目标工件的点云信息;将目标工件的点云信息与预设实例模板的点云信息进行ICP配准;算机器人基座坐标系与目标工件坐标系之间的转换矩阵,进而得到目标工件的位姿信息;基于目标工件的位姿信息,通过服务器控制机器人系统对目标工件进行抓取,进而完成目标工件的上料工作。本发明能够有效解决工业场景复杂、存在堆叠现象且采集图像边缘与纹理信息不明显所造成位姿获取难度高的问题。
-
公开(公告)号:CN114714365A
公开(公告)日:2022-07-08
申请号:CN202210641069.7
申请日:2022-06-08
申请人: 湖南大学
摘要: 本发明具体公开了一种基于云平台的无序工件抓取方法及其系统,所述方法包括:搭建硬件系统和云平台;图像采集装置标定获取内参;手眼标定与拾取装置标定;利用预设训练好的实例分割模型获取目标工件的点云信息;将目标工件的点云信息与预设实例模板的点云信息进行ICP配准;算机器人基座坐标系与目标工件坐标系之间的转换矩阵,进而得到目标工件的位姿信息;基于目标工件的位姿信息,通过服务器控制机器人系统对目标工件进行抓取,进而完成目标工件的上料工作。本发明能够有效解决工业场景复杂、存在堆叠现象且采集图像边缘与纹理信息不明显所造成位姿获取难度高的问题。
-
公开(公告)号:CN113608127B
公开(公告)日:2021-12-21
申请号:CN202111169167.7
申请日:2021-10-08
申请人: 湖南大学
IPC分类号: G01R31/367 , G01R31/36 , G01R31/378 , G01R31/385 , G01R31/00
摘要: 本发明公开了一种圆柱形锂离子电池热异常检测与定位方法,包括:建立圆柱电池温度空间分布模型;通过坐标变换得到归一化后的空间位置和时间量并建立扰动和热异常存在时归一化的温度空间分布模型;根据预设的优化目标函数辨识归一化的温度空间分布模型的参数;采集电池表面温度数据、电池电流和端电压数据,结合归一化的温度空间分布模型构建反步边界观测器;根据反步边界观测器和归一化的温度空间分布模型得到误差系统,通过逐次逼近法对误差系统进行求解得到输出温度估计误差;对输出温度估计误差采用三次样条插值方法得到分布式残差量,代入预设的残差评估函数得到评估值,当评估值大于预设的阈值时,定位到空间位置处存在热异常。
-
公开(公告)号:CN112284290B
公开(公告)日:2021-09-28
申请号:CN202011122728.3
申请日:2020-10-20
申请人: 湖南大学
IPC分类号: G01B11/24
摘要: 本发明公开了一种航空发动机叶片机器人自主测量方法及系统。该方法包括:标定伺服旋转工作台、结构光三维扫描仪、机器人,根据航空发动机叶片设计模型布置测量点,规划机器人测量的路径,测量航空发动机叶片的三维形貌,处理航空发动机叶片的测量数据。该系统包括硬件系统和软件系统,硬件系统包含伺服旋转工作台、叶片测量夹具、结构光三维扫描仪、机器人、机器人控制柜、工业计算机;软件系统包含测量系统标定模块、测量点布局模块、机器人测量路径规划模块、点云数据处理及可视化模块、三维模型格式转换模块、人机交互模块、测量过程控制模块。本发明根据产品设计模型自动布局测量点并生成机器人测量路径,实现机器人自主测量。
-
公开(公告)号:CN112270249A
公开(公告)日:2021-01-26
申请号:CN202011152483.9
申请日:2020-10-26
申请人: 湖南大学
摘要: 本发明提供了一种融合RGB‑D视觉特征的目标位姿估计方法。所述融合RGB‑D视觉特征的目标位姿估计方法包括如下步骤:获取包含目标物体的RGB图像和深度图像;将RGB图像输入至主干网络进行RGB特征提取和实例分割,获得多通道卷积特征图像和目标物体分割掩码;利用目标分割掩码裁剪多通道卷积特征图像和深度图像,得到每个目标物体的图像卷积特征块和深度图像块;对目标物体任意尺寸的图像卷积特征块进行空间金字塔池化,得到规范大小的目标RGB特征向量;从深度图像块获取目标物体点云,并提取点云特征,获得点云特征向量;融合目标的RGB特征和点云特征,进行目标位置估计和姿态估计,输出每个对应目标的类别和位姿P。本发明目标位姿估计精度高、过程简便。
-
公开(公告)号:CN111896556A
公开(公告)日:2020-11-06
申请号:CN202010773562.5
申请日:2020-08-04
申请人: 湖南大学
IPC分类号: G01N21/958 , G01N21/88
摘要: 本发明公开了一种基于机器视觉的玻璃瓶底缺陷检测方法及系统,其方法为:步骤1,获取瓶底图像,定位与提取瓶底区域,并将瓶底区域划分为三个子区域:中心圆平面区域、环形平面区域和环形纹理区域;步骤2,采用基于显著性检测的方法对中心圆平面区域进行缺陷检测并标记;步骤3,采用基于多尺度滤波的方法对环形平面区域进行缺陷检测并标记;步骤4,采用基于模板匹配的方法对环形纹理区域进行缺陷检测并标记;步骤5,将步骤2至4得到的已标记好缺陷的中心圆平面区域、环形平面区域和环形纹理区域进行融合,得到标记有所有缺陷的瓶底图像。本发明对瓶底的缺陷检测精度更高、执行速度更快。
-
公开(公告)号:CN106052792B
公开(公告)日:2019-02-26
申请号:CN201610329264.0
申请日:2016-05-18
申请人: 湖南大学 , 佛山市湘德智能科技有限公司
发明人: 王耀南 , 郑叶欣 , 蒋笑笑 , 周显恩 , 彭玉 , 王海洲 , 冯明涛 , 范涛 , 严佳栋 , 黄森林 , 刘学兵 , 黄志鸿 , 毛建旭 , 朱青 , 刘远强 , 刘芳 , 李明军
摘要: 本发明公开了一种基于机器视觉的PET瓶液位检测方法及装置,该装置采用一台相机、两个面光源、五个反射镜面以及工业控制机和PLC控制单元,通过五个镜面的搭配使用,获取PET瓶多角度图像,该装置具有结构简单、调试方便、成本低以及速度快的优点;该检测方法采用简单高效的投影梯度法获取液位信息,实现PET瓶液位的检测,本发明所述的检测方法精度高、运算快,快速准确的实现了PET瓶的液位检测。
-
公开(公告)号:CN115147488A
公开(公告)日:2022-10-04
申请号:CN202210789995.9
申请日:2022-07-06
申请人: 湖南大学
IPC分类号: G06T7/73 , G06V10/82 , G06V10/80 , G06V10/44 , G06V10/766 , G06V20/70 , G06T1/00 , G06N3/04 , G06N3/08
摘要: 本发明公开了一种基于密集预测的工件位姿估计方法与抓取系统,搭建密集逐像素预测网络并训练,获取包含工件的场景RGB图像输入该预测网络,利用网络中的特征金字塔网络提取图像的逐像素卷积特征,采用三个回归分支网络从逐像素卷积特征中分别预测逐像素的语义信息、中心点信息和关键点信息,利用前述信息进行多工件实例分割,得到每个工件实例的密集关键点预测,采用投票策略确定各工件关键点2D位置,通过工件关键点2D位置以及对应工件模型上的3D位置建立2D‑3D对应关系,采用UD‑PnP算法计算工件的6D位姿。该方法网络结构简单、鲁棒性强、执行速度快,适合复杂工业场景下弱纹理、多工件任意位姿工件的抓取任务。
-
公开(公告)号:CN114565629A
公开(公告)日:2022-05-31
申请号:CN202210189810.0
申请日:2022-02-28
申请人: 湖南大学
IPC分类号: G06T7/13
摘要: 本发明公开了一种基于多尺度邻域的大型蒙皮边缘缺陷检测方法。该方法通过构建一种多尺度空间搜索方法,更好的判断对应关键点的空间信息,并以此为依据优化搜索方向以及识别三维点云边缘点,极大的提升了三维图像边缘识别的运行效率,提高了识别成功率;同时,对提取的边界点有序化,并用遮罩特征值变化检测缺陷。该方法能够在更短的时间内更加精确地实现点云图像的边缘缺陷检测,具有极高的算法鲁棒性,能够应用于大尺度、结构复杂且效率要求高的精密检测领域。
-
-
-
-
-
-
-
-
-