-
公开(公告)号:CN112767456B
公开(公告)日:2022-10-18
申请号:CN202110063029.4
申请日:2021-01-18
申请人: 南京理工大学
IPC分类号: G06T7/30 , G06V10/762
摘要: 本发明提出一种三维激光点云快速重定位方法,在先验地图的基础上,基于二维栅格化减少数据运算量提高实时性,同时基于Jaccard系数得到初步候选场景集合,在此基础上基于数据主方向与Pearson相关系数对初步候选场景集合进行筛选后得到候选场景集合,提高了实时性,再基于欧几里得聚类法进行三维聚类后对候选场景集合中每一历史帧场景构建二分图,并基于Hungarian匹配算法寻找到最大匹配关系后基于余弦相似性完成三维相似性度量,最终得到唯一候选场景,使得得到的对应关系求解更可靠,鲁棒性更高,配准结果更准确,方法整体实时性高,最后利用3D‑NDT算法得到两帧间的姿态变换关系矩阵完成重定位,本发明基于余弦相似度进行唯一候选场景筛选。
-
公开(公告)号:CN111199191A
公开(公告)日:2020-05-26
申请号:CN201911329045.2
申请日:2019-12-20
申请人: 南京理工大学
摘要: 本发明公开了一种基于刻度搜索的指针式仪表自动读取方法,包括对仪表图像进行预处理获得仪表区域二进制图像,对仪表区域二进制图像进行概率霍夫变换,识别仪表指针;利用虚拟搜索框进行仪表刻度搜索;对仪表区域二进制图像进行连通域检测,确定候选数字区域,基于卷积神经网络识别候选数字区域中的刻度值;分别计算每个刻度值中心与所有刻度线起点之间的距离,将每个刻度值分配给距离自身最短的刻度,并根据刻度线的关系确定没有标注数值的刻度的刻度值;根据指针与其最接近的两个刻度之间的距离关系确定仪表读数。本发明提出了刻度值识别和刻度值推算算法,从而不需要数据库中的先验信息。
-
公开(公告)号:CN111161337B
公开(公告)日:2022-09-06
申请号:CN201911312945.6
申请日:2019-12-18
申请人: 南京理工大学
摘要: 本发明公开了一种动态环境下的陪护机器人同步定位与构图方法。方法包括:标定双目相机与惯性测量单元IMU,通过双目相机采集图像数据,通过IMU采集加速度与角速度数据;对加速度与角速度进行处理得到IMU预积分;对图像进行预处理,获得每帧图像的深度数据,结合帧差法与IMU预积分检测并剔除运动物体区域;进行视觉里程计的计算,获得相机的位姿变化;将IMU预积分与视觉里程计进行紧耦合,采用阻尼牛顿法对陪护机器人的位姿进行优化;根据陪护机器人的最优位姿建构稀疏特征点地图与八叉树地图。本发明融合了双目相机与惯性测量单元,并且结合了运动物体区域检测技术,提高了系统的准确性与可靠性。
-
公开(公告)号:CN111006655A
公开(公告)日:2020-04-14
申请号:CN201911002571.8
申请日:2019-10-21
申请人: 南京理工大学
摘要: 本发明公开了一种机场轮式巡检机器人多场景自主导航定位方法,通过摄像头采集可见光图像信息,通过目标识别分析当前场景的路面情况,根据图像提取的有效特征数判别当前场景空旷度,并通过相邻关键帧比较计算场景相似度,以此三点作为巡检机器人导航定位方法选用的依据。当空旷度较高且为标准路面时,采用差分GPS结合编码器、视觉的自主导航定位方法;当空旷度较高且为砂石路面时,采用GPS结合视觉、IMU、编码器的自主导航定位方式;当场景空旷度较低、相似度较小时,则采用视觉SLAM自主导航定位方式。本发明不仅提高了机器人的环境适应度,同时也减少了大量传感器融合的弊端,减轻了机器人控制系统的计算压力。
-
公开(公告)号:CN109976344A
公开(公告)日:2019-07-05
申请号:CN201910253726.9
申请日:2019-03-30
申请人: 南京理工大学
IPC分类号: G05D1/02
摘要: 本发明提出了一种巡检机器人姿态矫正方法,具体步骤为:根据图像坐标系与摄像机坐标系、相机坐标系与世界坐标系变换关系完成摄像机标定,获得摄像机内参;基于ORB的特征提取匹配算法对巡检机器人拍摄的图像进行特征匹配,并对匹配结果进行优化;建立摄像机与机器人的位姿关系,根据获得的匹配点对进行相对位姿解算,得到机器人的当前旋转角,所述机器人的当前旋转角包括里程计旋转角和视觉旋转角;融合里程计旋转角和视觉旋转角得到机器人当前待矫正角度,完成姿态矫正。本发明采用距离阈值和交叉匹配两种优化方法进行匹配点优化,优化后匹配效果更加可靠。
-
公开(公告)号:CN111121767B
公开(公告)日:2023-06-30
申请号:CN201911312943.7
申请日:2019-12-18
申请人: 南京理工大学
摘要: 本发明公开了融合GPS的机器人视觉惯导组合定位方法,包括提取并匹配双目相机左右图像与前后图像特征点,计算特征点三维坐标与图像帧相对位姿;选取图像流中的关键帧,创建滑动窗口,并将关键帧加入滑动窗口;计算视觉重投影误差、IMU预积分残差与零偏残差并组合为联合位姿估计残差;使用L‑M法对联合位姿估计残差进行非线性优化,得到优化后的视觉惯导(VIO)机器人位姿;若当前时刻有GPS数据,则对GPS位置数据与VIO位姿估计数据作自适应抗差卡尔曼滤波,得到最终的机器人位姿;若无GPS数据,则以VIO位姿数据代替最终位姿数据。本发明提高了机器人的定位精度,减小了计算消耗,适应大范围、长时间的巡检需求。
-
公开(公告)号:CN111006655B
公开(公告)日:2023-04-28
申请号:CN201911002571.8
申请日:2019-10-21
申请人: 南京理工大学
摘要: 本发明公开了一种机场轮式巡检机器人多场景自主导航定位方法,通过摄像头采集可见光图像信息,通过目标识别分析当前场景的路面情况,根据图像提取的有效特征数判别当前场景空旷度,并通过相邻关键帧比较计算场景相似度,以此三点作为巡检机器人导航定位方法选用的依据。当空旷度较高且为标准路面时,采用差分GPS结合编码器、视觉的自主导航定位方法;当空旷度较高且为砂石路面时,采用GPS结合视觉、IMU、编码器的自主导航定位方式;当场景空旷度较低、相似度较小时,则采用视觉SLAM自主导航定位方式。本发明不仅提高了机器人的环境适应度,同时也减少了大量传感器融合的弊端,减轻了机器人控制系统的计算压力。
-
公开(公告)号:CN112767429B
公开(公告)日:2022-11-01
申请号:CN202110064425.9
申请日:2021-01-18
申请人: 南京理工大学
IPC分类号: G06T7/136 , G06V10/26 , G06V10/762
摘要: 本发明提出一种地面‑雪面点云快速分割方法,以解决大雪天气动态雪面变化导致重定位失败以及传统算法地面点分割不完全的问题。本发明在原始点云扇形栅格化的基础上,基于点云簇聚合得到初筛平面栅格,基于点云簇协方差特征值间的关系对点云簇所属类别进行判定,最后基于增量式拟合与三次B样条平滑曲线,利用二次投影的方法分别分割了可信地面点云与动态雪面点云。本发明采用点云协方差特征值对点云簇进行特征评判;对雪面与地面采取不同的拟合策略,在减少了地面点云的误判率的同时可利用本发明对动态雪面进行分割以此解决雪面动态变化对重定位带来的负面干扰问题。
-
公开(公告)号:CN109976344B
公开(公告)日:2022-05-27
申请号:CN201910253726.9
申请日:2019-03-30
申请人: 南京理工大学
IPC分类号: G05D1/02
摘要: 本发明提出了一种巡检机器人姿态矫正方法,具体步骤为:根据图像坐标系与摄像机坐标系、相机坐标系与世界坐标系变换关系完成摄像机标定,获得摄像机内参;基于ORB的特征提取匹配算法对巡检机器人拍摄的图像进行特征匹配,并对匹配结果进行优化;建立摄像机与机器人的位姿关系,根据获得的匹配点对进行相对位姿解算,得到机器人的当前旋转角,所述机器人的当前旋转角包括里程计旋转角和视觉旋转角;融合里程计旋转角和视觉旋转角得到机器人当前待矫正角度,完成姿态矫正。本发明采用距离阈值和交叉匹配两种优化方法进行匹配点优化,优化后匹配效果更加可靠。
-
公开(公告)号:CN111161337A
公开(公告)日:2020-05-15
申请号:CN201911312945.6
申请日:2019-12-18
申请人: 南京理工大学
摘要: 本发明公开了一种动态环境下的陪护机器人同步定位与构图方法。方法包括:标定双目相机与惯性测量单元IMU,通过双目相机采集图像数据,通过IMU采集加速度与角速度数据;对加速度与角速度进行处理得到IMU预积分;对图像进行预处理,获得每帧图像的深度数据,结合帧差法与IMU预积分检测并剔除运动物体区域;进行视觉里程计的计算,获得相机的位姿变化;将IMU预积分与视觉里程计进行紧耦合,采用阻尼牛顿法对陪护机器人的位姿进行优化;根据陪护机器人的最优位姿建构稀疏特征点地图与八叉树地图。本发明融合了双目相机与惯性测量单元,并且结合了运动物体区域检测技术,提高了系统的准确性与可靠性。
-
-
-
-
-
-
-
-
-