-
公开(公告)号:CN114608568B
公开(公告)日:2024-05-03
申请号:CN202210160719.6
申请日:2022-02-22
申请人: 北京理工大学
摘要: 本发明针对室内外多场景定位算法选取与切换问题,提出了一种基于多传感器信息即时融合定位方法,解决了单一传感器鲁棒性差、精确度低、实时性差的问题。包括:步骤一、通过雷达利用NDT方法确定无人车平台的当前位置与姿态,并采用欧式距离残差的方法求解定位置信度;步骤二、将GPS和组合惯导发布的原始定位信息与步骤一得到的当前位置与姿态进行匹配,采用基于滑动窗口和LO‑RANSAC方法进行GPS定位信息的置信度估计,得到经过时间戳对齐的激光雷达和GPS定位信息配对点集;步骤三、将步骤一得到的当前位置与姿态和定位置信度以及步骤二得到的激光雷达和GPS定位信息配对点集结合IMU位姿信息采用UKF方法进行融合,得到无人车平台实时高精度定位结果。
-
公开(公告)号:CN114596360B
公开(公告)日:2023-06-27
申请号:CN202210161358.7
申请日:2022-02-22
申请人: 北京理工大学
摘要: 本发明公开一种基于图拓扑的双阶段主动即时定位与建图算法,该算法分为全局/局部两阶段;首先,算法获取到无人平台当前的位姿,位姿图和导航地图,计算局部前沿点和候选回环点。若上述点存在,则进入局部探索阶段,通过快速随机生成树算法构建局部拓扑图,利用Dijkstra算法求解到达局部拓扑图的任意顶点的最短路径,对路径集根据局部探索与主动回环联合目标函数进行打分,求解最优路径,同时根据局部拓扑图和局部前沿点更新全局拓扑图和全局前沿点。反之,在局部范围无局部前沿点且无回环需求时,算法进入全局探索阶段,无人平台依据全局拓扑图前往未探索区域重新进行局部探索,直到完成指定区域探索之后,返回出发点,探索任务完成。
-
公开(公告)号:CN114608568A
公开(公告)日:2022-06-10
申请号:CN202210160719.6
申请日:2022-02-22
申请人: 北京理工大学
摘要: 本发明针对室内外多场景定位算法选取与切换问题,提出了一种基于多传感器信息即时融合定位方法,解决了单一传感器鲁棒性差、精确度低、实时性差的问题。包括:步骤一、通过雷达利用NDT方法确定无人车平台的当前位置与姿态,并采用欧式距离残差的方法求解定位置信度;步骤二、将GPS和组合惯导发布的原始定位信息与步骤一得到的当前位置与姿态进行匹配,采用基于滑动窗口和LO‑RANSAC方法进行GPS定位信息的置信度估计,得到经过时间戳对齐的激光雷达和GPS定位信息配对点集;步骤三、将步骤一得到的当前位置与姿态和定位置信度以及步骤二得到的激光雷达和GPS定位信息配对点集结合IMU位姿信息采用UKF方法进行融合,得到无人车平台实时高精度定位结果。
-
公开(公告)号:CN114596360A
公开(公告)日:2022-06-07
申请号:CN202210161358.7
申请日:2022-02-22
申请人: 北京理工大学
摘要: 本发明公开一种基于图拓扑的双阶段主动即时定位与建图算法,该算法分为全局/局部两阶段;首先,算法获取到无人平台当前的位姿,位姿图和导航地图,计算局部前沿点和候选回环点。若上述点存在,则进入局部探索阶段,通过快速随机生成树算法构建局部拓扑图,利用Dijkstra算法求解到达局部拓扑图的任意顶点的最短路径,对路径集根据局部探索与主动回环联合目标函数进行打分,求解最优路径,同时根据局部拓扑图和局部前沿点更新全局拓扑图和全局前沿点。反之,在局部范围无局部前沿点且无回环需求时,算法进入全局探索阶段,无人平台依据全局拓扑图前往未探索区域重新进行局部探索,直到完成指定区域探索之后,返回出发点,探索任务完成。
-
公开(公告)号:CN118672268A
公开(公告)日:2024-09-20
申请号:CN202410763223.7
申请日:2024-06-13
申请人: 北京理工大学
IPC分类号: G05D1/43 , G05D1/246 , G05D1/633 , G05D1/644 , G05D1/693 , G05D1/247 , G05D1/648 , G05D109/10
摘要: 本发明涉及无人系统自主规划领域,具体涉及一种异构多无人车对多目标的融合任务与路径规划方法。本发明的方法针对任务分配和路径规划两个任务,设计了耦合的算法,通过计算出当前分配结果的路径和路程和,以此进行分配结果的迭代,保证得到的是真实路程和而不是估计路程和。同时,在生成每个分配方案时,都可以得到与之对应的路径,而不需要在最终方案生成后继续计算最终分配方案的路径。
-
公开(公告)号:CN114608554A
公开(公告)日:2022-06-10
申请号:CN202210160734.0
申请日:2022-02-22
申请人: 北京理工大学
摘要: 本发明公开了一种手持SLAM设备以及机器人即时定位与建图方法。本发明将相机、惯性测量器件以及激光雷达的优点相结合,激光‑惯性子系统为视觉‑惯性子系统提供深度信息,由此消除单目相机存在的尺度不确定性;而视觉‑惯性子系统为激光‑惯性子系统提供先验估计和回环检测信息,进而得到更加精确的位姿估计。两个系统优势互补,大大提高了即时定位与建图系统的精确性和鲁棒性。同时,设计的手持SLAM设备便于携带,并为定位的准确性奠定基础。
-
公开(公告)号:CN118536683A
公开(公告)日:2024-08-23
申请号:CN202410457526.6
申请日:2024-04-16
申请人: 北京理工大学
IPC分类号: G06Q10/047 , G06Q50/40 , G06F18/23
摘要: 本发明涉及车辆决策规划与阵位配置领域,具体涉及一种通过聚类映射对多目标远距离作业的阵位生成方法,以聚类映射的方式大幅简化多体远距离作业的任务分配问题中的目标数量。采用空间密度聚类的方法对目标信息进行数据处理,设计提出了一种极大拓扑映射算法进行阵位计算。该算法可以在复杂目标情形下保障车阵位映射的安全性和鲁棒性。本发明公开了一种通过聚类映射对区域目标远距离作业的阵位生成方法。通过对目标进行聚类,求取拓扑覆盖后的阵位,并在满足约束的情况下调整阵位,形成一个完整的算法工具,大大提高了自动规划目标阵位的安全性、准确性与快速性。
-
公开(公告)号:CN114608554B
公开(公告)日:2024-05-03
申请号:CN202210160734.0
申请日:2022-02-22
申请人: 北京理工大学
摘要: 本发明公开了一种手持SLAM设备以及机器人即时定位与建图方法。本发明将相机、惯性测量器件以及激光雷达的优点相结合,激光‑惯性子系统为视觉‑惯性子系统提供深度信息,由此消除单目相机存在的尺度不确定性;而视觉‑惯性子系统为激光‑惯性子系统提供先验估计和回环检测信息,进而得到更加精确的位姿估计。两个系统优势互补,大大提高了即时定位与建图系统的精确性和鲁棒性。同时,设计的手持SLAM设备便于携带,并为定位的准确性奠定基础。
-
公开(公告)号:CN117706575A
公开(公告)日:2024-03-15
申请号:CN202311477750.3
申请日:2023-11-08
申请人: 北京理工大学
摘要: 本发明涉及一种外部旋转3D激光雷达设备及其同时定位与建图方法,特别涉及一种外部旋转3D激光雷达设备以及适配于该设备的同时定位与建图方法,属于机器人感知定位与建图技术领域。本发明设计了一种通过外部电机旋转混合固态3D激光雷达设备,该设备可以显著提升激光雷达的水平视场角,搭载于地面机器人后可全面提升机器人的360度环境感知能力。将误差状态卡尔曼滤波与位姿图优化相结合,整体框架分为前端里程计和后端回环优化两部分,不仅可以实时输出满足机器人需求的高频里程计,还能通过后端的回环优化消除累计误差,修正里程计结果,进一步更新地图,最后输出高精度的全局点云地图。
-
-
-
-
-
-
-
-