一种面向未知环境的多机器人自适应探测方法

    公开(公告)号:CN110554687A

    公开(公告)日:2019-12-10

    申请号:CN201810535896.1

    申请日:2018-05-30

    IPC分类号: G05D1/02

    摘要: 本发明提供一种面向未知环境的多机器人自适应探测方法及装置,包括:利用竞拍算法、动态规划算法和A*算法规划机器人探测点的探测路径;利用探测点的探测结果训练高斯过程回归模型,生成采样目标分布图;通过采样目标分布图的不确定性变化率判断是否需要继续探测;若继续探测,则利用自适应采集策略确定机器人的下一探测点。这种方法,通过不断增加探测点,增加探测结果,逐步生成更准确的采样目标分布图,有助于提升多机器人系统进行环境探测的探测效率,特别是对于解决未知环境区域的探测问题,可以有效地降低探测成本,提高探测效率。

    一种面向未知环境的多机器人自适应探测方法

    公开(公告)号:CN110554687B

    公开(公告)日:2023-08-22

    申请号:CN201810535896.1

    申请日:2018-05-30

    IPC分类号: G05D1/02

    摘要: 本发明提供一种面向未知环境的多机器人自适应探测方法及装置,包括:利用竞拍算法、动态规划算法和A*算法规划机器人探测点的探测路径;利用探测点的探测结果训练高斯过程回归模型,生成采样目标分布图;通过采样目标分布图的不确定性变化率判断是否需要继续探测;若继续探测,则利用自适应采集策略确定机器人的下一探测点。这种方法,通过不断增加探测点,增加探测结果,逐步生成更准确的采样目标分布图,有助于提升多机器人系统进行环境探测的探测效率,特别是对于解决未知环境区域的探测问题,可以有效地降低探测成本,提高探测效率。

    一种基于多元数据融合的地面无人平台跟踪方法

    公开(公告)号:CN115166716A

    公开(公告)日:2022-10-11

    申请号:CN202210671705.0

    申请日:2022-06-14

    摘要: 本发明属于地面无人平台环境感知技术领域,具体涉及一种基于多元数据融合的地面无人平台跟踪方法。构建目标运动学模型,以期望跟踪目标的位置、速度、角度和角速度作为状态向量,根据运动特征和过程噪声,构建非线性状态模型;选择激光雷达和毫米波雷达作为物理传感器,根据地面无人平台的定位定向数据对激光雷达的数据进行畸变校正,利用体素滤波、直通滤波、最小分割、欧式聚类等实现感兴趣区域的提取;基于非线性的状态方程,选择无迹卡尔曼滤波对激光雷达和毫米波雷达进行数据融合;选择目标的位置作为地面无人平台的任务路径点,通过局部路径规划、速度剖面生成、纯跟踪控制等实现地面无人平台的横向行驶和纵向行驶。

    一种用于全轮独立驱动车辆的驱动轮滑动检测方法及系统

    公开(公告)号:CN109131341A

    公开(公告)日:2019-01-04

    申请号:CN201810748631.X

    申请日:2018-07-09

    IPC分类号: B60W40/10

    摘要: 一种用于全轮独立驱动车辆的驱动轮滑动检测方法及系统,所述方法包括:根据所有驱动轮转速和预设的打滑概率表得到第一打滑概率;基于车辆的纵向加速度和各驱动轮的转速测量得到轮胎的第二打滑概率;基于所述第一打滑概率和所述第二打滑概率确定各驱动轮最终的打滑概率结果。本发明提供的方法无需额外的车辆速度、加速度传感器信息,也无需轮胎附着力与附着系数、垂向载荷等信息,计算量小,降低了系统成本、提高了系统可靠性;并可广泛应用于全轮驱动轮式车辆的驱动轮滑动检测与驱动防滑控制系统中去。

    一种基于相机与激光雷达数据融合的3D目标检测算法

    公开(公告)号:CN113985445B

    公开(公告)日:2024-08-09

    申请号:CN202110972750.5

    申请日:2021-08-24

    摘要: 本公开的基于相机与激光雷达数据融合的3D目标检测算法,通过选择YOLOv5模型作为2D目标检测器,在2D图像层进行目标的检测和跟踪,得到目标检测的2D边界框;根据相机和激光雷达的标定原理构建相机采集的图像数据和激光雷达采集的点云数据的映射关系,同步相机采集的图像数据和激光雷达采集的点云数据;以激光雷达采集的点云数据作为输入,采用地面分割算法和点云裁剪技术对点云数据中的背景点云和前景点云进行分割;根据图像数据和点云数据的映射关系,将分割后的前景点云投影到相机成像平面,以目标的2D边界框内的前景点云作为目标的点云候选区域,通过欧式聚类提取目标的3D边界框,实现目标的3D检测。能够在不依赖引导人员的位置的前提下实现动态场景下的3D目标检测。