一种结合深度强化学习和内在动机的移动机器人自主导航方法

    公开(公告)号:CN116147627A

    公开(公告)日:2023-05-23

    申请号:CN202310010366.6

    申请日:2023-01-04

    Abstract: 本发明公开了一种结合深度强化学习和内在动机的移动机器人自主导航方法,利用视觉传感器从环境中获取信息,使用D3QN算法来进行最优动作的选择,并且针对导航环境中存在的奖励稀疏的问题,引入了基于好奇心的内在动机模块,利用预测状态特征向量和实际状态特性向量之间的差异作为好奇心,使得机器人能够在奖励稀疏的情况下仍保持较高的探索效率。基于Pygame仿真平台搭建实验环境,进行单目标点导航和多目标点导航两组实验,实验结果证明,该模型能够更加有效的完成导航任务,适用于多种导航场景。本发明使用深度强化学习的方法解决了传统的机器人路径规划方法存在着的基于网格的地图表示方法在精度与内存需求之间的矛盾,实现移动机器人无碰撞自主导航。

    一种基于改进好奇心的移动机器人自主认知导航方法

    公开(公告)号:CN116757056A

    公开(公告)日:2023-09-15

    申请号:CN202310119326.5

    申请日:2023-02-15

    Abstract: 本发明公开了一种基于改进好奇心的移动机器人自主认知导航方法,在奖励环境稀疏的条件下,完成智能体的自主导航任务,同时还能对环境中产生的动态障碍物进行实时避障。以状态访问计数形式的好奇心对内在动机进行定义,并结合操作条件反射模型进行设计。首先在地图准备阶段,根据障碍物和目标位置的信标,计算并生成取向函数;其次,在定位阶段,使用支持的GPS或信标定位方法,对机器人进行定位;在模型训练阶段,构建了基于操作条件反射的任务相关好奇心框架;最后,在应用阶段,使用智能体训练号的取向性矩阵,依照概率对动作进行选择,完成导航任务。实验结果证明,本发明适用于多数机器人导航场景,在保证任务完成的情况下,提升任务效率。

    一种室内动态场景下基于目标检测的语义视觉SLAM定位方法

    公开(公告)号:CN114677323A

    公开(公告)日:2022-06-28

    申请号:CN202111669195.5

    申请日:2021-12-31

    Abstract: 本发明公开了一种室内动态场景下基于目标检测的语义视觉SLAM定位方法,属于人工智能与机器人和计算机视觉领域。本发明使用深度相机采集图像。首先对相机采集的图像序列利用YOLOv5s目标检测网络进行物体识别,以识别出的动态物体为基础划定图像帧的动态区域,将动态区域内的特征点剔除;同时利用对极几何特性的几何约束配合目标检测网络进一步检查特征点是否为动态特征点;结合局部建图与闭环检测模块构成完整的语义视觉SLAM系统。经过实验证明,本发明显著降低了动态环境下SLAM系统的轨迹误差,同时保证系统可以实时运行,有效平衡了SLAM系统位姿估计的准确性、鲁棒性和快速性。

Patent Agency Ranking