一种行人交互友好型的单目避障方法

    公开(公告)号:CN111627064B

    公开(公告)日:2021-07-09

    申请号:CN202010335557.6

    申请日:2020-04-25

    摘要: 一种行人交互友好型的单目避障方法,属于无人机导航领域,本发明为解决搭载单目摄像头的室内无人机避障性能不佳的问题。本发明方法为无人机利用单目摄像头采集图片,所述图片输入至端到端策略的并行深度神经网络结构中,该网格结构输出最佳航向角作为无人机避障的飞行指令;所述端到端策略的并行深度神经网络结构由单目摄像头结合单线激光雷达协同完成,训练过程为:步骤一、利用单线激光雷达采集的深度值搜索最佳航向,并为单目摄像头采集的图片打标签,建立数据集;步骤二、所述数据集分别输入至Resnet18网络和预训练好的YOLO v3网络中;步骤三、利用步骤一的数据集训练步骤二所述并行深度神经网络直至收敛。

    一种行人交互友好型的单目避障方法

    公开(公告)号:CN111627064A

    公开(公告)日:2020-09-04

    申请号:CN202010335557.6

    申请日:2020-04-25

    摘要: 一种行人交互友好型的单目避障方法,属于无人机导航领域,本发明为解决搭载单目摄像头的室内无人机避障性能不佳的问题。本发明方法为无人机利用单目摄像头采集图片,所述图片输入至端到端策略的并行深度神经网络结构中,该网格结构输出最佳航向角作为无人机避障的飞行指令;所述端到端策略的并行深度神经网络结构由单目摄像头结合单线激光雷达协同完成,训练过程为:步骤一、利用单线激光雷达采集的深度值搜索最佳航向,并为单目摄像头采集的图片打标签,建立数据集;步骤二、所述数据集分别输入至Resnet18网络和预训练好的YOLO v3网络中;步骤三、利用步骤一的数据集训练步骤二所述并行深度神经网络直至收敛。

    基于DoubleDQN网络和深度强化学习的机器人避障方法

    公开(公告)号:CN109407676B

    公开(公告)日:2019-08-02

    申请号:CN201811562344.6

    申请日:2018-12-20

    IPC分类号: G05D1/02 G06N3/04

    摘要: 基于DoubleDQN网络和深度强化学习的移动机器人避障方法,它属于移动机器人导航技术领域。本发明解决了现有的深度强化学习避障方法存在的响应延迟高、所需训练时间长以及避障成功率低的问题。本发明设计了特殊的决策动作空间以及回报函数、将移动机器人轨迹数据采集和Double DQN网络训练放在两个线程下并行运行,可以有效提高训练效率,解决了现有深度强化学习避障方法需要的训练时间长的问题;本发明使用Double DQN网络对动作值进行无偏估计,防止陷入局部最优,克服现有深度强化学习避障方法避障成功率低和响应延迟高的问题,与现有方法相比,本发明可以将网络训练时间缩短到现有技术的20%以下,且保持100%的避障成功率。本发明可以应用于移动机器人导航技术领域。

    一种基于串行深度神经网络的端到端单目视觉避障方法

    公开(公告)号:CN111611869B

    公开(公告)日:2021-06-01

    申请号:CN202010335550.4

    申请日:2020-04-25

    摘要: 一种基于串行深度神经网络的端到端单目视觉避障方法,它属于无人机导航领域。本发明解决了现有基于端到端的无人机避障方法的响应延迟高,避障路径不稳定,裕度不足以及小型无人机上只能使用单目摄像头传感器导致无法感知深度信息,在室内有行人情况下避障性能不佳的问题。本发明将改进的深度神经网络Resnet18与YOLO v3串行结合,实时输出无人机的航向角。克服了现有方法响应延迟高,避障路径不稳定,裕度不足的问题,解决了现有端到端单目无人机室内避障算法在室内有行人场景下避障性能不佳、甚至不能使用的问题,使其在正常室内导航的同时,在有行人的室内环境下依然具有优秀的避障能力,对陌生环境有较好的泛化能力。本发明可以应用于无人机室内导航。

    一种基于串行深度神经网络的端到端单目视觉避障方法

    公开(公告)号:CN111611869A

    公开(公告)日:2020-09-01

    申请号:CN202010335550.4

    申请日:2020-04-25

    摘要: 一种基于串行深度神经网络的端到端单目视觉避障方法,它属于无人机导航领域。本发明解决了现有基于端到端的无人机避障方法的响应延迟高,避障路径不稳定,裕度不足以及小型无人机上只能使用单目摄像头传感器导致无法感知深度信息,在室内有行人情况下避障性能不佳的问题。本发明将改进的深度神经网络Resnet18与YOLO v3串行结合,实时输出无人机的航向角。克服了现有方法响应延迟高,避障路径不稳定,裕度不足的问题,解决了现有端到端单目无人机室内避障算法在室内有行人场景下避障性能不佳、甚至不能使用的问题,使其在正常室内导航的同时,在有行人的室内环境下依然具有优秀的避障能力,对陌生环境有较好的泛化能力。本发明可以应用于无人机室内导航。

    基于DoubleDQN网络和深度强化学习的移动机器人避障方法

    公开(公告)号:CN109407676A

    公开(公告)日:2019-03-01

    申请号:CN201811562344.6

    申请日:2018-12-20

    IPC分类号: G05D1/02 G06N3/04

    CPC分类号: G05D1/021 G06N3/0454

    摘要: 基于DoubleDQN网络和深度强化学习的移动机器人避障方法,它属于移动机器人导航技术领域。本发明解决了现有的深度强化学习避障方法存在的响应延迟高、所需训练时间长以及避障成功率低的问题。本发明设计了特殊的决策动作空间以及回报函数、将移动机器人轨迹数据采集和Double DQN网络训练放在两个线程下并行运行,可以有效提高训练效率,解决了现有深度强化学习避障方法需要的训练时间长的问题;本发明使用Double DQN网络对动作值进行无偏估计,防止陷入局部最优,克服现有深度强化学习避障方法避障成功率低和响应延迟高的问题,与现有方法相比,本发明可以将网络训练时间缩短到现有技术的20%以下,且保持100%的避障成功率。本发明可以应用于移动机器人导航技术领域。

    一种基于跨传感器迁移学习的室内单目导航方法及系统

    公开(公告)号:CN111578940B

    公开(公告)日:2021-05-11

    申请号:CN202010330835.9

    申请日:2020-04-24

    IPC分类号: G01C21/20 G01C21/00 G01S17/86

    摘要: 本发明涉及一种基于跨传感器迁移学习的室内单目导航方法及系统。所述方法包括:根据仿真单线激光雷达数据,采用确定性策略梯度的深度强化学习方法,确定自主导航模型;获取实际环境中移动机器人在同一时刻的实际单线激光雷达数据和单目摄像头数据;根据实际单线激光雷达数据,采用自主导航模型,确定移动机器人的航向角;根据同一时刻的移动机器人的航向角和相应时刻的单目摄像头数据,采用Resnet18网络和预训练好的YOLO v3网络,确定激光雷达单目视觉导航模型;根据待确定的单目摄像头数据,采用激光雷达单目视觉导航模型,确定移动机器人当前时刻的航向角;根据当前时刻的航向角进行移动机器人的导航。本发明提高了搭载单目摄像头的移动机器人导航的准确性。

    一种基于跨传感器迁移学习的室内单目导航方法及系统

    公开(公告)号:CN111578940A

    公开(公告)日:2020-08-25

    申请号:CN202010330835.9

    申请日:2020-04-24

    IPC分类号: G01C21/20 G01C21/00 G01S17/86

    摘要: 本发明涉及一种基于跨传感器迁移学习的室内单目导航方法及系统。所述方法包括:根据仿真单线激光雷达数据,采用确定性策略梯度的深度强化学习方法,确定自主导航模型;获取实际环境中移动机器人在同一时刻的实际单线激光雷达数据和单目摄像头数据;根据实际单线激光雷达数据,采用自主导航模型,确定移动机器人的航向角;根据同一时刻的移动机器人的航向角和相应时刻的单目摄像头数据,采用Resnet18网络和预训练好的YOLO v3网络,确定激光雷达单目视觉导航模型;根据待确定的单目摄像头数据,采用激光雷达单目视觉导航模型,确定移动机器人当前时刻的航向角;根据当前时刻的航向角进行移动机器人的导航。本发明提高了搭载单目摄像头的移动机器人导航的准确性。