基于静态奖励驱动的RRT算法的无人船路径规划方法及装置

    公开(公告)号:CN119270869A

    公开(公告)日:2025-01-07

    申请号:CN202411449708.5

    申请日:2024-10-17

    Abstract: 本发明涉及基于静态奖励驱动的RRT算法的无人船路径规划方法及装置,对终点附近范围内对纵坐标进行梯度化,在不同梯度选取不同奖励系数,在根据横坐标差值,对无人船具体位置进行奖励值确定,通过这一系列操作实现对奖励值梯度化,在一定的梯度范围内,奖励值的确定主要由x坐标的差距进行决定,使得无人船训练的路径能够更加迅速的收敛于参考路径,这样不但可以有效的解决在不同点的奖励值多样化造成的最优路径收敛慢等问题。还可以使得无人船在距离终点越近对强化学习算法学习速率和更新速率更快,能够解决在以往的无人船路径规划任务中,由于奖励函数设计不合理或奖励值收敛不集中,规划可能存在效率低下、任务无法完成或操作不准确的问题。

    基于RRT算法的梯度奖惩措施改进无人船路线规划方法

    公开(公告)号:CN119289993A

    公开(公告)日:2025-01-10

    申请号:CN202411402221.1

    申请日:2024-10-09

    Abstract: 本发明涉及基于RRT算法的梯度奖惩措施改进无人船路线规划方法,包括以下:步骤110、对目标地图进行初始化设置,确定无人船的初始状态,设置RRT算法的根节点与步长;步骤120、获取起点位置以及终点位置;步骤130、基于所述RRT算法以梯度奖惩机制构建一条连接所述起点位置和终点位置的RRT路径规划曲线;步骤140、以所述RRT路径规划曲线作为无人船路线规划结果,控制无人船对应行驶。本发明所提出的基于RRT算法的梯度奖惩措施改进无人船路线规划方法,通过引入梯度奖惩措施,本技术方案能够更好地适应不同环境的航行需求,提供更优化和适应性强的路径规划。能够更准确地搜索到最佳路径,降低路径规划的复杂度并提高导航系统的响应速度。

    基于强化学习的奖惩双梯度因子的无人船路径优化方法

    公开(公告)号:CN119289998A

    公开(公告)日:2025-01-10

    申请号:CN202411473322.8

    申请日:2024-10-22

    Abstract: 本发明涉及基于强化学习的奖惩双梯度因子的无人船路径优化方法,包括以下:获取在设定的舵角动作空间ACTIONS中随机选择的舵角#imgabs0#,通过一阶nomoto模型进行舵角#imgabs1#与航向角#imgabs2#之间的转换;获取此时的线速度v,基于此时的线速度v与航向角#imgabs3#计算并更新采取动作action后新的横、纵坐标x、y,更新新的状态s=(x,y,#imgabs4#);基于新的状态s=(x,y,#imgabs5#)更新船舶智能体与障碍物之间的最小距离r;基于新的状态s=(x,y,#imgabs6#)以及最小距离r通过预构造的无人船奖励函数计算得到此时的奖励反馈值reward;基于所述奖励反馈值reward判断是否碰到障碍物;基于所述奖励反馈值reward判断是否到达目的地。通过上述奖惩双梯度因子来优化奖励函数,由奖励梯度与惩罚梯度双因子驱动无人船舶智能体到达目的地的路径优化。

Patent Agency Ranking