-
公开(公告)号:CN119270869A
公开(公告)日:2025-01-07
申请号:CN202411449708.5
申请日:2024-10-17
Applicant: 广东海洋大学
IPC: G05D1/43 , G05D109/30
Abstract: 本发明涉及基于静态奖励驱动的RRT算法的无人船路径规划方法及装置,对终点附近范围内对纵坐标进行梯度化,在不同梯度选取不同奖励系数,在根据横坐标差值,对无人船具体位置进行奖励值确定,通过这一系列操作实现对奖励值梯度化,在一定的梯度范围内,奖励值的确定主要由x坐标的差距进行决定,使得无人船训练的路径能够更加迅速的收敛于参考路径,这样不但可以有效的解决在不同点的奖励值多样化造成的最优路径收敛慢等问题。还可以使得无人船在距离终点越近对强化学习算法学习速率和更新速率更快,能够解决在以往的无人船路径规划任务中,由于奖励函数设计不合理或奖励值收敛不集中,规划可能存在效率低下、任务无法完成或操作不准确的问题。
-
公开(公告)号:CN118787016A
公开(公告)日:2024-10-18
申请号:CN202411185124.1
申请日:2024-08-27
Applicant: 广东海洋大学
IPC: A22C25/02 , A22C25/08 , A22C25/14 , A22C25/00 , A22C25/16 , A22B3/08 , A01K61/95 , G06T7/62 , G06T7/13 , G06T7/187
Abstract: 本发明涉及一种高效智能型全自动鱼类加工装置,将传送带组按照输送先后顺序设置的第一传送带组、第二传送带组以及第二传送带组,其中第一传送带组通过设置的预处理装置对养殖鱼进行不达标筛除并通过冷氮装置低温杀死鱼,最大化保证鱼类新鲜度;之后第二传送带组通过设置的头、尾切除及切鱼腹装置自动化地去除头、尾以及切鱼服除内脏;最后第三传送带组通过设置的去大骨装置去除鱼的大骨,再通过设置的去鱼鳞装置去除鱼的鱼鳞,进而实现高效智能全自动地鱼类加工。
-
公开(公告)号:CN119289993A
公开(公告)日:2025-01-10
申请号:CN202411402221.1
申请日:2024-10-09
Applicant: 广东海洋大学
Abstract: 本发明涉及基于RRT算法的梯度奖惩措施改进无人船路线规划方法,包括以下:步骤110、对目标地图进行初始化设置,确定无人船的初始状态,设置RRT算法的根节点与步长;步骤120、获取起点位置以及终点位置;步骤130、基于所述RRT算法以梯度奖惩机制构建一条连接所述起点位置和终点位置的RRT路径规划曲线;步骤140、以所述RRT路径规划曲线作为无人船路线规划结果,控制无人船对应行驶。本发明所提出的基于RRT算法的梯度奖惩措施改进无人船路线规划方法,通过引入梯度奖惩措施,本技术方案能够更好地适应不同环境的航行需求,提供更优化和适应性强的路径规划。能够更准确地搜索到最佳路径,降低路径规划的复杂度并提高导航系统的响应速度。
-
公开(公告)号:CN119270868A
公开(公告)日:2025-01-07
申请号:CN202411449705.1
申请日:2024-10-17
Applicant: 广东海洋大学
IPC: G05D1/43 , G05D109/30
Abstract: 本发明涉及基于RRT路径智引无人船强化学习的路径规划方法及装置,通过以一条RRT*算法规划出来的最优路径path(可能为局部最优)作为无人船强化学习的参考,并将此路径加入到无人船强化学习中,通过计算无人船在探索时与path的水平距离Δxt的平方,以此计算结果来作为常数N的除数,最终得出一个奖励值Rt,给此奖励函数命名为“N‑距离衰减奖励方程”。通过引入“N‑距离衰减奖励方程”,可以使无人船在探索时减少探索时间,进而提高无人船找到最优路径的效率。并且由于使用了RRT*路径来引导无人船,相较于RRT路径来引导更可能达到最优路径。
-
公开(公告)号:CN119289998A
公开(公告)日:2025-01-10
申请号:CN202411473322.8
申请日:2024-10-22
Applicant: 广东海洋大学
IPC: G01C21/20
Abstract: 本发明涉及基于强化学习的奖惩双梯度因子的无人船路径优化方法,包括以下:获取在设定的舵角动作空间ACTIONS中随机选择的舵角#imgabs0#,通过一阶nomoto模型进行舵角#imgabs1#与航向角#imgabs2#之间的转换;获取此时的线速度v,基于此时的线速度v与航向角#imgabs3#计算并更新采取动作action后新的横、纵坐标x、y,更新新的状态s=(x,y,#imgabs4#);基于新的状态s=(x,y,#imgabs5#)更新船舶智能体与障碍物之间的最小距离r;基于新的状态s=(x,y,#imgabs6#)以及最小距离r通过预构造的无人船奖励函数计算得到此时的奖励反馈值reward;基于所述奖励反馈值reward判断是否碰到障碍物;基于所述奖励反馈值reward判断是否到达目的地。通过上述奖惩双梯度因子来优化奖励函数,由奖励梯度与惩罚梯度双因子驱动无人船舶智能体到达目的地的路径优化。
-
-
-
-