-
公开(公告)号:CN119270869A
公开(公告)日:2025-01-07
申请号:CN202411449708.5
申请日:2024-10-17
Applicant: 广东海洋大学
IPC: G05D1/43 , G05D109/30
Abstract: 本发明涉及基于静态奖励驱动的RRT算法的无人船路径规划方法及装置,对终点附近范围内对纵坐标进行梯度化,在不同梯度选取不同奖励系数,在根据横坐标差值,对无人船具体位置进行奖励值确定,通过这一系列操作实现对奖励值梯度化,在一定的梯度范围内,奖励值的确定主要由x坐标的差距进行决定,使得无人船训练的路径能够更加迅速的收敛于参考路径,这样不但可以有效的解决在不同点的奖励值多样化造成的最优路径收敛慢等问题。还可以使得无人船在距离终点越近对强化学习算法学习速率和更新速率更快,能够解决在以往的无人船路径规划任务中,由于奖励函数设计不合理或奖励值收敛不集中,规划可能存在效率低下、任务无法完成或操作不准确的问题。
-
公开(公告)号:CN119270868A
公开(公告)日:2025-01-07
申请号:CN202411449705.1
申请日:2024-10-17
Applicant: 广东海洋大学
IPC: G05D1/43 , G05D109/30
Abstract: 本发明涉及基于RRT路径智引无人船强化学习的路径规划方法及装置,通过以一条RRT*算法规划出来的最优路径path(可能为局部最优)作为无人船强化学习的参考,并将此路径加入到无人船强化学习中,通过计算无人船在探索时与path的水平距离Δxt的平方,以此计算结果来作为常数N的除数,最终得出一个奖励值Rt,给此奖励函数命名为“N‑距离衰减奖励方程”。通过引入“N‑距离衰减奖励方程”,可以使无人船在探索时减少探索时间,进而提高无人船找到最优路径的效率。并且由于使用了RRT*路径来引导无人船,相较于RRT路径来引导更可能达到最优路径。
-
公开(公告)号:CN119289998A
公开(公告)日:2025-01-10
申请号:CN202411473322.8
申请日:2024-10-22
Applicant: 广东海洋大学
IPC: G01C21/20
Abstract: 本发明涉及基于强化学习的奖惩双梯度因子的无人船路径优化方法,包括以下:获取在设定的舵角动作空间ACTIONS中随机选择的舵角#imgabs0#,通过一阶nomoto模型进行舵角#imgabs1#与航向角#imgabs2#之间的转换;获取此时的线速度v,基于此时的线速度v与航向角#imgabs3#计算并更新采取动作action后新的横、纵坐标x、y,更新新的状态s=(x,y,#imgabs4#);基于新的状态s=(x,y,#imgabs5#)更新船舶智能体与障碍物之间的最小距离r;基于新的状态s=(x,y,#imgabs6#)以及最小距离r通过预构造的无人船奖励函数计算得到此时的奖励反馈值reward;基于所述奖励反馈值reward判断是否碰到障碍物;基于所述奖励反馈值reward判断是否到达目的地。通过上述奖惩双梯度因子来优化奖励函数,由奖励梯度与惩罚梯度双因子驱动无人船舶智能体到达目的地的路径优化。
-
公开(公告)号:CN118192590A
公开(公告)日:2024-06-14
申请号:CN202410422352.X
申请日:2024-04-09
Applicant: 广东海洋大学
IPC: G05D1/43 , G05D109/30
Abstract: 本发明涉及一种融合舵机响应模型的无人水面艇自动驾驶方法及装置,包括以下:初始化无人水面艇的状态值,初始化后的所述状态值为坐标值(x0,y0,ψ),其中x0,y0为无人水面艇在海面上起始的横、纵坐标值,ψ为航向角,ψ的初始值为0;基于预建立的融合舵机响应模型实时更新无人水面艇的航向角;基于实时更新的无人水面艇的航向角,计算并同步更新无人水面艇在海面上的实时横、纵坐标值,进而实时更新无人水面艇的状态值;基于实时更新的无人水面艇的状态值对无人水面艇进行舵机响应,以实现无人水面艇自动驾驶。本发明能够提高无人船舶反馈的训练数据的真实性,为模拟现实船舶操舵、响应指令提供一种可行的方法,能够使无人水面艇迅速完成操舵响应。
-
公开(公告)号:CN119289993A
公开(公告)日:2025-01-10
申请号:CN202411402221.1
申请日:2024-10-09
Applicant: 广东海洋大学
Abstract: 本发明涉及基于RRT算法的梯度奖惩措施改进无人船路线规划方法,包括以下:步骤110、对目标地图进行初始化设置,确定无人船的初始状态,设置RRT算法的根节点与步长;步骤120、获取起点位置以及终点位置;步骤130、基于所述RRT算法以梯度奖惩机制构建一条连接所述起点位置和终点位置的RRT路径规划曲线;步骤140、以所述RRT路径规划曲线作为无人船路线规划结果,控制无人船对应行驶。本发明所提出的基于RRT算法的梯度奖惩措施改进无人船路线规划方法,通过引入梯度奖惩措施,本技术方案能够更好地适应不同环境的航行需求,提供更优化和适应性强的路径规划。能够更准确地搜索到最佳路径,降低路径规划的复杂度并提高导航系统的响应速度。
-
公开(公告)号:CN118689220A
公开(公告)日:2024-09-24
申请号:CN202410802559.X
申请日:2024-06-20
Applicant: 广东海洋大学
IPC: G05D1/43 , G05D109/30
Abstract: 本发明涉及基于RRT算法的无人水面艇强化学习路径规划方法及装置,包括以下:基于RRT算法对无人水面艇于目标环境中进行规划得到第一路径;对所述第一路径中的每个节点,通过计算奖励的方式进行训练确定该节点的无人水面艇自动操作策略;重复对所述第一路径中的每个节点进行训练直到达到拟合状态,此时得到优化后的第一路径,优化后的第一路径中的每个节点的无人水面艇自动操作策略均达到最优;以优化后的第一路径对无人水面艇进行自动控制。本发明可以使无人水面艇更快找到终点,减少训练次数,更快的到达拟合的状态,实现路径规划的作用,同时结合无人水面艇船舶实际特性,更加贴切实际。该方法也提高路径搜索速度,避免了路径生成的随机性。
-
公开(公告)号:CN117991790A
公开(公告)日:2024-05-07
申请号:CN202410133388.6
申请日:2024-01-31
Applicant: 广东海洋大学
IPC: G05D1/43 , G05D109/30
Abstract: 本发明涉及基于双稳态贡献因子的船舶操舵反馈控制方法及装置,包括以下:步骤S1、初始化实验状态值;步骤S2、船体于预定的舵角范围值中进行随机舵角选择,并在选定后完成相应的舵角操控,之后更新实验状态值;步骤S3、基于所述舵角操作获取对应的船体的实时双稳态贡献因子;步骤S4、基于更新的实验状态值计算船体与目标终点的中心坐标的距离L;步骤S5、基于实时双稳态贡献因子以及距离L计算反馈值,基于所述反馈值判断此时是否达到双稳态状态,若是则结束控制,若否则重复执行所述步骤S1至步骤S5。本发明能够用相对较少的必要变量就可以训练船智能体减少操舵幅度过大的情况发生,在应用在实际场景中可以增加船舶行驶的稳定性、安全性。
-
公开(公告)号:CN222198201U
公开(公告)日:2024-12-20
申请号:CN202420942898.3
申请日:2024-04-30
Applicant: 广东海洋大学
Abstract: 本实用新型公开一种吸泵式网箱清理车,包括网箱清理车体以及网箱清理车体上方设置的上下移动推进器;上下移动推进器的侧边设置有声呐探测器,且声呐探测器上安装有气囊;网箱清理车体的左右两侧边均安装有支架,且支架的两端与网箱清理车体的连接处均安装有反冲推进器;网箱清理车体的前侧设置有摄像头,该设备采用了滚轮毛刷和吸水泵的组合方式,实现了刷吸一体式清洁,滚轮毛刷能够有效去除网箱内壁附着的杂物,而吸水泵则能将清洁下来的垃圾吸入排污网箱中,大大提高了清洁效率;吸泵式网箱清理车具有高效清洁能力、灵活的移动能力、高安全性、智能化操作和节能环保等诸多有益效果,对于提高网箱清理工作的效率和质量具有重要意义。
-
-
-
-
-
-
-