-
公开(公告)号:CN116021515B
公开(公告)日:2024-06-21
申请号:CN202211656119.5
申请日:2022-12-22
申请人: 西南科技大学 , 西南科大四川天府新区创新研究院
IPC分类号: B25J9/16
摘要: 本发明公开了一种基于深度强化学习的机械臂容错避障方法,包括:S1、搭建机械臂容错实验平台,并建立容错测试环境;S2、在容错测试环境中,生成机械臂的避障路径;S3、构建机械臂容错避障模型,并利用避障路径进行模型训练;S4、利用训练好的机械臂容错避障模型对故障机械臂在任务环境进行避障路径跟随控制,实现容错避障。本发明方法解决现有无法在未知故障情况下机械臂的容错控制,提高算法控制效率,增强机械臂作业的智能性,实现机械臂在出现未知故障时,自主判断任务的可行性,通过容错控制,仍能够继续完成当前任务。
-
公开(公告)号:CN116021516B
公开(公告)日:2024-06-21
申请号:CN202211656127.X
申请日:2022-12-22
申请人: 西南科技大学 , 西南科大四川天府新区创新研究院
IPC分类号: B25J9/16
摘要: 本发明公开了提供了一种多自由度机械臂容错控制方法,针对核辐射环境中机械臂关节随机故障且无法获取准确故障信息这一特点,本发明采用额外的传感器获取目标点相对于末端执行器坐标系的位置,将故障机械臂的运动控制问题转化为目标点到达问题,通过DRL算法训练形成机械臂容错控制策略,利用该策略,在某一确定关节发生故障的机械臂系统和任一关节发生故障的机械臂系统的控制任务均能够实现良好的控制效果。
-
公开(公告)号:CN116021515A
公开(公告)日:2023-04-28
申请号:CN202211656119.5
申请日:2022-12-22
申请人: 西南科技大学 , 西南科大四川天府新区创新研究院
IPC分类号: B25J9/16
摘要: 本发明公开了一种基于深度强化学习的机械臂容错避障方法,包括:S1、搭建机械臂容错实验平台,并建立容错测试环境;S2、在容错测试环境中,生成机械臂的避障路径;S3、构建机械臂容错避障模型,并利用避障路径进行模型训练;S4、利用训练好的机械臂容错避障模型对故障机械臂在任务环境进行避障路径跟随控制,实现容错避障。本发明方法解决现有无法在未知故障情况下机械臂的容错控制,提高算法控制效率,增强机械臂作业的智能性,实现机械臂在出现未知故障时,自主判断任务的可行性,通过容错控制,仍能够继续完成当前任务。
-
公开(公告)号:CN116021516A
公开(公告)日:2023-04-28
申请号:CN202211656127.X
申请日:2022-12-22
申请人: 西南科技大学 , 西南科大四川天府新区创新研究院
IPC分类号: B25J9/16
摘要: 本发明公开了提供了一种多自由度机械臂容错控制方法,针对核辐射环境中机械臂关节随机故障且无法获取准确故障信息这一特点,本发明采用额外的传感器获取目标点相对于末端执行器坐标系的位置,将故障机械臂的运动控制问题转化为目标点到达问题,通过DRL算法训练形成机械臂容错控制策略,利用该策略,在某一确定关节发生故障的机械臂系统和任一关节发生故障的机械臂系统的控制任务均能够实现良好的控制效果。
-
公开(公告)号:CN118014054B
公开(公告)日:2024-06-21
申请号:CN202410415056.7
申请日:2024-04-08
申请人: 西南科技大学
摘要: 本发明提供了一种基于平行重组网络的机械臂多任务强化学习方法,属于机械臂运动控制技术领域,该方法包括构建基于平行重组网络的机械臂多任务强化学习模型PR‑SAC,并进行训练;利用已训练的机械臂多任务强化学习模型PR‑SAC对机械臂进行控制,以实现通过单一网络对机械臂进行多任务控制。本发明通过重新组合网络层中层与层之间的关系,使得网络层中信息共享的更为充分,然后通过权重网络,自动选择每个任务的最佳路径,输出每个模块被选择的概率。因此,这种结构可以尽可能地获得多任务关系带来的好处。此外,在学习方法中加入了样本修正的模块,以避免当前策略与样本不符合造成策略更新出现问题。
-
公开(公告)号:CN118014054A
公开(公告)日:2024-05-10
申请号:CN202410415056.7
申请日:2024-04-08
申请人: 西南科技大学
摘要: 本发明提供了一种基于平行重组网络的机械臂多任务强化学习方法,属于机械臂运动控制技术领域,该方法包括构建基于平行重组网络的机械臂多任务强化学习模型PR‑SAC,并进行训练;利用已训练的机械臂多任务强化学习模型PR‑SAC对机械臂进行控制,以实现通过单一网络对机械臂进行多任务控制。本发明通过重新组合网络层中层与层之间的关系,使得网络层中信息共享的更为充分,然后通过权重网络,自动选择每个任务的最佳路径,输出每个模块被选择的概率。因此,这种结构可以尽可能地获得多任务关系带来的好处。此外,在学习方法中加入了样本修正的模块,以避免当前策略与样本不符合造成策略更新出现问题。
-
-
-
-
-