-
公开(公告)号:CN104217107A
公开(公告)日:2014-12-17
申请号:CN201410428085.3
申请日:2014-08-27
Applicant: 华南理工大学
Abstract: 本发明公开了基于多传感器仿人机器人跌倒状态检测方法,该方法包括:通过融合机器人当前的步行状态,姿态信息和ZMP点位置信息,利用模糊决策系统对机器人当前稳定性进行判定。判定结果包括9种状态:可控状态,向前跌倒,向后跌倒,向左跌倒,向右跌倒,向左前跌倒,向左后跌倒,向右前跌倒和向右后跌倒。该方法适用于仿人机器人在快要摔倒的时候,判断仿人机器人是否处于可控状态,并在机器人不可控时获得仿人机器人摔倒的方向,从而为仿人机器人产生相应的保护动作提供依据。本发明能够真实的反映出机器人运动的稳定情况,可靠性和判定准确率较高。
-
公开(公告)号:CN104217107B
公开(公告)日:2017-04-19
申请号:CN201410428085.3
申请日:2014-08-27
Applicant: 华南理工大学
Abstract: 本发明公开了基于多传感器仿人机器人跌倒状态检测方法,该方法包括:通过融合机器人当前的步行状态,姿态信息和ZMP点位置信息,利用模糊决策系统对机器人当前稳定性进行判定。判定结果包括9种状态:可控状态,向前跌倒,向后跌倒,向左跌倒,向右跌倒,向左前跌倒,向左后跌倒,向右前跌倒和向右后跌倒。该方法适用于仿人机器人在快要摔倒的时候,判断仿人机器人是否处于可控状态,并在机器人不可控时获得仿人机器人摔倒的方向,从而为仿人机器人产生相应的保护动作提供依据。本发明能够真实的反映出机器人运动的稳定情况,可靠性和判定准确率较高。
-
公开(公告)号:CN104932264A
公开(公告)日:2015-09-23
申请号:CN201510299823.3
申请日:2015-06-03
Applicant: 华南理工大学
IPC: G05B13/04
Abstract: 本发明公开了基于RBF网络的Q学习框架仿人机器人稳定控制方法,该方法包括:提出基于RBF网络的Q学习框架 (RBF-Q Learning),该框架解决Q学习过程中状态空间连续化和行为空间连续化的问题;提出基于RBF网络的Q学习在线动作调整稳定控制算法,产生支撑腿的髋关节、膝关节以及踝关节轨迹,并通过计算出其他各关节角度控制仿人机器人稳定行走;最后通过在本实验室设计的The Vitruvian Man仿人机器人平台上验证RBF-Q Learning框架方法的可行性和有效性。本发明能够通过在线学习过程中产生仿人机器人稳定行走的步态。
-
公开(公告)号:CN104932264B
公开(公告)日:2018-07-20
申请号:CN201510299823.3
申请日:2015-06-03
Applicant: 华南理工大学
IPC: G05B13/04
Abstract: 本发明公开了基于RBF网络的Q学习框架仿人机器人稳定控制方法,该方法包括:提出基于RBF网络的Q学习框架(RBF‑Q Learning),该框架解决Q学习过程中状态空间连续化和行为空间连续化的问题;提出基于RBF网络的Q学习在线动作调整稳定控制算法,产生支撑腿的髋关节、膝关节以及踝关节轨迹,并通过计算出其他各关节角度控制仿人机器人稳定行走;最后通过在本实验室设计的The Vitruvian Man仿人机器人平台上验证RBF‑Q Learning框架方法的可行性和有效性。本发明能够通过在线学习过程中产生仿人机器人稳定行走的步态。
-
-
-