-
公开(公告)号:CN104589356A
公开(公告)日:2015-05-06
申请号:CN201410697456.8
申请日:2014-11-27
Applicant: 北京工业大学
Abstract: 本发明涉及基于Kinect人手运动捕捉的灵巧手遥操作控制方法。实现所述方法的硬件包括:Kinect传感器,计算机和遥机器人灵巧手系统。首先利用混合活动轮廓模型跟踪手部外轮廓后,应用粒子滤波算法实现手部姿态跟踪。然后通过机器人实时传输的反馈图像信息,观察远端情况,从而实施特定操作任务。本发明采取结合深度信息以及YCbCr肤色检测空间技术的活动轮廓模型,解决了图像含有强噪音或目标具有弱边界时很难得到真实解的问题;本发明采取基于模板匹配的粒子滤波姿态检测方法,可以检测并估计高维特征的人手三维姿态;本发明采用手控模式与程序模式相结合的主从操作方式,简便、快捷,体现了人机交互的指导性、易用性。
-
公开(公告)号:CN105137967A
公开(公告)日:2015-12-09
申请号:CN201510420223.8
申请日:2015-07-16
Applicant: 北京工业大学
Abstract: 一种深度自动编码器与Q学习算法相结合的移动机器人路径规划方法,该方法包括深度自动编码器部分,BP神经网络部分,强化学习部分。深度自动编码器部分主要采用深度自动编码器处理机器人所处环境的图像,获得图像数据的特征,为后续实现对环境的认知打下基础。BP神经网络部分主要实现奖励值与图像特征数据的拟合,实现深度自动编码器与强化学习的结合。Q学习算法通过与环境交互学习,在行动-评价的环境中获得知识,改进行动方案以适应环境达到预想目的。机器人通过与环境的交互实现自主学习,最终找到从起始点到达终点的可行路径。本发明提高了系统处理图像的能力,通过深度自动编码器与BP神经网络结合可实现对环境的认知。
-
公开(公告)号:CN105137967B
公开(公告)日:2018-01-19
申请号:CN201510420223.8
申请日:2015-07-16
Applicant: 北京工业大学
Abstract: 一种深度自动编码器与Q学习算法相结合的移动机器人路径规划方法,该方法包括深度自动编码器部分,BP神经网络部分,强化学习部分。深度自动编码器部分主要采用深度自动编码器处理机器人所处环境的图像,获得图像数据的特征,为后续实现对环境的认知打下基础。BP神经网络部分主要实现奖励值与图像特征数据的拟合,实现深度自动编码器与强化学习的结合。Q学习算法通过与环境交互学习,在行动‑评价的环境中获得知识,改进行动方案以适应环境达到预想目的。机器人通过与环境的交互实现自主学习,最终找到从起始点到达终点的可行路径。本发明提高了系统处理图像的能力,通过深度自动编码器与BP神经网络结合可实现对环境的认知。
-
公开(公告)号:CN104589356B
公开(公告)日:2016-08-24
申请号:CN201410697456.8
申请日:2014-11-27
Applicant: 北京工业大学
Abstract: 本发明涉及基于Kinect人手运动捕捉的灵巧手遥操作控制方法。实现所述方法的硬件包括:Kinect传感器,计算机和遥机器人灵巧手系统。首先利用混合活动轮廓模型跟踪手部外轮廓后,应用粒子滤波算法实现手部姿态跟踪。然后通过机器人实时传输的反馈图像信息,观察远端情况,从而实施特定操作任务。本发明采取结合深度信息以及YCbCr肤色检测空间技术的活动轮廓模型,解决了图像含有强噪音或目标具有弱边界时很难得到真实解的问题;本发明采取基于模板匹配的粒子滤波姿态检测方法,可以检测并估计高维特征的人手三维姿态;本发明采用手控模式与程序模式相结合的主从操作方式,简便、快捷,体现了人机交互的指导性、易用性。
-
-
-