面向杂质性目标的机器人操作协同抓取方法、系统及设备

    公开(公告)号:CN113001552B

    公开(公告)日:2022-07-15

    申请号:CN202110290232.5

    申请日:2021-03-16

    Abstract: 本发明属于机器人领域,具体涉及了一种面向杂质性目标的机器人操作协同抓取方法、系统及设备,旨在解决现有杂质目标抓取过程中难以适应动态环境的问题。本发明包括:根据视觉传感器获得工作区域的初始彩色图像和初始深度图像,分别提取第一图像、第二图像;所述第一图像为目标可见情况下的局部掩膜图像,所述第二图像为目标不可见情况下最大物体聚集区域的局部全一掩膜图像;利用所述第一图像或所述第二图像,采用操作动作协调机制,利用预构建的操作动作原语策略网络获取输出动作;机器人基于所述输出动作转化的控制指令进行动作。本发明可实现密集杂乱环境下杂质性目标的鲁棒抓取,并且不需要庞大的训练数据,能够适应动态环境。

    基于概率本体的语义定位方法、装置及机器人

    公开(公告)号:CN114417876B

    公开(公告)日:2024-12-10

    申请号:CN202111542643.5

    申请日:2021-12-14

    Abstract: 本发明提供一种基于概率本体的语义定位方法、装置及机器人,该方法包括:基于机器人的操作对象的位置上下文信息和人类常识,进行概率本体知识表达,构建多实体贝叶斯网络模型;基于实体贝叶斯网络模型,进行多次实例化,组合成目标态势贝叶斯网络,并推理出第一概率值;在机器人存在目标历史任务数据的情况下,基于目标历史任务数据和目标态势贝叶斯网络,推理出第二概率值;基于第一概率值和第二概率值,采用权重因子进行计算,获取机器人的操作对象的定位结果,以使得机器人根据操作对象的定位结果执行任务并记录历史任务数据。本发明提供的基于概率本体的语义定位方法、装置及机器人,能够提高语义定位精度。

    基于概率本体的语义定位方法、装置及机器人

    公开(公告)号:CN114417876A

    公开(公告)日:2022-04-29

    申请号:CN202111542643.5

    申请日:2021-12-14

    Abstract: 本发明提供一种基于概率本体的语义定位方法、装置及机器人,该方法包括:基于机器人的操作对象的位置上下文信息和人类常识,进行概率本体知识表达,构建多实体贝叶斯网络模型;基于实体贝叶斯网络模型,进行多次实例化,组合成目标态势贝叶斯网络,并推理出第一概率值;在机器人存在目标历史任务数据的情况下,基于目标历史任务数据和目标态势贝叶斯网络,推理出第二概率值;基于第一概率值和第二概率值,采用权重因子进行计算,获取机器人的操作对象的定位结果,以使得机器人根据操作对象的定位结果执行任务并记录历史任务数据。本发明提供的基于概率本体的语义定位方法、装置及机器人,能够提高语义定位精度。

    基于虚拟现实的机器人远程示教系统

    公开(公告)号:CN107263449B

    公开(公告)日:2020-01-10

    申请号:CN201710543418.0

    申请日:2017-07-05

    Abstract: 本发明涉及机器人控制技术领域,具体提供一种基于虚拟现实的机器人远程示教系统,包括云端服务器、近端设备和远端设备;近端设备包括第一图像采集模块、示教控制手柄和头戴式显示器;远端设备包括第二图像采集模块和机器人;云端服务器依据远端设备图像信息构建机器人及其作业现场的三维空间场景图像,依据近端图像信息得到示教控制控制手柄和头戴式显示器的位姿数据,并以此为基础构建了机器人的虚拟现实操作环境。依据机器人工作任务的难易程度,将机器人远程示教操作分为普通示教操作和学习示教操作。本发明提供的技术方案可以高效地对机器人进行逼真度较高的远程示教控制。

    基于多摄像机的目标连续跟踪方法

    公开(公告)号:CN101751677A

    公开(公告)日:2010-06-23

    申请号:CN200810240364.1

    申请日:2008-12-17

    Abstract: 本发明公开一种基于多摄像机的目标连续跟踪方法,基于多路视频,包括目标检测,目标跟踪,目标特征提取,计算到达区域和离开区域,计算摄像机区域连接关系,目标匹配、数据关联以及目标连续跟踪步骤。结合摄像机区域连接关系和目标匹配信息,判断摄像机下出现的目标是新出现目标还是其它摄像机下已出现过的目标,从而实现运动目标连续跟踪。基于多摄像机的目标连续跟踪对于提高网络化,大范围智能监控系统具有很重要的意义。用于大范围智能视觉监控,扩大监控区域,对多个摄像机采集到的大量数据进行自动的处理和分析。

    面向双目视触觉传感器的接触形变三维感知方法及装置

    公开(公告)号:CN117029707A

    公开(公告)日:2023-11-10

    申请号:CN202310892467.0

    申请日:2023-07-19

    Abstract: 本发明提供一种面向双目视触觉传感器的接触形变三维感知方法及装置,其中方法包括:确定入射光线,入射光线包括第一、第二入射光线;确定下层交点,基于下层交点,确定下层界面的下层法线方向;基于空气折射率、下层介质的折射率、入射光线和下层法线方向,确定下层折射光线方向;下层折射光线方向包括第一、第二下层折射光线方向;确定上层交点,并确定上层法线方向;基于上层介质的折射率、下层介质的折射率、下层折射光线方向和上层法线方向,确定上层折射光线方向;上层折射光线方向包括第一、第二上层折射光线方向;基于第一上层折射光线方向和第二上层折射光线方向,确定双目视触觉传感器的三维感知点,提高了三维感知的精准度。

    面向机器人技能学习的快速模仿学习方法、系统、设备

    公开(公告)号:CN113408621B

    公开(公告)日:2022-10-14

    申请号:CN202110685036.8

    申请日:2021-06-21

    Abstract: 本发明属于机器人和人工智能技术领域,具体涉及一种面向机器人技能学习的快速模仿学习方法、系统、设备,旨在解决现有机器人的示教数据采集耗时、复杂以及当示教者提供了次优示教时,机器人无法优化执行过程,导致机器人操作效率降低、作业时间变长的问题。本系统方法包括获取原始示教数据;结合预训练的评测器,通过预设的关键帧提取方法从原始示教数据集中提取关键帧示教数据;基于关键帧示教数据,通过训练好的控制策略模型控制机器人复现示教。本发明能够简化机器人模仿学习时的数据采集流程,并基于机器人控制策略模型的性能优化示教轨迹,缩短数据采集时间与机器人操作时间,有效地提高机器人模仿学习的效率、缩短作业时间。

    面向杂质性目标的机器人操作协同抓取方法、系统及设备

    公开(公告)号:CN113001552A

    公开(公告)日:2021-06-22

    申请号:CN202110290232.5

    申请日:2021-03-16

    Abstract: 本发明属于机器人领域,具体涉及了一种面向杂质性目标的机器人操作协同抓取方法、系统及设备,旨在解决现有杂质目标抓取过程中难以适应动态环境的问题。本发明包括:根据视觉传感器获得工作区域的初始彩色图像和初始深度图像,分别提取第一图像、第二图像;所述第一图像为目标可见情况下的局部掩膜图像,所述第二图像为目标不可见情况下最大物体聚集区域的局部全一掩膜图像;利用所述第一图像或所述第二图像,采用操作动作协调机制,利用预构建的操作动作原语策略网络获取输出动作;机器人基于所述输出动作转化的控制指令进行动作。本发明可实现密集杂乱环境下杂质性目标的鲁棒抓取,并且不需要庞大的训练数据,能够适应动态环境。

    消防机器人和基于云平台架构的消防机器人系统

    公开(公告)号:CN110888442A

    公开(公告)日:2020-03-17

    申请号:CN201911202361.3

    申请日:2019-11-29

    Abstract: 本发明公开一种消防机器人,涉及消防设备的技术领域,其包括移动平台,所述移动平台上搭载有第二摄像装置、第一摄像装置、灭火装置以及本地控制器,第一摄影装置为全景摄影装置,第二摄影装置为单向摄影装置,所述本地控制器内写入有控制系统,控制系统对第二摄像装置和第一摄像装置拍摄的影像进行火源识别与定位,并根据定位后确定的位置信息控制移动平台和灭火装置的移动,还能够控制灭火装置进行灭火作业。本发明其能够全方位的对火源自动识别与定位,并自动控制灭火装置瞄准火源并进行灭火。

Patent Agency Ranking