-
公开(公告)号:CN113624371A
公开(公告)日:2021-11-09
申请号:CN202110899809.2
申请日:2021-08-06
Applicant: 中国科学院自动化研究所
Abstract: 本发明属于触觉传感器领域,具体涉及了一种基于双目视觉的高分辨率视触觉传感器及点云生成方法,旨在解决现有视触觉传感器结构要求高、定位精度低、分辨率低的问题。本发明包括:第一凝胶层和带有标记点阵列、接触层的第二凝胶层构成的接触凝胶层,接触凝胶层与支撑框架构成中空腔体,双目相机设置于该中空腔体,并且其共享视域为接触凝胶层位于中空腔体内的区域,光源为中空腔体提供照明;基于该视触觉传感器,进行高分辨率触觉点云生成,包括图像预处理、标记点检测与跟踪、基于结构的标记点立体匹配和计算触觉点云。本发明结构要求低、定位精度高,可获得高分辨率(高于1mm)的触觉点云,对机器人灵巧精准操作任务具有潜在的应用价值。
-
公开(公告)号:CN113253744B
公开(公告)日:2021-10-01
申请号:CN202110803758.9
申请日:2021-07-16
Applicant: 中国科学院自动化研究所
IPC: G05D1/02
Abstract: 本发明提供一种多机器人协同轨迹规划方法、装置、电子设备和存储介质,其中方法包括:将机器人划分为轨迹规划组和不变轨迹组;根据轨迹规划组中各个待规划机器人在当前时刻的位置、速度以及目标时刻的位置、速度,分别构建各个待规划机器人对应的包含待优化参数的时空贝塞尔曲线轨迹方程;基于粒子群算法以及多机器人需满足的物理约束,依次求解各个待规划机器人对应的时空贝塞尔曲线轨迹方程中的待优化参数,得到各个待规划机器人的同步时间轨迹,以供各个待规划机器人沿所述轨迹协同运动。本发明扩大了轨迹规划方法的适用范围,可用于地面移动机器人、无人机、水下机器人等多种类型机器人的二维或三维实时轨迹规划。
-
公开(公告)号:CN113408621A
公开(公告)日:2021-09-17
申请号:CN202110685036.8
申请日:2021-06-21
Applicant: 中国科学院自动化研究所
Abstract: 本发明属于机器人和人工智能技术领域,具体涉及一种面向机器人技能学习的快速模仿学习方法、系统、设备,旨在解决现有机器人的示教数据采集耗时、复杂以及当示教者提供了次优示教时,机器人无法优化执行过程,导致机器人操作效率降低、作业时间变长的问题。本系统方法包括获取原始示教数据;结合预训练的评测器,通过预设的关键帧提取方法从原始示教数据集中提取关键帧示教数据;基于关键帧示教数据,通过训练好的控制策略模型控制机器人复现示教。本发明能够简化机器人模仿学习时的数据采集流程,并基于机器人控制策略模型的性能优化示教轨迹,缩短数据采集时间与机器人操作时间,有效地提高机器人模仿学习的效率、缩短作业时间。
-
公开(公告)号:CN113253744A
公开(公告)日:2021-08-13
申请号:CN202110803758.9
申请日:2021-07-16
Applicant: 中国科学院自动化研究所
IPC: G05D1/02
Abstract: 本发明提供一种多机器人协同轨迹规划方法、装置、电子设备和存储介质,其中方法包括:将机器人划分为轨迹规划组和不变轨迹组;根据轨迹规划组中各个待规划机器人在当前时刻的位置、速度以及目标时刻的位置、速度,分别构建各个待规划机器人对应的包含待优化参数的时空贝塞尔曲线轨迹方程;基于粒子群算法以及多机器人需满足的物理约束,依次求解各个待规划机器人对应的时空贝塞尔曲线轨迹方程中的待优化参数,得到各个待规划机器人的同步时间轨迹,以供各个待规划机器人沿所述轨迹协同运动。本发明扩大了轨迹规划方法的适用范围,可用于地面移动机器人、无人机、水下机器人等多种类型机器人的二维或三维实时轨迹规划。
-
公开(公告)号:CN111079936A
公开(公告)日:2020-04-28
申请号:CN201911077089.0
申请日:2019-11-06
Applicant: 中国科学院自动化研究所
Abstract: 本发明属于水下作业机器人自主控制领域,具体涉及一种基于强化学习的波动鳍推进水下作业机器人追踪控制方法、系统、装置,旨在解决Actor网络在训练过程中收敛性和稳定性较差,导致目标追踪精度较低的问题。本系统方法包括获取t时刻水下作业机器人的系统状态信息及待跟踪目标在水下作业机器人随体坐标系下的位姿信息,构建马尔科夫决策过程的状态信息st;基于st,通过Actor-Critic强化学习模型中的Actor网络获取波动鳍的波动频率at;基于at对水下作业机器人的波动鳍进行控制,令t=t+1,进行循环。本发明通过PID控制器监督Actor网络训练,提升了网络的稳定性和收敛性,提高了目标追踪的精度。
-
公开(公告)号:CN110969158A
公开(公告)日:2020-04-07
申请号:CN201911076410.3
申请日:2019-11-06
Applicant: 中国科学院自动化研究所
Abstract: 本发明属于水下视觉感知技术领域,具体涉及一种基于水下作业机器人视觉的目标检测方法、系统、装置,旨在解决现有水下作业机器人视觉系统中目标检测与定位精度低的问题。本系统方法包括获取双目视觉图像;通过稠密连接网络提取图像的特征,并通过特征金字塔网络提取左图像、右图像中的目标图像作为检测结果;通过位置匹配对检测结果中目标图像进行匹配,获得对应的一个或多个目标图像对;基于所在水域水的折射率、双目相机透明防水层的折射率,通过光路追踪法获取每个目标图像对对应目标的中心点在双目相机坐标系下的三维坐标。本发明提高了目标检测与定位的精度。
-
公开(公告)号:CN110955536A
公开(公告)日:2020-04-03
申请号:CN201911162636.5
申请日:2019-11-25
Applicant: 中国科学院自动化研究所
IPC: G06F9/54
Abstract: 本发明公开一种用于连接ROS的通讯系统,涉及通讯系统的技术领域,其包括建立通讯连接的机器人子系统和控制端子系统;机器人子系统安装于机器人上,控制端子系统安装于控制端;机器人子系统包括获取模块以及第一处理模块;获取模块用于获取ROS发布的话题并将话题发送至第一处理模块;第一处理模块接收话题,将话题转化为非ROS的系统可读取的第一数据,对第一数据添加标记以形成第二数据,将第二数据发送至控制端子系统;控制端子系统包括第二处理模块;第二处理模块将接收第二数据,根据第二数据解析出第一数据以及标记。本发明在与ROS进行通讯时减少了端口的开放数量并且不需要复杂的处理就可以从不同的机器人上接受相同的话题。
-
公开(公告)号:CN110488847A
公开(公告)日:2019-11-22
申请号:CN201910732553.9
申请日:2019-08-09
Applicant: 中国科学院自动化研究所
IPC: G05D1/06
Abstract: 本发明属于仿生学领域,具体涉及一种视觉伺服的仿生水下机器人悬停控制方法、系统和装置,旨在为了解决现有技术中缺少仿生水下机器人的悬停控制方法,而现有悬停控制方法无法实现仿生水下机器人悬停控制的问题。本发明通过图像采集装置采集目标物体的图像数据,得到目标物体与仿生水下机器人的实际距离和目标物体的实际图像特征;通过悬停控制器将图像特征误差及距离误差空间映射至期望速度空间,基于实际速度与期望速度之间的速度误差,通过速度控制器获取仿生水下机器人的动力学控制量,根据动力学控制量对仿生水下机器人进行实时悬停控制。本发明能够稳定控制仿生水下机器人实现自主悬停,且具有一定的抗干扰能力。
-
公开(公告)号:CN110201340A
公开(公告)日:2019-09-06
申请号:CN201910505127.1
申请日:2019-06-12
Applicant: 中国科学院自动化研究所
IPC: A62C37/00
Abstract: 本发明实施例涉及一种具备在线地图构建和导航功能的自主消防机器人系统,解决了现有技术中不能精准定位未知火场火源的技术不足,技术方案为:包括上位子系统和下位子系统;上位子系统包括构图与导航模块、人机交互模块和火源定位模块,用于分析下位子系统传输的数据,并对其发送指令;下位子系统是基于EtherCAT总线的控制检测系统,包括传感检测模块、行走电机控制模块和水炮电机控制模块,用于采集火场数据,接收上位子系统指令并控制运动模块和灭火装置工作状态。本发明的有益效果为:采用EtherCAT网络协议,面对未知火灾环境时,在线地图构建和导航,实现快速、精准定位火源,扑灭火源,提高系统的动态性能,将损失降至最低。
-
公开(公告)号:CN109048901A
公开(公告)日:2018-12-21
申请号:CN201810940541.0
申请日:2018-08-17
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及机器人控制技术领域,具体提供了一种基于虚拟摩擦力的牵引示教轨迹规划方法及装置,旨在解决如何提高工业机器人示教轨迹准确性的技术问题。为此目的,本发明提供的基于虚拟摩擦力的牵引示教轨迹规划方法主要包括下列步骤:首先,对机器人牵引力和预设的虚拟摩擦力进行比较并且根据比较结果计算机器人的运动加速度。然后,根据运动加速度获取相应的运动速度和运动位置。最后,利用逆运动学算法并且根据运动速度和运动位置生成机器人的期望轨迹。基于上述步骤,通过机器人牵引力和虚拟摩擦力共同作用产生运动加速度并且在一定的运动学约束和人机协作安全操作范围内规划示教轨迹,保证了牵引示教的准确性和安全性。
-
-
-
-
-
-
-
-
-