-
公开(公告)号:CN112732450B
公开(公告)日:2022-07-05
申请号:CN202110087048.0
申请日:2021-01-22
Applicant: 清华大学
Abstract: 本发明提出一种端‑边‑云协同框架下的机器人知识图谱生成系统及方法,涉及机器人知识图谱生成和边缘计算领域。该系统包括:终端、边缘端、云端及通信模块;终端包括多个智能机器人,各智能机器人采集场景真实图像或视频数据;边缘端包括多个边缘服务器,每个边缘服务器连接对应的智能机器人,用于计算场景图谱;各边缘服务器和各智能机器人分别连接云端,云端用于训练深度学习模型及计算知识图谱;终端、边缘端和云端分别连接通信模块,通信模块辅助三端进行通信。本发明合理使用端‑边‑云协同框架对大数据级的智能机器人视觉数据进行分级计算卸载,能够快速地完成对智能机器人所处场景的建模任务,对提高智能机器人执行任务的性能意义重大。
-
公开(公告)号:CN112873211B
公开(公告)日:2022-03-11
申请号:CN202110206075.5
申请日:2021-02-24
Applicant: 清华大学
Abstract: 本发明属于机器人主动视觉感知、语言交互、雷达避障以及深度学习技术领域,尤其涉及一种机器人人机交互方法。本方法拍摄环境的RGB图像与深度图,并探测障碍物信息获取激光雷达数组,对获取数据进行归一化处理,构建人机交互中的问题编码网络将问题进行编码;构建图像特征提取网络,将RGB图像与深度图像信息提取成为一个特征矩阵,将激光雷达数据、问题编码和特征矩阵进行拼接得到特征融合矩阵;采用卷积网络获取数据融合矩阵作为周边环境的数据融合矩阵;训练一个循环神经网络作为导航器,将数据融合矩阵作为输入,输出导航结果,控制机器人运动方向。本方法实现了机器人自我导航,自我探索,人机交互等功能,提升机器人的智能性。
-
公开(公告)号:CN112732450A
公开(公告)日:2021-04-30
申请号:CN202110087048.0
申请日:2021-01-22
Applicant: 清华大学
Abstract: 本发明提出一种端‑边‑云协同框架下的机器人知识图谱生成系统及方法,涉及机器人知识图谱生成和边缘计算领域。该系统包括:终端、边缘端、云端及通信模块;终端包括多个智能机器人,各智能机器人采集场景真实图像或视频数据;边缘端包括多个边缘服务器,每个边缘服务器连接对应的智能机器人,用于计算场景图谱;各边缘服务器和各智能机器人分别连接云端,云端用于训练深度学习模型及计算知识图谱;终端、边缘端和云端分别连接通信模块,通信模块辅助三端进行通信。本发明合理使用端‑边‑云协同框架对大数据级的智能机器人视觉数据进行分级计算卸载,能够快速地完成对智能机器人所处场景的建模任务,对提高智能机器人执行任务的性能意义重大。
-
公开(公告)号:CN109947136B
公开(公告)日:2020-07-10
申请号:CN201910151483.8
申请日:2019-02-28
Applicant: 清华大学
Abstract: 本发明公开了一种面向无人机群体快速目标搜索的协同主动感知方法,属于多无人机区域监视技术领域。包括:根据无人机群体的目标监视区域设定目标位置;将多无人机三维轨迹规划解耦为水平和垂直方向的规划问题,基于树形动态增长自组织映射算法确定多无人机协同搜索在水平方向的规划顺序,调整无人机群体的飞行高度,访问所有目标位置邻域;利用分段平滑曲线实现无人机群体的平滑闭环三维轨迹规划;结合无人机路径速度和加速度约束,利用速度剖面计算来解决多无人机协同区域主动感知的最短时间优化问题。以上过程同时进行,以此规划出的航路使得多无人机在最短时间内,尽可能多访问目标物体位置,实现协同快速目标搜索,完成主动感知任务。
-
公开(公告)号:CN109947136A
公开(公告)日:2019-06-28
申请号:CN201910151483.8
申请日:2019-02-28
Applicant: 清华大学
Abstract: 本发明公开了一种面向无人机群体快速目标搜索的协同主动感知方法,属于多无人机区域监视技术领域。包括:根据无人机群体的目标监视区域设定目标位置;将多无人机三维轨迹规划解耦为水平和垂直方向的规划问题,基于树形动态增长自组织映射算法确定多无人机协同搜索在水平方向的规划顺序,调整无人机群体的飞行高度,访问所有目标位置邻域;利用分段平滑曲线实现无人机群体的平滑闭环三维轨迹规划;结合无人机路径速度和加速度约束,利用速度剖面计算来解决多无人机协同区域主动感知的最短时间优化问题。以上过程同时进行,以此规划出的航路使得多无人机在最短时间内,尽可能多访问目标物体位置,实现协同快速目标搜索,完成主动感知任务。
-
公开(公告)号:CN113156419B
公开(公告)日:2022-10-11
申请号:CN202110205655.2
申请日:2021-02-24
Applicant: 清华大学
IPC: G01S13/86 , G01S13/88 , G01S13/93 , G01C11/00 , G01C21/00 , G06V20/10 , G06V10/44 , G06V10/764 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明提出一种基于雷达与视觉多模态融合的具身语言导航方法,属于机器人导航、自然语言处理和计算机视觉领域。该方法首先在带有双目相机的机器人上安装激光雷达,利用该机器人训练一个多模态融合神经网络模型。选取任一真实场景,对机器人下达自然语言导航指令并转化为对应语义向量;利用机器人在每个时刻获取的RGB图、深度图以及雷达信息,分别转化为对应的特征;对语义向量、RGB图特征和深度图特征进行特征融合,得到当前时刻的动作特征;利用雷达特征对该动作特征进行修正后,神经网络模型最终输出机器人在当前时刻的动作,机器人执行该动作直至完成导航任务。本发明可使机器人对真实环境具有良好的感知能力,提高避障导航的效率。
-
公开(公告)号:CN109799829A
公开(公告)日:2019-05-24
申请号:CN201910151499.9
申请日:2019-02-28
Applicant: 清华大学
IPC: G05D1/02
Abstract: 本发明公开了一种基于自组织映射的多机器人协同主动感知方法。包括机器人群体按照推算的航迹并通过多旅行商问题模型进行首轮探测,分别形成一个闭环路径;选择到目标观测点的旅行预算时间与实际消耗时间比值最小的机器人作为获胜机器人,通过自组织映射网络算法对获胜机器人的路径点进行迭代计算,得到包含有目标观测点的闭环路径,获胜机器人按照该闭环路径利用深度相机和激光雷达进行当前目标点探测;遍历所有目标点,探测结束。本发明把信息量较大的场景中机器人群体协同感知问题转化为多目标路径规划的多旅行商数学模型,极大地简化了问题的复杂度;采用自组织映射神经网络算法进行机器人路径点的迭代处理,运算复杂度低。
-
公开(公告)号:CN114706389B
公开(公告)日:2024-04-12
申请号:CN202210310368.2
申请日:2022-03-28
Applicant: 清华大学
IPC: G05D1/43 , G05D1/242 , G05D1/243 , G05D1/246 , G05D1/633 , G05D1/644 , G05D1/693 , G05D1/247 , G05D1/648 , G05D109/10
Abstract: 本发明提出一种基于社交平台的多机器人动态环境搜索系统及方法,涉及机器人导航、计算机视觉、多机器人通讯等领域。其中所述系统包括云端服务器、多机器人任务分配模块和多个机器人;所述云端服务器分别连接多机器人任务分配模块、每个机器人以及用户的移动终端设备,所述多机器人任务分配模块连接每个机器人;其中,所述移动终端设备上安装有社交软件,每个机器人分别拥有所述社交软件的对应账号。本发明采用社交软件进行人机交互,采用多层次场景图谱解决动态场景下的环境变化,通过路径规划和任务分配实现高效、有序的多机器人环境搜索任务,通过交互将搜索的结果反馈给使用者,方便使用者对周围环境信息的及时掌握。
-
公开(公告)号:CN113505646A
公开(公告)日:2021-10-15
申请号:CN202110648665.3
申请日:2021-06-10
Applicant: 清华大学
Abstract: 本发明提出一种基于语义地图的目标搜索方法,属于机器人导航、计算机视觉领域。该方法首先建立语义关系图,对待进行目标搜索的空间建立导航图并选取采样点,在各采样点从多视角采集RGB图和深度图;机器人根据任一采样点单个视角的RGB图获得该视角中物体的语义掩膜,结合深度图完成该视角局部的三维语义重建;整合所有局部的三维语义重建,得到待进行目标搜索的空间的语义点云;去除点云中的z维数据并去噪,得到该空间的语义地图;机器人在语义地图中查询待搜索的目标物体是否为已知物体并执行相应的搜索策略;搜索完成后,更新未知目标物体与各父类物体的语义关系图。本发明可使机器人对真实环境具有良好感知能力,提高目标搜索的效率。
-
公开(公告)号:CN113156419A
公开(公告)日:2021-07-23
申请号:CN202110205655.2
申请日:2021-02-24
Applicant: 清华大学
IPC: G01S13/86 , G01S13/88 , G01S13/93 , G01C11/00 , G01C21/00 , G06K9/00 , G06K9/46 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明提出一种基于雷达与视觉多模态融合的具身语言导航方法,属于机器人导航、自然语言处理和计算机视觉领域。该方法首先在带有双目相机的机器人上安装激光雷达,利用该机器人训练一个多模态融合神经网络模型。选取任一真实场景,对机器人下达自然语言导航指令并转化为对应语义向量;利用机器人在每个时刻获取的RGB图、深度图以及雷达信息,分别转化为对应的特征;对语义向量、RGB图特征和深度图特征进行特征融合,得到当前时刻的动作特征;利用雷达特征对该动作特征进行修正后,神经网络模型最终输出机器人在当前时刻的动作,机器人执行该动作直至完成导航任务。本发明可使机器人对真实环境具有良好的感知能力,提高避障导航的效率。
-
-
-
-
-
-
-
-
-