一种基于手势识别的交互式跟拍飞行器

    公开(公告)号:CN109533277A

    公开(公告)日:2019-03-29

    申请号:CN201811486331.5

    申请日:2018-12-06

    摘要: 本发明公开了一种基于手势识别的人机交互式跟拍飞行器,该飞行器包括飞行器主体、遥控器和手机APP;飞行器主体和遥控器通过无线通讯方式进行交互。摄像头固定在飞行器底部的云台上,四个电机分别固定在可折叠机架的四个机臂末端。遥控器的显示屏位于遥控器的中心位置;处理器、无线传输模块B均固定在遥控器的内部;电源槽内位于遥控器背面中心位置,电源B安装在所述的电源槽内。无线传输模块A和无线传输模块B通过无线通信方式配对连接以供信息交互。本发明当使用飞行器的时候打开支架,不使用的时候折叠支架,这样飞行器携带更加方便。用户只需要通过对着飞行器摄像头做出相应手势,就能达到控制飞行器的飞行姿态或摄像头的拍摄角度的目的。

    一种高空作业特种服务机器人

    公开(公告)号:CN109512314A

    公开(公告)日:2019-03-26

    申请号:CN201811486849.9

    申请日:2018-12-06

    IPC分类号: A47L1/02

    摘要: 本发明公开了一种高空作业特种服务机器人,属于智能机器人技术领域。由四旋翼飞行器本体,控制单元,清洗部件,惯性导航模块、综合检测模块以及通讯模块组成。本发明的目的在于提出一种擦玻璃机器人,利用旋翼飞行器陆空车可以垂直在建筑物表面悬停及保持稳定的飞行姿态的特点,通过螺旋桨旋转将擦玻璃机器人压在玻璃表面,实现一种可以在高空擦玻璃的机器人,具备避障、对玻璃进行擦拭的功能,提高了工作效率,减轻了工作劳动强度。

    基于UGO Fusion的移动机器人定位方法

    公开(公告)号:CN109375158A

    公开(公告)日:2019-02-22

    申请号:CN201811112794.5

    申请日:2018-09-25

    IPC分类号: G01S5/02 G01C21/00 G01C21/16

    摘要: 本发明公开了基于UGO Fusion的移动机器人定位方法。为方便起见以下简称该算法为UGO Fusion定位算法。该算法基于扩展卡尔曼滤波(Extend Kalman Filter,EKF)。解决了单一定位算法精度不高,单一UWB定位算法无法准确的估计机器人朝向问题。该算法包括室内超宽带定位系统搭建模块、基于飞行时间测距模块、三边定位模块、移动机器人建立模型模块、超宽带、陀螺仪、里程计数据融合模块。物理实验结果表明,应用本发明提出的UGO Fusion定位算法有效提高了移动机器人的定位精度,同时得到移动机器人准确的偏航角。可为移动机器人的自主导航提供精确的位姿。

    基于卷积神经网络与VLAD的视觉SLAM闭环检测方法

    公开(公告)号:CN110781790A

    公开(公告)日:2020-02-11

    申请号:CN201910996478.7

    申请日:2019-10-19

    摘要: 本发明公开了基于卷积神经网络和VLAD的闭环检测方法,包括以下步骤:对VGG16网络进行裁剪,然后在最后一层加入基于VLAD思想的池化层NetVLAD,构建新的网络模型VGG-NetVLAD;利用含有三元组的大型数据集训练网络模型的参数;将当前查询图像输入到VGG-NetVLAD中,提取NetVLAD层的输出作为图像的特征表达;采用余弦距离作为衡量图像间相似性的标准,计算当前查询图像与其他图像的相似性得分;统计每两幅图像间的得分最终构成相似性矩阵;根据阈值大小判断产生的闭环区域,输出准确率召回率曲线。本方法考虑了图像的局部空间特性和传统人工设计的特征易受环境变化的影响,有效地提高了闭环检测的准确率和召回率,并满足了实时性要求,对构建全局一致的地图具有重要意义。

    基于深度学习的移动机器人视觉导航方法

    公开(公告)号:CN109341689A

    公开(公告)日:2019-02-15

    申请号:CN201811064016.3

    申请日:2018-09-12

    IPC分类号: G01C21/20 G06T7/73 G06T7/55

    摘要: 本发明公开了基于深度学习的移动机器人视觉导航方法,包括:移动机器人通过自身搭载的深度摄像机在未知环境空间进行图像(彩色图像)采集,对采集到的图像进行处理得到预设尺寸的图片,用打标工具(如LabelImg)对图片进行打标,用深度学习方法对彩色图像进行训练得到目标检测模型,输入目标,机器人对未知环境进行探索并实时采集图片(包括彩色图像和深度图像),并将彩色图作为目标检测模型的输入进行目标检测,检测到目标之后根据深度图计算机器人与目标位置的方向和距离,生成运动策略。