移动机器人控制方法和装置

    公开(公告)号:CN109901589B

    公开(公告)日:2022-06-07

    申请号:CN201910247676.3

    申请日:2019-03-29

    IPC分类号: G05D1/02

    摘要: 本发明实施例提供一种移动机器人控制方法和装置,其中方法包括:分别基于移动机器人上装设的定位传感装置和视觉传感装置获取当前定位信息和当前图像;将当前定位信息和当前图像输入至动作规划模型,获取动作规划模型输出的当前动作信息;其中,动作规划模型是基于样本定位信息、样本图像、样本动作信息和样本标识训练得到的;基于当前动作信息控制移动机器人。本发明实施例提供的方法和装置,直接通过定位传感装置获取当前定位信息,无需高精度的感知系统,也无需大量的先验知识,实现简单,降低了研发人员的应用门槛,定位效率高。此外,通过预先训练的动作规划模型获取当前动作信息,迁移能力强,能够适应大多数场景,应用范围广,稳定性高。

    视觉定位方法及装置
    4.
    发明授权

    公开(公告)号:CN109993793B

    公开(公告)日:2021-09-07

    申请号:CN201910247795.9

    申请日:2019-03-29

    IPC分类号: G06T7/70

    摘要: 本发明实施例提供一种视觉定位方法及装置,该方法包括:获取第一时刻下,应用环境的RGB三维点云地图在相机成像平面上的投影图像;获取第二时刻场景的相机图像;对投影图像和相机图像进行图像特征匹配,获得投影图像和相机图像在像素坐标的匹配点集;根据投影图像和相机图像在像素坐标的匹配点集,获取相机的位姿变化量,结合已知的第一时刻的相机位姿,获取第二时刻的相机位姿。该方法具有较高的精度,通过低成本、高普及度的相机实现,能够有效降低视觉定位装置的成本。通过使用相机为传感器,在不增加传感器的条件下能开发更多应用,具有较强的拓展性。最后,由于目前相机模块的高集成度,从而能够实现定位装置的轻量化、小型化。

    一种步态识别方法及装置

    公开(公告)号:CN110070029B

    公开(公告)日:2021-07-16

    申请号:CN201910309192.7

    申请日:2019-04-17

    IPC分类号: G06K9/00 G06K9/46 G06N3/04

    摘要: 本发明实施例提供一种步态识别方法及装置。方法包括:获取待识别视频中任一行人对应的人体关键点特征向量序列;将人体关键点特征向量序列输入至目标神经网络,根据目标神经网络的输出结果,识别人体关键点特征向量序列对应的行人身份;其中,目标神经网络是根据带有行人身份标签的人体关键点特征向量序列进行训练后得到的。本发明实施例提供的方法及装置,通过获取待识别视频中任一行人对应的人体关键点特征向量序列,并将该序列输入至目标神经网络,根据目标神经网络的输出结果,识别该序列对应的行人身份。通过充分利用人体关键点特征,自学习人体的步态特征,大大提高了步态识别的鲁棒性和准确性,并且,对硬件的要求较低,便于实际应用。

    语义空间地图构建方法及装置

    公开(公告)号:CN107833250B

    公开(公告)日:2020-05-05

    申请号:CN201711001164.6

    申请日:2017-10-24

    IPC分类号: G06T7/73 G06T17/05

    摘要: 本发明提供一种语义空间地图构建方法及装置,方法包括获取多幅图像的图像数据;若判断获知多幅图像的图像数据中存在特征点和语义特征点,则根据多幅图像的图像数据获取每个特征点的位置、每个特征点的描述信息、每个语义特征的位置和语义信息;根据每个特征点的描述信息对多幅图像间特征点的位置进行匹配,获取图像间的特征点匹配集,根据每幅图像中语义特征点的语义信息对多幅图像间语义特征的位置进行匹配,获取图像间的语义特征匹配点集;根据两个匹配集获取每个特征点和每个语义特征点对应的三维空间位置,并据此和每个语义特征的语义信息构建待建立地图的场景的语义空间地图。本发明构建出了空间地图和语义地图的语义空间地图。

    一种视觉定位的方法及装置

    公开(公告)号:CN107742311B

    公开(公告)日:2020-02-18

    申请号:CN201710910982.1

    申请日:2017-09-29

    IPC分类号: G06T7/73

    摘要: 本发明的实施例公开了一种视觉定位的方法及装置,该方法针对预设拍照设备对预设场景拍照得到的图像数据,一方面根据图像的第一特征点和语义空间地图中的空间特征点进行矢量信息的匹配,得到第一匹配点集。另一方面,提取图像数据中包含第二语义信息的第二特征点,将第二特征点和空间特征点进行语义信息的匹配,得到第二匹配点集。根据第一匹配点集和第二匹配点集得到预设拍照设备的目标姿态信息和目标位置信息。该方法同时利用了图像的纹理信息和语义信息提取特征点,能在图像数据中找到更多的和语义空间地图中的空间特征点匹配成功的特征点,为计算预设拍照设备的目标姿态信息和目标位置信息提供了更为可靠的数据基础,定位精度更高。

    基于深度学习的安全护具穿戴识别方法及设备

    公开(公告)号:CN110059742A

    公开(公告)日:2019-07-26

    申请号:CN201910300432.7

    申请日:2019-04-15

    IPC分类号: G06K9/62 G06N3/04

    摘要: 本发明实施例提供一种基于深度学习的安全护具佩戴识别方法及设备,所述方法通过将待识别图像输入预先构建的安全护具识别模型;其中,所述安全护具识别模型基于预先标注的图像样本和多层卷积神经网络训练获得;基于安全护具识别模型的输出结果,获得待识别图像中包含安全护具的子图像。解决了现有技术中安全护具佩戴识别方案受光照的影响较大,并且不同的特征提取方法对算法的鲁棒性也有影响的技术问题,实现快速和准确进行安全护具佩戴识别的技术效果。

    基于深度学习的安全帽佩戴识别方法及设备

    公开(公告)号:CN110046574A

    公开(公告)日:2019-07-23

    申请号:CN201910300441.6

    申请日:2019-04-15

    IPC分类号: G06K9/00 G06N3/04 G06N3/08

    摘要: 本发明实施例提供一种基于深度学习的安全帽佩戴识别方法及设备,所述方法通过将待识别图像输入预先构建的安全帽识别模型;其中,所述安全帽识别模型基于预先标注的图像样本和多层卷积神经网络训练获得;基于安全帽识别模型的输出结果,获得待识别图像中包含安全帽的子图像。解决了现有技术中安全帽佩戴识别方案受光照的影响较大,并且不同的特征提取方法对算法的鲁棒性也有影响的技术问题,实现快速和准确进行安全帽佩戴识别的技术效果。

    视觉定位方法及装置
    10.
    发明公开

    公开(公告)号:CN109993793A

    公开(公告)日:2019-07-09

    申请号:CN201910247795.9

    申请日:2019-03-29

    IPC分类号: G06T7/70

    摘要: 本发明实施例提供一种视觉定位方法及装置,该方法包括:获取第一时刻下,应用环境的RGB三维点云地图在相机成像平面上的投影图像;获取第二时刻场景的相机图像;对投影图像和相机图像进行图像特征匹配,获得投影图像和相机图像在像素坐标的匹配点集;根据投影图像和相机图像在像素坐标的匹配点集,获取相机的位姿变化量,结合已知的第一时刻的相机位姿,获取第二时刻的相机位姿。该方法具有较高的精度,通过低成本、高普及度的相机实现,能够有效降低视觉定位装置的成本。通过使用相机为传感器,在不增加传感器的条件下能开发更多应用,具有较强的拓展性。最后,由于目前相机模块的高集成度,从而能够实现定位装置的轻量化、小型化。