-
公开(公告)号:CN113705322B
公开(公告)日:2024-05-24
申请号:CN202110655846.9
申请日:2021-06-11
申请人: 北京易达图灵科技有限公司 , 南京南瑞信息通信科技有限公司 , 中国科学院自动化研究所
IPC分类号: G06V30/32 , G06V10/82 , G06N3/0442 , G06N3/042 , G06N3/08
摘要: 本发明提供一种基于门限图神经网络的手写汉字识别方法和装置,其中方法包括:确定待识别汉字的汉字节点矩阵以及空间信息关系矩阵;所述汉字节点矩阵中的各汉字节点为所述待识别汉字的书写视频中每一时刻书写位置的坐标;将所述汉字节点矩阵和所述空间信息关系矩阵输入至汉字识别模型中,得到所述汉字识别模型输出的识别结果;其中,所述汉字识别模型用于基于门限图神经网络,提取所述汉字节点矩阵对应的包含图结构信息的汉字特征向量,提取所述汉字特征向量中的时序信息,得到时序特征向量,并基于所述时序特征向量经由瓶颈网络进行手写汉字识别。本发明综合了汉字的空间结构信息和时序信息,提高了手写汉字识别的准确性。
-
公开(公告)号:CN109901589B
公开(公告)日:2022-06-07
申请号:CN201910247676.3
申请日:2019-03-29
申请人: 北京易达图灵科技有限公司
IPC分类号: G05D1/02
摘要: 本发明实施例提供一种移动机器人控制方法和装置,其中方法包括:分别基于移动机器人上装设的定位传感装置和视觉传感装置获取当前定位信息和当前图像;将当前定位信息和当前图像输入至动作规划模型,获取动作规划模型输出的当前动作信息;其中,动作规划模型是基于样本定位信息、样本图像、样本动作信息和样本标识训练得到的;基于当前动作信息控制移动机器人。本发明实施例提供的方法和装置,直接通过定位传感装置获取当前定位信息,无需高精度的感知系统,也无需大量的先验知识,实现简单,降低了研发人员的应用门槛,定位效率高。此外,通过预先训练的动作规划模型获取当前动作信息,迁移能力强,能够适应大多数场景,应用范围广,稳定性高。
-
公开(公告)号:CN113642415A
公开(公告)日:2021-11-12
申请号:CN202110813933.2
申请日:2021-07-19
申请人: 南京南瑞信息通信科技有限公司 , 北京易达图灵科技有限公司 , 中国科学院自动化研究所
摘要: 本发明提供一种人脸特征表达方法及人脸识别方法,引入了深层结构特征图,并将深层结构特征图中各节点表征的局部特征与全局特征向量相结合,可以使对待表达人脸图像的特征表达更加全面准确,为将特征表达应用于人脸识别时得到的识别结果提供显式的依据和理由,使识别结果的可解释性、可信度大为提升。
-
公开(公告)号:CN109993793B
公开(公告)日:2021-09-07
申请号:CN201910247795.9
申请日:2019-03-29
申请人: 北京易达图灵科技有限公司
IPC分类号: G06T7/70
摘要: 本发明实施例提供一种视觉定位方法及装置,该方法包括:获取第一时刻下,应用环境的RGB三维点云地图在相机成像平面上的投影图像;获取第二时刻场景的相机图像;对投影图像和相机图像进行图像特征匹配,获得投影图像和相机图像在像素坐标的匹配点集;根据投影图像和相机图像在像素坐标的匹配点集,获取相机的位姿变化量,结合已知的第一时刻的相机位姿,获取第二时刻的相机位姿。该方法具有较高的精度,通过低成本、高普及度的相机实现,能够有效降低视觉定位装置的成本。通过使用相机为传感器,在不增加传感器的条件下能开发更多应用,具有较强的拓展性。最后,由于目前相机模块的高集成度,从而能够实现定位装置的轻量化、小型化。
-
公开(公告)号:CN110070029B
公开(公告)日:2021-07-16
申请号:CN201910309192.7
申请日:2019-04-17
申请人: 北京易达图灵科技有限公司
摘要: 本发明实施例提供一种步态识别方法及装置。方法包括:获取待识别视频中任一行人对应的人体关键点特征向量序列;将人体关键点特征向量序列输入至目标神经网络,根据目标神经网络的输出结果,识别人体关键点特征向量序列对应的行人身份;其中,目标神经网络是根据带有行人身份标签的人体关键点特征向量序列进行训练后得到的。本发明实施例提供的方法及装置,通过获取待识别视频中任一行人对应的人体关键点特征向量序列,并将该序列输入至目标神经网络,根据目标神经网络的输出结果,识别该序列对应的行人身份。通过充分利用人体关键点特征,自学习人体的步态特征,大大提高了步态识别的鲁棒性和准确性,并且,对硬件的要求较低,便于实际应用。
-
公开(公告)号:CN107833250B
公开(公告)日:2020-05-05
申请号:CN201711001164.6
申请日:2017-10-24
申请人: 北京易达图灵科技有限公司
摘要: 本发明提供一种语义空间地图构建方法及装置,方法包括获取多幅图像的图像数据;若判断获知多幅图像的图像数据中存在特征点和语义特征点,则根据多幅图像的图像数据获取每个特征点的位置、每个特征点的描述信息、每个语义特征的位置和语义信息;根据每个特征点的描述信息对多幅图像间特征点的位置进行匹配,获取图像间的特征点匹配集,根据每幅图像中语义特征点的语义信息对多幅图像间语义特征的位置进行匹配,获取图像间的语义特征匹配点集;根据两个匹配集获取每个特征点和每个语义特征点对应的三维空间位置,并据此和每个语义特征的语义信息构建待建立地图的场景的语义空间地图。本发明构建出了空间地图和语义地图的语义空间地图。
-
公开(公告)号:CN107742311B
公开(公告)日:2020-02-18
申请号:CN201710910982.1
申请日:2017-09-29
申请人: 北京易达图灵科技有限公司
IPC分类号: G06T7/73
摘要: 本发明的实施例公开了一种视觉定位的方法及装置,该方法针对预设拍照设备对预设场景拍照得到的图像数据,一方面根据图像的第一特征点和语义空间地图中的空间特征点进行矢量信息的匹配,得到第一匹配点集。另一方面,提取图像数据中包含第二语义信息的第二特征点,将第二特征点和空间特征点进行语义信息的匹配,得到第二匹配点集。根据第一匹配点集和第二匹配点集得到预设拍照设备的目标姿态信息和目标位置信息。该方法同时利用了图像的纹理信息和语义信息提取特征点,能在图像数据中找到更多的和语义空间地图中的空间特征点匹配成功的特征点,为计算预设拍照设备的目标姿态信息和目标位置信息提供了更为可靠的数据基础,定位精度更高。
-
公开(公告)号:CN110059742A
公开(公告)日:2019-07-26
申请号:CN201910300432.7
申请日:2019-04-15
申请人: 北京易达图灵科技有限公司
摘要: 本发明实施例提供一种基于深度学习的安全护具佩戴识别方法及设备,所述方法通过将待识别图像输入预先构建的安全护具识别模型;其中,所述安全护具识别模型基于预先标注的图像样本和多层卷积神经网络训练获得;基于安全护具识别模型的输出结果,获得待识别图像中包含安全护具的子图像。解决了现有技术中安全护具佩戴识别方案受光照的影响较大,并且不同的特征提取方法对算法的鲁棒性也有影响的技术问题,实现快速和准确进行安全护具佩戴识别的技术效果。
-
公开(公告)号:CN110046574A
公开(公告)日:2019-07-23
申请号:CN201910300441.6
申请日:2019-04-15
申请人: 北京易达图灵科技有限公司
摘要: 本发明实施例提供一种基于深度学习的安全帽佩戴识别方法及设备,所述方法通过将待识别图像输入预先构建的安全帽识别模型;其中,所述安全帽识别模型基于预先标注的图像样本和多层卷积神经网络训练获得;基于安全帽识别模型的输出结果,获得待识别图像中包含安全帽的子图像。解决了现有技术中安全帽佩戴识别方案受光照的影响较大,并且不同的特征提取方法对算法的鲁棒性也有影响的技术问题,实现快速和准确进行安全帽佩戴识别的技术效果。
-
公开(公告)号:CN109993793A
公开(公告)日:2019-07-09
申请号:CN201910247795.9
申请日:2019-03-29
申请人: 北京易达图灵科技有限公司
IPC分类号: G06T7/70
摘要: 本发明实施例提供一种视觉定位方法及装置,该方法包括:获取第一时刻下,应用环境的RGB三维点云地图在相机成像平面上的投影图像;获取第二时刻场景的相机图像;对投影图像和相机图像进行图像特征匹配,获得投影图像和相机图像在像素坐标的匹配点集;根据投影图像和相机图像在像素坐标的匹配点集,获取相机的位姿变化量,结合已知的第一时刻的相机位姿,获取第二时刻的相机位姿。该方法具有较高的精度,通过低成本、高普及度的相机实现,能够有效降低视觉定位装置的成本。通过使用相机为传感器,在不增加传感器的条件下能开发更多应用,具有较强的拓展性。最后,由于目前相机模块的高集成度,从而能够实现定位装置的轻量化、小型化。
-
-
-
-
-
-
-
-
-