-
公开(公告)号:CN106352870B
公开(公告)日:2019-06-28
申请号:CN201610738030.1
申请日:2016-08-26
申请人: 深圳微服机器人科技有限公司
发明人: 程璞
摘要: 本发明提供了一种目标的定位方法及装置。其中,该方法包括:获取目标的里程数据信息和周围环境信息;其中,周围环境信息至少包括激光数据信息和视觉深度数据信息;根据激光数据信息和视觉深度数据信息,建立与目标的第一位置信息相关的第一分值函数;基于目标的里程数据信息对第一分值函数进行梯度优化处理,确定目标的第一位置信息,其通过激光数据信息和视觉深度数据信息的融合,使得确定的目标的第一位置信息的精确度较高,从而进一步提高了目标中的地图的精确度。
-
公开(公告)号:CN105425970B
公开(公告)日:2019-02-26
申请号:CN201511016826.8
申请日:2015-12-29
申请人: 深圳微服机器人科技有限公司
摘要: 本发明提供了一种人机互动的方法、装置及机器人,其中,该方法包括:采集用户的多媒体信息,其中,多媒体信息包括:用户图像信息和/或用户语音信息;根据预设的数据库中存储的多媒体信息和采集到的多媒体信息确定用户的身份和交互方式;其中,交互方式包括:语音交互和/或动作交互;按照确定的交互方式调取与用户的身份对应的互动内容与用户进行互动。本发明实施例根据识别出的用户身份调取与其相匹配的互动内容,进而与用户进行互动,实现了人机互动的多样性,以及实现了有针对性地进行人机互动的方式。
-
公开(公告)号:CN106092104A
公开(公告)日:2016-11-09
申请号:CN201610738132.3
申请日:2016-08-26
申请人: 深圳微服机器人科技有限公司
发明人: 魏磊磊
IPC分类号: G01C21/20
CPC分类号: G01C21/206
摘要: 本发明提供了一种室内机器人的重定位方法及装置,该方法包括:控制视觉传感器采集视觉图像数据和控制激光传感器采集激光点云数据;根据激光点云数据判断机器人在当前环境地图中是否丢失;若是,则根据激光点云数据进行激光重定位、并根据视觉图像数据进行视觉重定位,根据激光重定位结果和视觉重定位结果确定是否存在候选区域;当存在候选区域时,对机器人进行姿态优化,确定机器人当前位置信息和当前姿态信息;当不存在候选区域时,根据激光点云数据控制机器人进行避障移动,直到确定出存在候选区域。本发明实施例采用激光传感器和视觉传感器相结合的方式对机器人进行重定位,提高了机器人重定位的准确性,从而准确地对机器人进行自主导航。
-
公开(公告)号:CN106296673B
公开(公告)日:2019-10-18
申请号:CN201610631198.2
申请日:2016-08-03
申请人: 深圳微服机器人科技有限公司
摘要: 本发明提供的一种通过LED灯展示用户界面的方法和系统,包括:获取用户界面设计UI显示内容的图像,将图像通过颜色空间变换得到灰度图像阵列,将灰度图像阵列通过灰度的联通域分割算法进行分割得到多个联通域,将多个联通域通过图像分析算法得到特征量,根据特征量控制发光二极管LED灯组的显示,从而可以提高用户交互体验。
-
公开(公告)号:CN108937372A
公开(公告)日:2018-12-07
申请号:CN201811114443.8
申请日:2018-09-25
申请人: 深圳微服机器人科技有限公司
摘要: 本发明提供一种货架机器人,包括货架支架和固定在支架上的控制模块、若干相同的可抽拉式连接在支架上的抽屉;所述的控制模块包括MCU和分别连接在MCU的I/O口的电源模块、显示模块、指纹采集模块、小键盘,以及分别对应每个抽屉的锁头控制模块。本发明能够对货架上摆放物品的使用情况进行追踪记录,避免物品摆放杂乱、丢失等问题,提高工厂和实验室的管理效率,降低管理成本。
-
公开(公告)号:CN106352870A
公开(公告)日:2017-01-25
申请号:CN201610738030.1
申请日:2016-08-26
申请人: 深圳微服机器人科技有限公司
发明人: 程璞
CPC分类号: G01C21/005 , G01C21/20 , G01S17/026 , G01S17/06 , G01S17/93
摘要: 本发明提供了一种目标的定位方法及装置。其中,该方法包括:获取目标的里程数据信息和周围环境信息;其中,周围环境信息至少包括激光数据信息和视觉深度数据信息;根据激光数据信息和视觉深度数据信息,建立与目标的第一位置信息相关的第一分值函数;基于目标的里程数据信息对第一分值函数进行梯度优化处理,确定目标的第一位置信息,其通过激光数据信息和视觉深度数据信息的融合,使得确定的目标的第一位置信息的精确度较高,从而进一步提高了目标中的地图的精确度。
-
公开(公告)号:CN106092104B
公开(公告)日:2019-03-15
申请号:CN201610738132.3
申请日:2016-08-26
申请人: 深圳微服机器人科技有限公司
发明人: 魏磊磊
IPC分类号: G01C21/20
摘要: 本发明提供了一种室内机器人的重定位方法及装置,该方法包括:控制视觉传感器采集视觉图像数据和控制激光传感器采集激光点云数据;根据激光点云数据判断机器人在当前环境地图中是否丢失;若是,则根据激光点云数据进行激光重定位、并根据视觉图像数据进行视觉重定位,根据激光重定位结果和视觉重定位结果确定是否存在候选区域;当存在候选区域时,对机器人进行姿态优化,确定机器人当前位置信息和当前姿态信息;当不存在候选区域时,根据激光点云数据控制机器人进行避障移动,直到确定出存在候选区域。本发明实施例采用激光传感器和视觉传感器相结合的方式对机器人进行重定位,提高了机器人重定位的准确性,从而准确地对机器人进行自主导航。
-
公开(公告)号:CN106323273A
公开(公告)日:2017-01-11
申请号:CN201610740522.4
申请日:2016-08-26
申请人: 深圳微服机器人科技有限公司
发明人: 郑慧
CPC分类号: G01C21/005 , G01C21/20 , G01S17/026 , G01S17/06 , G01S17/93
摘要: 本发明提供了一种机器人重定位方法及装置,包括:获取机器人当前发出的激光数据和所在位置对应的局部地图,将激光数据和局部地图进行匹配,根据匹配结果判断当前定位的机器人的位置是否准确;当不准确时,将与激光数据的直方图的相似度大于或者等于预设值的至少一个预存激光数据在局部地图上对应的区域确定为重定位的候选区域;计算上述候选区域的不同位置与上述激光数据的匹配分数,将匹配分数最大的位置确定为重定位的机器人的位置。本发明中,当确定出当前定位的机器人的位置不准确时,会对机器人进行重定位,不需要重新建图,避免了由于重新建图而导致建图成本增加及机器人终止正在执行的任务的情况。
-
公开(公告)号:CN106296673A
公开(公告)日:2017-01-04
申请号:CN201610631198.2
申请日:2016-08-03
申请人: 深圳微服机器人科技有限公司
摘要: 本发明提供的一种通过LED灯展示用户界面的方法和系统,包括:获取用户界面设计UI显示内容的图像,将图像通过颜色空间变换得到灰度图像阵列,将灰度图像阵列通过灰度的联通域分割算法进行分割得到多个联通域,将多个联通域通过图像分析算法得到特征量,根据特征量控制发光二极管LED灯组的显示,从而可以提高用户交互体验。
-
公开(公告)号:CN105679316A
公开(公告)日:2016-06-15
申请号:CN201511016642.1
申请日:2015-12-29
申请人: 深圳微服机器人科技有限公司
摘要: 本发明提供了基于深度神经网络的语音关键词识别方法及装置,该方法包括:对待识别语音进行分帧得到多个语音帧;对每个语音帧进行特征提取,得到每个语音帧的梅尔倒谱特征系数MFCC序列;并行将每个语音帧的MFCC序列输入到预设的深度神经网络模型,分别计算每个语音帧的MFCC序列在预设的深度神经网络模型的输出层的每个神经单元下的后验概率,将输出层的每个神经单元下的后验概率组成多个语音帧对应的后验概率序列;监测输出层每个神经单元下的后验概率序列;根据后验概率序列与预设阈值的概率序列的比较结果确定待识别语音的关键词,利用预先训练好的深度神经网络进行语音关键词识别,提高了识别速度,缓解了识别延迟问题。
-
-
-
-
-
-
-
-
-