多传感器时间同步方法、装置、系统、电子设备及介质

    公开(公告)号:CN112672415A

    公开(公告)日:2021-04-16

    申请号:CN202011560140.6

    申请日:2020-12-25

    Abstract: 本申请公开了一种多传感器时间同步的方法、装置、系统、电子设备及介质,包括:接收上位机发送的初始时间戳授时,开启内部定时器并生成第一触发脉冲信号和第二触发脉冲信号;将生成所述第二触发脉冲信号的时间戳与脉冲计数值发送给所述上位机,用于实现与传感器数据的匹配对齐;模拟GPS接收机功能,生成秒脉冲同步信号和时间报文,并发送给第一传感器和第二传感器,使传感器与时间主控设备实现内部计时同步;将所述第一和第二触发脉冲信号分别发送给第二传感器和第三传感器,用于触发两类传感器进行数据采集,并将采集的数据发送到上位机。以此实现多传感器数据采集时间同步,解决在弱GPS或无GPS信号、无真实时间授时的场景下多传感器时间同步问题。

    一种多传感器时间空间标定方法及装置

    公开(公告)号:CN112598757A

    公开(公告)日:2021-04-02

    申请号:CN202110236278.9

    申请日:2021-03-03

    Abstract: 本申请公开了一种多传感器时间空间标定方法及装置,包括:通过IMU传感器获取IMU数据,通过相机获取图像数据,通过激光雷达获取点云数据;对所述图像数据进行语义分割及特征点提取,进行匹配,构建重投影误差方程,并将IMU传感器与相机之间的第一时间偏差引入所述重投影误差方程;对所述点云数据进行修正,并引入IMU传感器与激光雷达之间的第二时间偏差,对修正后的点云进行配准,计算出两帧点云之间的相对位姿;获取两帧图像间的IMU数据和点云间的IMU数据,通过预积分计算相对位姿和位姿偏差;设定滑动窗口,根据所述滑动窗口内所述重投影误差方程、所述相对位姿、所述位姿偏差进行迭代优化求解,实现多传感器时间空间标定。

    一种基于视频流的行人运动速度智能感知方法

    公开(公告)号:CN112598709A

    公开(公告)日:2021-04-02

    申请号:CN202011559927.0

    申请日:2020-12-25

    Abstract: 本发明公开了一种基于视频流的行人运动速度智能感知方法,该方法包括:采用摄像头标定方法获取摄像头内部参数和外部参数,建立图像坐标系到空间坐标系的坐标转换模型;获取监控摄像头下的实时视频流并进行行人目标检测及跟踪,得到行人ID和相应的图像坐标系下的行人检测框粗定位结果;利用人体部件分割模型对得到的行人目标进行部件分割,获取图像坐标系下的行人脚点精定位结果;利用坐标转换模型实现行人脚点从图像坐标系到真实世界中的空间坐标系的位置信息解算,结合视频流帧间隔时间计算行人的运动速度,实现基于摄像头视频流的行人运动速度智能感知方法。

    基于知识库和PDDL语义设计的机器人任务执行方法

    公开(公告)号:CN112364853B

    公开(公告)日:2021-03-30

    申请号:CN202110044134.3

    申请日:2021-01-13

    Abstract: 本发明公开了一种基于知识库和PDDL语义设计的机器人任务执行方法,属于知识库和机器人自主决策领域。该方法包括:摄像头全局感知场景物体;图像视觉解析得到物体状态;使用图数据库进行进行知识库的表达;生成PDDL域文件和问题文件;执行规划并且返回机器人协同执行。本发明的方法可以实现室内场景下语义环境已知的情况下协同多机器人完成任务执行,对于多机器人自主决策执行有着较大的意义。

    一种双足机器人仿人步态的步行速度调节方法

    公开(公告)号:CN111176342B

    公开(公告)日:2021-03-30

    申请号:CN202010086815.1

    申请日:2020-02-11

    Abstract: 本发明公开了一种双足机器人仿人步态的步行速度调节方法。该方法包括双足支撑相调节以及单足支撑相调节;所述双足支撑相调节为通过调节双足支撑相时长来调节步行速度;所述单足支撑相调节为通过在单足支撑相对支撑脚踝关节的俯仰自由度施加力矩改变轨道能量来调节步行速度。相比以往的步行速度切换方法,该方法无需事先设计多组步态,而是基于速度反馈,通过改变步态参数以及施加力矩控制来实现速度调节与切换。基于本发明所提供的步行速度调节方法,能有效帮助机器人实现实时速度切换,从而提高机器人的步行灵活性以及环境适应能力。

    基于行为树的机器人云平台执行引擎和执行方法

    公开(公告)号:CN112235419B

    公开(公告)日:2021-03-09

    申请号:CN202011430124.5

    申请日:2020-12-09

    Abstract: 本发明提供了一种基于行为树的机器人云平台执行引擎和执行方法,所述机器人云平台执行引擎包括服务端应用集群、机器人以及中间件,所述服务端应用集群由若干个服务端应用组成;所述服务端应用生成机器人指令,通过中间件发送给机器人,机器人对生成的机器人指令解析生成行为,并通过中间件将机器人指令执行结果反馈给服务端应用。该机器人云平台执行引擎具有智能化程度高、适用性强、工作灵活、接入便捷和维护成本低的特点。

    一种光线自适应的绿色场地提取方法

    公开(公告)号:CN112233050B

    公开(公告)日:2021-03-09

    申请号:CN202011500706.6

    申请日:2020-12-17

    Abstract: 本发明公开了一种光线自适应的绿色场地提取方法。该方法首先利用完美反射白平衡和亮度均一化处理,得到亮度均一的灰度图和彩图,提高算法对光线的自适应程度;然后对彩图进行双边滤波、改进的漫水填充处理,并分离h通道进行高斯滤波,使得彩图颜色更加均匀,提高绿色场地提取的完整性;然后,通过设计公式对绿色通道进行分离,采用大津法二值化进行二值化处理,得到图片中绿色部分;最后,通过腐蚀膨胀、小区域删除、凸包络计算方法,最终得到完整的绿色场地轮廓。基于本发明所提供的方法,对亮度不同的照片、不同区域亮度不同的照片以及极端情况下绿色颜色发生偏差的照片都有很完整的绿色场地提取效果。

    一种基于空间关系的RGB-D图像语义分割方法

    公开(公告)号:CN112115951B

    公开(公告)日:2021-03-09

    申请号:CN202011301588.6

    申请日:2020-11-19

    Abstract: 本发明公开了一种基于空间关系的RGB‑D图像语义分割方法,该方法以Deeplab‑v3作为基础模型构建语义分割网络,包括特征提取模块、空间关系相似度损失模块、解码器模块和损失函数模块。针对室内场景的RGB‑D图像进行语义分割,通过深度学习网络有效融合RGB信息与Depth信息,在骨干网络中引入空间关系相似度。本发明是在网络结构并行设计的基础上,通过计算深度信息与RGB信息的区域性特征值与相似性程度的度量,辅助提升深度与RGB信息的融合效果。本发明仅依赖于能够提供RGB数据和深度数据的传感器设备,方法简便,是基于Kinect、Xtion等体感设备应用中图像匹配的有效方法。

    一种多深度相机联合获取高精度深度图的方法

    公开(公告)号:CN112258591A

    公开(公告)日:2021-01-22

    申请号:CN202011422529.4

    申请日:2020-12-08

    Abstract: 本发明公开了一种多深度相机联合获取高精度深度图的方法,该方法通过使用高精度深度相机对若干低精度深度相机进行同时采集,利用两种相机重合部分对使用双边滤波器及高斯滤波器对低精度深度相机进行在线补偿,同时实时标定双边滤波器和高斯滤波器的参数,从而能够获取更高精度的深度图像。本发明的方法能够获得多幅高质量深度图像,降低了获取高精度深度图像的整体成本,其实现方法简便,手段灵活,深度图像质量显著提升,且与硬件具体型号及应用场景无关。

    基于行为树的机器人云平台执行引擎和执行方法

    公开(公告)号:CN112235419A

    公开(公告)日:2021-01-15

    申请号:CN202011430124.5

    申请日:2020-12-09

    Abstract: 本发明提供了一种基于行为树的机器人云平台执行引擎和执行方法,所述机器人云平台执行引擎包括服务端应用集群、机器人以及中间件,所述服务端应用集群由若干个服务端应用组成;所述服务端应用生成机器人指令,通过中间件发送给机器人,机器人对生成的机器人指令解析生成行为,并通过中间件将机器人指令执行结果反馈给服务端应用。该机器人云平台执行引擎具有智能化程度高、适用性强、工作灵活、接入便捷和维护成本低的特点。

Patent Agency Ranking