-
公开(公告)号:CN113240717A
公开(公告)日:2021-08-10
申请号:CN202110609753.2
申请日:2021-06-01
Applicant: 之江实验室
Abstract: 本发明公开了一种基于三维目标跟踪的误差建模位置修正方法,基于三维跟踪的结果,根据特定算法特定物体的误差分布曲线,对三维目标跟踪的误差分布进行建模,进而修正三维跟踪的位置信息,得到三维物体在空间中更准确的位置信息。本发明的实现方法便捷、高效、计算简单,使三维位置信息的精度得到可靠的保证。
-
公开(公告)号:CN112297014B
公开(公告)日:2021-04-27
申请号:CN202011633386.1
申请日:2020-12-31
Applicant: 之江实验室
IPC: B25J9/16
Abstract: 本发明提供了面向机器人的云边端架构下的深度学习模型分割方法,属于深度学习以及分布式计算领域。该方法首先将深度学习模型建模为一个有向无环图,有向无环图的节点代表深度学习模型层,节点之间的边代表深度学习模型层间的数据传输。其次,根据模型层分别在云边端上的处理时间为节点赋值,根据模型层间数据分别在云边、边端、云端之间的传输时间为节点之间的边赋值。进而,采用一个有向无环图最长距离算法对图中的节点进行分层,并逐层处理节点。对于一层中的每个节点,根据节点的输入边权重和节点权重,采用启发式策略,进行动态分割,并将分割后的深度学习模型分配给云边端计算设备,从而实现无精度损失的云边端分布式协同推理。
-
公开(公告)号:CN112257684B
公开(公告)日:2021-04-16
申请号:CN202011417661.6
申请日:2020-12-07
Applicant: 之江实验室
Abstract: 本发明公开了一种基于实时视频流的跨摄像头全局行人跟踪方法。该方法主要包括以下五个步骤:多摄像头监控系统的建立,单摄像头下行人特征提取与跟踪,摄像头间行人特征信息传递,跨摄像头行人特征对比匹配以及跨摄像头行人持续稳定跟踪。本发明的方法可以实现室内场景下较密集人流的行人全局实时跟踪,对于行人轨迹监控及机器视觉有着较大的现实意义。
-
公开(公告)号:CN112394701A
公开(公告)日:2021-02-23
申请号:CN202011434077.1
申请日:2020-12-10
Applicant: 之江实验室
IPC: G05B19/418
Abstract: 本发明公开了一种基于云边端混合计算环境的多机器人云控系统,所述多机器人云控系统包括执行模块、通信模块、知识库模块、智能算法模块和总控模块,所述执行模块包括机器人和传感设备,负责感知数据的采集与加工,以及控制指令的执行;所述通信模块负责在云边端环境中转发和处理实时、动态数据;所述场景通用知识库模块用于存储场景中所涉及的通用知识,并提供统一的调用接口;所述智能算法模块负责提供场景中所需的智能感知及自主决策算法;所述总控模块负责编排和调度场景中的机器人协同完成指定任务。本发明的系统实现了一种稳定、高效、容错性高的多机器人云控系统。
-
公开(公告)号:CN112363844A
公开(公告)日:2021-02-12
申请号:CN202110037236.2
申请日:2021-01-12
Applicant: 之江实验室
Abstract: 本发明公开了一种面向图像处理的卷积神经网络垂直分割方法,属于深度学习以及分布式计算领域。该方法首先将连续卷积层最后一层的输入特征图分割为连续的子特征图,再根据子特征图,并依据卷积计算操作,反向逐层计算上一层对应的子特征图,直至第一层,参考第一层的子特征图,对第一层的输入特征图进行分割,将第一层分割后的子特征图分配给多个计算节点。最后,依据单链路连续卷积层的参数和超参数,实施无精度损失的分布式协同推理,并在所有推理结果生成后进行推理结果的汇总,生成最终的输出特征图。相比于过往方法,本发明的方法具有大幅度降低卷积神经网络推理时延并且没有精度损失的特点。
-
公开(公告)号:CN112297014A
公开(公告)日:2021-02-02
申请号:CN202011633386.1
申请日:2020-12-31
Applicant: 之江实验室
IPC: B25J9/16
Abstract: 本发明提供了面向机器人的云边端架构下的深度学习模型分割方法,属于深度学习以及分布式计算领域。该方法首先将深度学习模型建模为一个有向无环图,有向无环图的节点代表深度学习模型层,节点之间的边代表深度学习模型层间的数据传输。其次,根据模型层分别在云边端上的处理时间为节点赋值,根据模型层间数据分别在云边、边端、云端之间的传输时间为节点之间的边赋值。进而,采用一个有向无环图最长距离算法对图中的节点进行分层,并逐层处理节点。对于一层中的每个节点,根据节点的输入边权重和节点权重,采用启发式策略,进行动态分割,并将分割后的深度学习模型分配给云边端计算设备,从而实现无精度损失的云边端分布式协同推理。
-
公开(公告)号:CN116934892A
公开(公告)日:2023-10-24
申请号:CN202310907273.3
申请日:2023-07-21
Applicant: 之江实验室
Abstract: 本说明书公开了一种基于加速优化和注意力机制的图像重建方法及装置,对根据传统图像重建算法构建的低秩矩阵补全目标函数中的迭代过程,应用深度展开网络进行了优化,并在优化过程中,引入辅助加速变量。在每一轮迭代过程中,根据上一轮迭代过程的输出图像和辅助加速变量,确定该轮迭代过程的输出图像,根据该轮迭代过程的输出图像和上一轮迭代过程的辅助加速变量,确定该轮迭代过程的辅助变量,根据该轮迭代过程和上一轮迭代过程的辅助变量,确定该轮迭代过程的辅助加速变量。这样,相邻两轮的辅助加速变量之间没有直接的关联,加快了迭代的速度,使得该方法在保证图像重建精准度的同时,进一步提高了图像重建的效率。
-
公开(公告)号:CN116804556A
公开(公告)日:2023-09-26
申请号:CN202310526472.X
申请日:2023-05-11
Applicant: 之江实验室
Abstract: 本发明公开一种任意凸多边形机器人的概率最大化路径规划方法,该方法离线生成一个基本路径库,并离线计算凸多边形机器人与障碍物的碰撞关系,从而尽可能减少在线计算量。在线路径规划时最大化成功到达目标点的概率,使得机器人倾向于通过更开阔的区域,从而为导航过程中成功绕开障碍物提供更多选择。本发明在每一次规划时都最大化到达目标点的概率,而不是简单的搜索最短路径,因此路径规划速度快,规划结果优。
-
公开(公告)号:CN116071553A
公开(公告)日:2023-05-05
申请号:CN202310160328.9
申请日:2023-02-16
IPC: G06V10/26 , G06V10/764 , G06V10/82 , G06V10/80 , G06V20/70 , G06N3/0464 , G06N3/0455 , G06N3/0895 , G06N3/084
Abstract: 本发明公开了一种基于朴素Vision Transformer的弱监督语义分割方法,包括:将基于输入图像得到的补丁标记和可学习的类标记输入到transformer编码器中得到特征输出;然后基于输出的补丁标记部分通过重排列和卷积操作得到粗糙CAM,并从编码器的模型参数中提取出自注意力图;接着通过自适应注意力图融合模块对自注意力图进行融合,得到交叉注意力图和补丁自注意力图依次对粗糙CAM进行优化得到最终的细CAM;最后分别基于编码器输出的类标记、粗CAM以及细CAM通过全局池化得到类别预测,与类别标记计算交叉熵损失函数来对网络进行优化;基于梯度截断解码器的在线再训练。本发明还提供了相应的基于朴素Vision Transformer的弱监督语义分割装置。
-
公开(公告)号:CN116012445A
公开(公告)日:2023-04-25
申请号:CN202211572616.7
申请日:2022-12-08
Applicant: 之江实验室
IPC: G06T7/73 , G06T7/246 , G06T7/80 , H04L67/568
Abstract: 一种基于深度相机的导览机器人感知行人三维空间信息的方法,包括:1)机器人端获取深度相机的RGB图片及Depth图片,进行预处理后传输到云端服务器;2)根据云端部署的多目标跟踪方法及二维人体关键点检测网络获取每一个跟踪到的行人的二维关键点坐标,结合Depth图片与RGB图片的映射关系获取行人的三维关键点坐标;3)根据深度相机与激光雷达联合标定的坐标转换矩阵获取机器人坐标系下的行人三维关键点坐标并输出行人三维空间信息;4)机器人根据获取到的行人三维空间信息进行本体控制,完成自主唤醒等智能导览任务;采用基于视觉感知方法提升导览机器人的自然交互体验。本发明能用于展厅等公共场景下导览机器人对行人的三维空间信息的智能感知。
-
-
-
-
-
-
-
-
-