-
公开(公告)号:CN117274754A
公开(公告)日:2023-12-22
申请号:CN202311025029.0
申请日:2023-08-15
Applicant: 哈尔滨工业大学 , 芜湖哈特机器人产业技术研究院有限公司
IPC: G06V10/80 , G06V10/26 , G06V10/40 , G06V10/764 , G06V10/766 , G06V10/774 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/084
Abstract: 梯度匀质化的点云多任务融合方法,解决了多任务训练中不同任务梯度大小和方向冲突的问题,属于点云分类、检测、分割多任务融合领域。本发明包括:在不同的环境中,进行3D点云数据采集,每个任务对应一个训练集;以3D点云数据作为输入,以任务对应的预测结果作为输出,搭建点云多任务融合网络,将多个任务训练集中的点云数据同时输入到搭建的点云多任务融合网络中进行训练,其中梯度回传时对总梯度进行参数更新:赋予不同难度的任务不同的优先级,使得困难的任务拥有更高的优先级,对梯度的大小和方向两者进行匀质化来进行优化;将待测点云数据输入到训练好的点云多任务融合网络中,获得每个任务对应的预测结果输出。
-
公开(公告)号:CN117058235A
公开(公告)日:2023-11-14
申请号:CN202311025048.3
申请日:2023-08-15
Applicant: 哈尔滨工业大学 , 芜湖哈特机器人产业技术研究院有限公司
IPC: G06T7/73 , G06T7/77 , G06N3/0464 , G06N3/084 , G06N3/09
Abstract: 跨多种室内场景的视觉定位方法,解决了视觉定位场景坐标回归方法只能应用于特定场景的问题,属于视频图像拍摄视觉定位领域。本发明包括:在N个不同的场景中,采集数据,对采集的数据进行预处理;将场景中的RGB图像和深度图作为输入,将深度图中每个像素点所对应的场景坐标作为输出,搭建跨场景视觉定位网络,对跨场景视觉定位网络进行训练时,卷积层权重确定时采用自适应参数共享策略:根据待测的RGB图像和对应深度图像选择相应跨场景视觉定位网络的权值,再利用训练好的跨场景视觉定位网络对待测RGB图像进行预测,得到每个像素点的场景坐标,根据得到的场景坐标及对应深度图像中的像素坐标,计算相机位姿。
-
公开(公告)号:CN119205913A
公开(公告)日:2024-12-27
申请号:CN202411253855.5
申请日:2024-09-09
Applicant: 哈尔滨工业大学
IPC: G06T7/73 , G06N3/0464 , G06V10/766 , G06V10/82
Abstract: 一种基于学习场景通用特征和特定特征的六自由度相机位姿估计系统,属于视觉定位技术领域。本发明针对现有视觉定位中场景共享参数和场景特定参数之间相互干扰以及训练过程中存在梯度冲突的问题。包括:基础网络模块,基于训练得到的共享参数和特定参数对六自由度相机采集的第n个任务场景图像In进行特征提取,得到图像提取特征Fn;共享参数φ和特定参数φn采用平均梯度算法计算获得;回归层:对图像提取特征Fn进行预测得到3D场景坐标Dn和1D不确定性Un;姿态估计模块:采用PnP算法,基于3D场景坐标Dn和1D不确定性Un计算得到六自由度相机的旋转矩阵Rn和平移向量tn,从而确定第n个任务场景中相机位姿Tn。本发明用于相机位姿估计。
-
公开(公告)号:CN119247374A
公开(公告)日:2025-01-03
申请号:CN202411234856.5
申请日:2024-09-04
Applicant: 哈尔滨工业大学
Abstract: 一种基于多层迭代扩展卡尔曼滤波的激光雷达位姿估计方法,属于雷达导航技术领域。本发明针对现有激光雷达位姿估计方法中运算效率低,并且估计精度差的问题。包括:根据状态值xk‑1和协方差矩阵Pk‑1计算状态预测值#imgabs0#和协方差矩阵预测值#imgabs1#采用对初始值不敏感的scan‑to‑submap匹配方法得到观测矩阵#imgabs2#对预测值进行更新得到更新后#imgabs3#和#imgabs4#结合High‑level运动补偿方法对预处理后点云数据进行迭代畸变校正,并结合low‑level状态更新方法对更新后状态值#imgabs5#进行迭代更新,收敛之后得到当前状态最优值xk;再对更新后协方差矩阵#imgabs6#进行更新,得到当前协方差矩阵Pk。本发明用于位姿估计。
-
公开(公告)号:CN117523105B
公开(公告)日:2024-05-28
申请号:CN202311583868.4
申请日:2023-11-24
Abstract: 激光雷达和多相机数据融合的三维场景重建方法,涉及计算机视觉技术领域。解决了现有技术中单个相机与单个雷达结合的三维重建方法存在单次扫描场景范围小、以及重建效率低的问题。本发明可采用单激光雷达或多激光雷达与多个相机的数据融合技术来实现三维重建,方法包括:对激光雷达与每个相机间进行标定,得到激光雷达与各相机间的最优外参矩阵;将待测三维场景进行区域划分,使相邻的两个扫描区域存在部分重叠;利用激光雷达和所有相机对待测三维场景中每一个扫描区域进行扫描及数据融合,得到各扫描区域所对应的子图,将所有子图进行数据融合,完成三维场景重建。当使用多雷达时,还包括对雷达与雷达间的标定。主要用于室内外三维场景的重建。
-
公开(公告)号:CN117523105A
公开(公告)日:2024-02-06
申请号:CN202311583868.4
申请日:2023-11-24
Abstract: 激光雷达和多相机数据融合的三维场景重建方法,涉及计算机视觉技术领域。解决了现有技术中单个相机与单个雷达结合的三维重建方法存在单次扫描场景范围小、以及重建效率低的问题。本发明可采用单激光雷达或多激光雷达与多个相机的数据融合技术来实现三维重建,方法包括:对激光雷达与每个相机间进行标定,得到激光雷达与各相机间的最优外参矩阵;将待测三维场景进行区域划分,使相邻的两个扫描区域存在部分重叠;利用激光雷达和所有相机对待测三维场景中每一个扫描区域进行扫描及数据融合,得到各扫描区域所对应的子图,将所有子图进行数据融合,完成三维场景重建。当使用多雷达时,还包括对雷达与雷达间的标定。主要用于室内外三维场景的重建。
-
-
-
-
-