-
公开(公告)号:CN117115786B
公开(公告)日:2024-01-26
申请号:CN202311368361.7
申请日:2023-10-23
申请人: 青岛哈尔滨工程大学创新发展中心 , 哈尔滨工程大学
IPC分类号: G06V20/58 , G06V20/40 , G06V10/26 , G06V10/44 , G06V10/62 , G06V10/77 , G06V10/82 , G06N3/045
摘要: 本发明涉及计算机视觉技术领域,具体而言,涉及一种联合分割跟踪的深度估计模型训练方法及使用方法。一种联合分割跟踪的深度估计模型训练方法,包括:获取连续的视频帧图像;通过目标分割网络和目标跟踪网络,得到视频帧图像的目标分割跟踪结果;将相邻的视频帧图像和各自对应的目标分割跟踪结果输入初始深度估计模型,输出当前视频帧的深度图;将相邻视频帧图像输入位姿估计网络,输出前相对位姿和后相对位姿;根据深度图、前相对位姿和后相对位姿,得到重建目标图像;根据当前视频帧图像和重建目标图像,基于重建损失函数,训练初始深度估计模型,得到训练好的深度估计模型。本发(56)对比文件US 2021398302 A1,2021.12.23US 2022215567 A1,2022.07.07WO 2022100843 A1,2022.05.19WO 2023045724 A1,2023.03.30蔡嘉诚 等.无监督单目深度估计研究综述.计算机科学.2023,全文.Ruan Xiaogang等.Monocular depthestimation based on deep learning:Asurvey.2020 Chinese automation congress(CAC).2021,全文.丁萌;姜欣言.先进驾驶辅助系统中基于单目视觉的场景深度估计方法.光学学报.2020,(第17期),全文.
-
公开(公告)号:CN117115786A
公开(公告)日:2023-11-24
申请号:CN202311368361.7
申请日:2023-10-23
申请人: 青岛哈尔滨工程大学创新发展中心 , 哈尔滨工程大学
IPC分类号: G06V20/58 , G06V20/40 , G06V10/26 , G06V10/44 , G06V10/62 , G06V10/77 , G06V10/82 , G06N3/045
摘要: 本发明涉及计算机视觉技术领域,具体而言,涉及一种联合分割跟踪的深度估计模型训练方法及使用方法。一种联合分割跟踪的深度估计模型训练方法,包括:获取连续的视频帧图像;通过目标分割网络和目标跟踪网络,得到视频帧图像的目标分割跟踪结果;将相邻的视频帧图像和各自对应的目标分割跟踪结果输入初始深度估计模型,输出当前视频帧的深度图;将相邻视频帧图像输入位姿估计网络,输出前相对位姿和后相对位姿;根据深度图、前相对位姿和后相对位姿,得到重建目标图像;根据当前视频帧图像和重建目标图像,基于重建损失函数,训练初始深度估计模型,得到训练好的深度估计模型。本发明的技术方案可以有效地提高深度估计模型的深度预测的精度。
-