-
公开(公告)号:CN111795700A
公开(公告)日:2020-10-20
申请号:CN202010619969.2
申请日:2020-06-30
Applicant: 浙江大学
Abstract: 本发明公开了一种无人车强化学习训练环境构建方法及其训练系统,属于机器人导航领域与机器人仿真平台领域。包括:构建真实场景与仿真场景数据集;数据集增强;图像域转换算法的训练与模型保存;建立仿真环境模型与强化学习算法的API接口。在仿真环境中训练时,无人车模型上的摄像头采集观测到的仿真环境图像,经过图像域转换网络,转变为模拟的真实场景图片,作为状态输入强化学习网络,经过决策输出动作指令,发布给仿真端的无人车模型。在实际应用时,无人车摄像头采集现实中的真实场景图片,由于强化学习算法在训练时的输入的模拟真实场景图片与现实真实场景图片非常相似,因此训练好的算法可以直接迁移或者微调之后迁移至真实场景当中。
-
公开(公告)号:CN115880344B
公开(公告)日:2024-07-16
申请号:CN202211448064.9
申请日:2022-11-18
Applicant: 浙江大学
Abstract: 本发明公开了一种双目立体匹配数据集视差真值获取方法。使用双目相机的左、右相机分别获取场景的左、右视图,使用结构光深度相机获取场景的深度图,使用相机联合标定的方法获得各自相机的内参和外参,计算深度相机与双目左相机之间的相对外参;通过内、外参和深度值计算深度图中每个像素点在左视图像素坐标系下的像素坐标,实现深度图像与左视图的配准;利用双目相机在双目标定中得到的内参,将深度图上的深度值换算成视差值生成视差图,获得数据集的真值。本发明为双目立体匹配任务的高精度、高稠密度视差真值获取与数据集制作提供了一种方法,制作的数据集可用于深度学习模型的迁移学习与微调,最终实现特定场景的双目三维重建。
-
公开(公告)号:CN115880344A
公开(公告)日:2023-03-31
申请号:CN202211448064.9
申请日:2022-11-18
Applicant: 浙江大学
Abstract: 本发明公开了一种双目立体匹配数据集视差真值获取方法。使用双目相机的左、右相机分别获取场景的左、右视图,使用结构光深度相机获取场景的深度图,使用相机联合标定的方法获得各自相机的内参和外参,计算深度相机与双目左相机之间的相对外参;通过内、外参和深度值计算深度图中每个像素点在左视图像素坐标系下的像素坐标,实现深度图像与左视图的配准;利用双目相机在双目标定中得到的内参,将深度图上的深度值换算成视差值生成视差图,获得数据集的真值。本发明为双目立体匹配任务的高精度、高稠密度视差真值获取与数据集制作提供了一种方法,制作的数据集可用于深度学习模型的迁移学习与微调,最终实现特定场景的双目三维重建。
-
-