-
公开(公告)号:CN112115926A
公开(公告)日:2020-12-22
申请号:CN202011295008.7
申请日:2020-11-18
申请人: 浙江大华技术股份有限公司
摘要: 本申请公开了一种基于遥感图像的建筑物体块模型构建方法及相关设备,该基于遥感图像的建筑物体块模型构建方法包括:获取可见光遥感图像,可见光遥感图像包括多个建筑物;将可见光遥感图像输入网络模型中,得到分割后的多个建筑物顶面、侧面、可见光遥感图像中建筑物的像素点对应的相对高度及可见光遥感图像的拍摄方向;利用相对高度和可见光遥感图像的拍摄方向将建筑物顶面映射至建筑物的底部位置,得到建筑物底面,其中,建筑物的顶面与建筑物底面形状相同;利用分割后的建筑物顶面像素点对应的相对高度计算可见光遥感图像中每个建筑物的平均高度;基于平均高度和建筑物底面构建建筑物体块模型。上述方案,提高了建筑物体块模型的构建精确度。
-
公开(公告)号:CN111563923B
公开(公告)日:2020-11-10
申请号:CN202010680885.X
申请日:2020-07-15
申请人: 浙江大华技术股份有限公司
摘要: 本申请公开了一种获得稠密深度图的方法及相关装置,该方法包括:获得同一时刻下位置相对固定的单目相机与激光雷达分别采集的对应于同一场景信息的二维图像和三维点云;将所述二维图像和所述三维点云映射至同一个坐标系中,所述三维点云映射为所述二维图像对应的稀疏深度图;将所述二维图像和对应的所述稀疏深度图输入至训练后的卷积神经网络模型中,以获得对应的稠密深度图。通过上述方式,本申请能够通过卷积神经网络模型有效提取单目相机捕获的二维图像的特征信息,并与激光雷达所采集的三维点云信息进行融合,从而获得高精度的稠密深度图。
-
公开(公告)号:CN112115926B
公开(公告)日:2021-04-27
申请号:CN202011295008.7
申请日:2020-11-18
申请人: 浙江大华技术股份有限公司
摘要: 本申请公开了一种基于遥感图像的建筑物体块模型构建方法及相关设备,该基于遥感图像的建筑物体块模型构建方法包括:获取可见光遥感图像,可见光遥感图像包括多个建筑物;将可见光遥感图像输入网络模型中,得到分割后的多个建筑物顶面、侧面、可见光遥感图像中建筑物的像素点对应的相对高度及可见光遥感图像的拍摄方向;利用相对高度和可见光遥感图像的拍摄方向将建筑物顶面映射至建筑物的底部位置,得到建筑物底面,其中,建筑物的顶面与建筑物底面形状相同;利用分割后的建筑物顶面像素点对应的相对高度计算可见光遥感图像中每个建筑物的平均高度;基于平均高度和建筑物底面构建建筑物体块模型。上述方案,提高了建筑物体块模型的构建精确度。
-
公开(公告)号:CN112200771A
公开(公告)日:2021-01-08
申请号:CN202010959267.9
申请日:2020-09-14
申请人: 浙江大华技术股份有限公司
摘要: 本发明公开了一种高度测量方法、装置、设备和介质,该方法中获取双目相机采集的图像对中的基准图像,及基准图像的深度图像;基于预先训练完成的深度学习网络模型,确定基准图像中地面区域的掩膜图像;根据深度图像以及掩膜图像,确定地面区域的目标拟合平面;根据地面区域的目标拟合平面及深度图像中任一像素点的深度值,确定该像素点相对于地面区域的高度。由于本发明实施例中可以自动确定出地面区域的目标拟合平面,根据地面区域的目标拟合平面以及像素点的深度值,即可以确定出像素点相对于地面区域的高度,从而提高了确定像素点的高度的自动化程度,提升了用户体验。
-
公开(公告)号:CN112200771B
公开(公告)日:2024-08-16
申请号:CN202010959267.9
申请日:2020-09-14
申请人: 浙江大华技术股份有限公司
摘要: 本发明公开了一种高度测量方法、装置、设备和介质,该方法中获取双目相机采集的图像对中的基准图像,及基准图像的深度图像;基于预先训练完成的深度学习网络模型,确定基准图像中地面区域的掩膜图像;根据深度图像以及掩膜图像,确定地面区域的目标拟合平面;根据地面区域的目标拟合平面及深度图像中任一像素点的深度值,确定该像素点相对于地面区域的高度。由于本发明实施例中可以自动确定出地面区域的目标拟合平面,根据地面区域的目标拟合平面以及像素点的深度值,即可以确定出像素点相对于地面区域的高度,从而提高了确定像素点的高度的自动化程度,提升了用户体验。
-
公开(公告)号:CN111563923A
公开(公告)日:2020-08-21
申请号:CN202010680885.X
申请日:2020-07-15
申请人: 浙江大华技术股份有限公司
摘要: 本申请公开了一种获得稠密深度图的方法及相关装置,该方法包括:获得同一时刻下位置相对固定的单目相机与激光雷达分别采集的对应于同一场景信息的二维图像和三维点云;将所述二维图像和所述三维点云映射至同一个坐标系中,所述三维点云映射为所述二维图像对应的稀疏深度图;将所述二维图像和对应的所述稀疏深度图输入至训练后的卷积神经网络模型中,以获得对应的稠密深度图。通过上述方式,本申请能够通过卷积神经网络模型有效提取单目相机捕获的二维图像的特征信息,并与激光雷达所采集的三维点云信息进行融合,从而获得高精度的稠密深度图。
-
公开(公告)号:CN111340864A
公开(公告)日:2020-06-26
申请号:CN202010121667.2
申请日:2020-02-26
申请人: 浙江大华技术股份有限公司
摘要: 本发明实施例提供了一种基于单目估计的三维场景融合方法及装置,所述方法包括:将获取到的第一图像输入目标单目深度估计网络中,得到目标深度图,其中,目标单目深度估计网络由初始单目深度估计网络经过训练后得到;根据目标深度图与目标语义分割图,获取目标深度图中的目标对象的深度信息;根据目标对象的深度信息与采集第一图像的设备的参数信息,获取目标对象在预设的静态三维场景中的位置信息,其中,静态三维场景的坐标系与目标对象所在的世界坐标系具有映射关系。解决了现有技术中由于目标深度估计方法的实施不理想导致监控对象与静态三维场景模型融合的方式不理想的问题。
-
公开(公告)号:CN111340864B
公开(公告)日:2023-12-12
申请号:CN202010121667.2
申请日:2020-02-26
申请人: 浙江大华技术股份有限公司
摘要: 本发明实施例提供了一种基于单目估计的三维场景融合方法及装置,所述方法包括:将获取到的第一图像输入目标单目深度估计网络中,得到目标深度图,其中,目标单目深度估计网络由初始单目深度估计网络经过训练后得到;根据目标深度图与目标语义分割图,获取目标深度图中的目标对象的深度信息;根据目标对象的深度信息与采集第一图像的设备的参数信息,获取目标对象在预设的静态三维场景中的位置信息,其中,静态三维场景的坐标系与目标对象所在的世界坐标系具有映射关系。解决了现有技术中由于目标深度估计方法的实施不理想导致监控对象与静态三维场景模型融合的方式不理想的问题。
-
-
-
-
-
-
-