一种基于点云数据的船舶目标6D位姿估计方法

    公开(公告)号:CN112396655B

    公开(公告)日:2023-01-03

    申请号:CN202011290504.3

    申请日:2020-11-18

    发明人: 苏丽 宋浩

    摘要: 本发明公开了一种基于点云数据的船舶目标6D位姿估计方法,包括:步骤1:获得海上场景的船舶点云数据集,数据集标签包括目标类别、目标的三维坐标、目标的三维尺寸以及目标的三维位姿;步骤2:构建神经网络,采用PointNet++进行逐点的点云特征提取,得到逐点的高维特征;步骤3:以自下而上的方案生成3D边界框提案,基于3D边界框生成真实分割掩模,分割前景点并同时从分割点生成带有角度信息的边界框提案,用于RCNN的输入;步骤4:基于步骤3得到的提案以及前景分割特征和空间特征进行提案的优化以输出最终的分类及3D边框和姿态角度。该方法实现了采用端到端学习的方式进行三维目标的位姿估计效果,提升了位姿估计的实时性。

    一种采用多维度融合的多船舶跟踪方法

    公开(公告)号:CN111553934B

    公开(公告)日:2022-07-15

    申请号:CN202010333573.1

    申请日:2020-04-24

    IPC分类号: G06T7/246 G06N3/04

    摘要: 本发明公开了一种采用多维度融合的多船舶跟踪方法,包括:图像预处理;通过前端特征提取模块提取船舶特征;将当前帧船舶目标特征图分别与之前所有帧中船舶目标的特征图经特征融合模块进行融合,得到融合后特征;将融合后特征经后端特征提取层得到当前帧船舶目标与之前所有帧中船舶目标之间的关联矩阵,根据相似性得到预跟踪的结果;将预跟踪的结果利用运动匹配优化模块进行优化得到最终跟踪结果。本发明引入ASPP模块提高网络对于不同尺寸目标的建模能力,使得特征更能表达语义信息;提出了联合检测区域建模模块,进一步提升建模能力;提出运动匹配优化模块达到对预跟踪结果的优化与精修,使得跟踪器更为稳定,不过度于依赖检测器的性能。

    一种采用多维度融合的多船舶跟踪方法

    公开(公告)号:CN111553934A

    公开(公告)日:2020-08-18

    申请号:CN202010333573.1

    申请日:2020-04-24

    IPC分类号: G06T7/246 G06N3/04

    摘要: 本发明公开了一种采用多维度融合的多船舶跟踪方法,包括:图像预处理;通过前端特征提取模块提取船舶特征;将当前帧船舶目标特征图分别与之前所有帧中船舶目标的特征图经特征融合模块进行融合,得到融合后特征;将融合后特征经后端特征提取层得到当前帧船舶目标与之前所有帧中船舶目标之间的关联矩阵,根据相似性得到预跟踪的结果;将预跟踪的结果利用运动匹配优化模块进行优化得到最终跟踪结果。本发明引入ASPP模块提高网络对于不同尺寸目标的建模能力,使得特征更能表达语义信息;提出了联合检测区域建模模块,进一步提升建模能力;提出运动匹配优化模块达到对预跟踪结果的优化与精修,使得跟踪器更为稳定,不过度于依赖检测器的性能。

    一种基于联合图像信息的海天背景下船舶图像分割方法

    公开(公告)号:CN111160354A

    公开(公告)日:2020-05-15

    申请号:CN201911388248.9

    申请日:2019-12-30

    摘要: 本发明涉及一种基于联合图像信息的海天背景下船舶图像分割方法,本发明针对于待分割的船舶图像,首先利用训练好的干扰因素判别器判别船舶图像对应的环境类型;然后利用所述环境类型对应的船舶提取器进行船舶的分割提取;采用基于神经网络的分类网络构建干扰因素判别器;利用训练集进行训练,得到训练好的干扰因素判别器;采用基于神经网络的分割网络构建不同环境下的船舶提取器;利用训练集中每种环境下的船舶图像分别进行训练,得到不同环境下船舶图像分别对应的训练好的船舶提取器。主要用于图像中船舶的分割提取。解决利用现有的分割算法进行海天背景下船舶图像分割存在分割精度降低的问题。

    一种基于点云数据的船舶目标6D位姿估计方法

    公开(公告)号:CN112396655A

    公开(公告)日:2021-02-23

    申请号:CN202011290504.3

    申请日:2020-11-18

    发明人: 苏丽 宋浩

    IPC分类号: G06T7/73 G06K9/62 G06N3/08

    摘要: 本发明公开了一种基于点云数据的船舶目标6D位姿估计方法,包括:步骤1:获得海上场景的船舶点云数据集,数据集标签包括目标类别、目标的三维坐标、目标的三维尺寸以及目标的三维位姿;步骤2:构建神经网络,采用PointNet++进行逐点的点云特征提取,得到逐点的高维特征;步骤3:以自下而上的方案生成3D边界框提案,基于3D边界框生成真实分割掩模,分割前景点并同时从分割点生成带有角度信息的边界框提案,用于RCNN的输入;步骤4:基于步骤3得到的提案以及前景分割特征和空间特征进行提案的优化以输出最终的分类及3D边框和姿态角度。该方法实现了采用端到端学习的方式进行三维目标的位姿估计效果,提升了位姿估计的实时性。