-
公开(公告)号:CN118470219B
公开(公告)日:2024-09-03
申请号:CN202410917485.4
申请日:2024-07-10
申请人: 中国海洋大学
IPC分类号: G06T17/00 , G06T9/00 , G06V10/44 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/0455 , G06N3/08
摘要: 本发明公开了一种基于无标定图像的多视角三维重建方法和系统,属于计算机视觉领域。首先通过SAM模型从背景中分割出前景图像,并作为训练的图像数据;将其作为点云扩散模型PointE的输入,生成粗阶段的点云表达,通过ResNet图像编码器进行编码,获得图像特征数据;通过点云编码器进行编码,获得点云特征数据;基于注意力机制,将单个图像的特征与粗阶段点云特征进行融合,弥补粗阶段点云特征的不足,基于交叉注意力机制,对多个图像特征进行融合;结合融合的多图像特征对点云的细节恢复,并与真实点云基于倒角距离的损失函数去进行模型参数学习进而对物体点云重建。经过实际验证,本发明提供的三维建方法具有高效、精度高的特点。
-
公开(公告)号:CN118470221B
公开(公告)日:2024-09-03
申请号:CN202410917490.5
申请日:2024-07-10
申请人: 中国海洋大学
摘要: 本发明公开了一种基于非标定单视图的三维目标重建方法,属于计算机视觉领域。首先通过SAM模型从图像中有效的从背景中分割出物体数据,将这些物体数据作为训练的图像数据;然后通过多模态大模型CLIP的图像编码器进行编码,获得图像特征数据;随后基于高斯模型先后进行粗粒度和细粒度的物体点云生成;然后把生成的点云分成点云簇,传入一个点云特征编码器生成点特征,再基于交叉注意力机制,对图像特征和点云特征进行两阶段的融合;最后结合融合特征对密集点云的细节恢复与真实点云基于倒角距离的损失函数去进行模型参数学习进而对物体点云重建。经过实际验证,本发明提供的目标重建方法具有高效、精度高的特点。
-
公开(公告)号:CN118470221A
公开(公告)日:2024-08-09
申请号:CN202410917490.5
申请日:2024-07-10
申请人: 中国海洋大学
摘要: 本发明公开了一种基于非标定单视图的三维目标重建方法,属于计算机视觉领域。首先通过SAM模型从图像中有效的从背景中分割出物体数据,将这些物体数据作为训练的图像数据;然后通过多模态大模型CLIP的图像编码器进行编码,获得图像特征数据;随后基于高斯模型先后进行粗粒度和细粒度的物体点云生成;然后把生成的点云分成点云簇,传入一个点云特征编码器生成点特征,再基于交叉注意力机制,对图像特征和点云特征进行两阶段的融合;最后结合融合特征对密集点云的细节恢复与真实点云基于倒角距离的损失函数去进行模型参数学习进而对物体点云重建。经过实际验证,本发明提供的目标重建方法具有高效、精度高的特点。
-
公开(公告)号:CN118470219A
公开(公告)日:2024-08-09
申请号:CN202410917485.4
申请日:2024-07-10
申请人: 中国海洋大学
IPC分类号: G06T17/00 , G06T9/00 , G06V10/44 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/0455 , G06N3/08
摘要: 本发明公开了一种基于无标定图像的多视角三维重建方法和系统,属于计算机视觉领域。首先通过SAM模型从背景中分割出前景图像,并作为训练的图像数据;将其作为点云扩散模型PointE的输入,生成粗阶段的点云表达,通过ResNet图像编码器进行编码,获得图像特征数据;通过点云编码器进行编码,获得点云特征数据;基于注意力机制,将单个图像的特征与粗阶段点云特征进行融合,弥补粗阶段点云特征的不足,基于交叉注意力机制,对多个图像特征进行融合;结合融合的多图像特征对点云的细节恢复,并与真实点云基于倒角距离的损失函数去进行模型参数学习进而对物体点云重建。经过实际验证,本发明提供的三维建方法具有高效、精度高的特点。
-
-
-