一种基于改进YOLOv3模型的深度估计方法
Abstract:
本发明公开了一种基于改进YOLOv3模型的深度估计方法。深度估计是机器人视觉感知中实现对周围环境物体定位的关键步骤之一,基于特征点的深度估计方法以点表示物体,不能直接将深度估计结果等同物间垂直距离,因此在物体定位和高精度地图匹配中应用受限。本发明以深度卷积神经网络与深度估计应用结合为基础,针对性改进YOLOv3模型的损失函数,增加模型对左右视图中目标u轴坐标变化的敏感程度;使用双目相机抓取的左右图像作为输入,通过改进的YOLOv3模型输出物体的目标检测框,并进行目标匹配和视差计算得到物体的深度估计结果。使用本发明所提出的方法,可同时输出物体的类别和深度估计结果,且相较于原始YOLOv3模型其深度估计精度有显著提升。
Public/Granted literature
Patent Agency Ranking
0/0