一种基于CBAM的单目无监督深度估计方法

    公开(公告)号:CN112950697A

    公开(公告)日:2021-06-11

    申请号:CN202110142746.6

    申请日:2021-02-02

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于CBAM的单目无监督深度估计方法。深度估计是机器人实现对周围环境感知的关键技术之一,基于监督学习的深度估计方法将激光雷达等传感器得到的距离测量值处理后作为真值进行训练,但此过程会占用大量的人力和计算资源,因此其在跨场景中的应用很受限制。本发明在基于无监督学习的深度估计框架下,引入卷积块注意力模块并进行立体图像对的光度重建、视差平滑和左右视差一致性训练,对单目图像进行有尺度的深度估计。使用本发明所提出的方法,能够保留周围环境中物体的深度细节,并提高整体的深度估计精度,同时在跨场景下的泛化能力也能得到保障。

    一种基于改进YOLOv3模型的深度估计方法

    公开(公告)号:CN111696147A

    公开(公告)日:2020-09-22

    申请号:CN202010442274.1

    申请日:2020-05-22

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于改进YOLOv3模型的深度估计方法。深度估计是机器人视觉感知中实现对周围环境物体定位的关键步骤之一,基于特征点的深度估计方法以点表示物体,不能直接将深度估计结果等同物间垂直距离,因此在物体定位和高精度地图匹配中应用受限。本发明以深度卷积神经网络与深度估计应用结合为基础,针对性改进YOLOv3模型的损失函数,增加模型对左右视图中目标u轴坐标变化的敏感程度;使用双目相机抓取的左右图像作为输入,通过改进的YOLOv3模型输出物体的目标检测框,并进行目标匹配和视差计算得到物体的深度估计结果。使用本发明所提出的方法,可同时输出物体的类别和深度估计结果,且相较于原始YOLOv3模型其深度估计精度有显著提升。

    一种基于稀疏测量和单目RGB图像的实时稠密深度估计方法

    公开(公告)号:CN112132880B

    公开(公告)日:2024-05-03

    申请号:CN202010910048.1

    申请日:2020-09-02

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于稀疏测量和单目RGB图像的实时稠密深度估计方法,采用自注意力机制和长、短稠密跳转连接技术,从稀疏深度测量中提取更多有用的信息。同时结合深度监督技术提出了一种用于实时深度估计的轻量化网络设计方法。实验结果验证了自注意力机制和长、短稠密跳转连接技术以及深度监督技术的有效性。实验结果表明,使用本发明提出的方法可以最大限度的平衡网络预测精度和推理速度,以获得效率最大化。采用本方法实时估计的深度误差,在稀疏采样率为

    一种基于CBAM的单目无监督深度估计方法

    公开(公告)号:CN112950697B

    公开(公告)日:2024-04-16

    申请号:CN202110142746.6

    申请日:2021-02-02

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于CBAM的单目无监督深度估计方法。深度估计是机器人实现对周围环境感知的关键技术之一,基于监督学习的深度估计方法将激光雷达等传感器得到的距离测量值处理后作为真值进行训练,但此过程会占用大量的人力和计算资源,因此其在跨场景中的应用很受限制。本发明在基于无监督学习的深度估计框架下,引入卷积块注意力模块并进行立体图像对的光度重建、视差平滑和左右视差一致性训练,对单目图像进行有尺度的深度估计。使用本发明所提出的方法,能够保留周围环境中物体的深度细节,并提高整体的深度估计精度,同时在跨场景下的泛化能力也能得到保障。

    一种基于稀疏测量和单目RGB图像的实时稠密深度估计方法

    公开(公告)号:CN112132880A

    公开(公告)日:2020-12-25

    申请号:CN202010910048.1

    申请日:2020-09-02

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于稀疏测量和单目RGB图像的实时稠密深度估计方法,采用自注意力机制和长、短稠密跳转连接技术,从稀疏深度测量中提取更多有用的信息。同时结合深度监督技术提出了一种用于实时深度估计的轻量化网络设计方法。实验结果验证了自注意力机制和长、短稠密跳转连接技术以及深度监督技术的有效性。实验结果表明,使用本发明提出的方法可以最大限度的平衡网络预测精度和推理速度,以获得效率最大化。采用本方法实时估计的深度误差,在稀疏采样率为

    一种基于改进YOLOv3模型的深度估计方法

    公开(公告)号:CN111696147B

    公开(公告)日:2023-04-07

    申请号:CN202010442274.1

    申请日:2020-05-22

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于改进YOLOv3模型的深度估计方法。深度估计是机器人视觉感知中实现对周围环境物体定位的关键步骤之一,基于特征点的深度估计方法以点表示物体,不能直接将深度估计结果等同物间垂直距离,因此在物体定位和高精度地图匹配中应用受限。本发明以深度卷积神经网络与深度估计应用结合为基础,针对性改进YOLOv3模型的损失函数,增加模型对左右视图中目标u轴坐标变化的敏感程度;使用双目相机抓取的左右图像作为输入,通过改进的YOLOv3模型输出物体的目标检测框,并进行目标匹配和视差计算得到物体的深度估计结果。使用本发明所提出的方法,可同时输出物体的类别和深度估计结果,且相较于原始YOLOv3模型其深度估计精度有显著提升。

    一种基于YOLOv3优化算法的交通灯检测方法

    公开(公告)号:CN111553201A

    公开(公告)日:2020-08-18

    申请号:CN202010269442.1

    申请日:2020-04-08

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于YOLOv3优化算法的交通灯检测方法,结合k-means算法与标签统计的结果确定先验框,再通过简化的网络提取图像的特征,利用高斯分布特性增加对边界框准确度的判断。与原始的YOLOv3检测方法相比,本文提出的方法具有更优的检测速度和精度。本文采用BDD100K数据集进行结果验证,实验结果表明,YOLOv3优化算法的平均精准率提高9%,检测速度可达30fps,提高了交通灯检测的精度和速度对于自动驾驶车辆的安全行驶具有重要意义。

Patent Agency Ranking