-
公开(公告)号:CN110880018A
公开(公告)日:2020-03-13
申请号:CN201911040260.0
申请日:2019-10-29
申请人: 北京邮电大学
摘要: 本申请实施例提供了一种基于新型损失函数的卷积神经网络目标分类方法,通过在模型训练过程中引入一个随目标类特征中心向量与各子类特征中心向量变化的动态加角余量,实现了通过计算样本图像的特征向量与目标类特征中心向量夹角的第一余弦值向量后,根据动态加角余量以及目标类特征中心向量间的夹角,通过第二预设公式得到第二夹角,通过对第二夹角求余弦,得到第二余弦值,并利用第二余弦值替换第一余弦值向量中特征向量与目标类特征中心向量间的夹角的余弦值,得到第二余弦值向量,根据第二余弦值向量计算模型的损失对模型训练过程进行指导,从而有效降低训练数据集子类特征中心均匀分布的程度。
-
公开(公告)号:CN109087351B
公开(公告)日:2021-04-16
申请号:CN201810832090.9
申请日:2018-07-26
申请人: 北京邮电大学
摘要: 本发明实施例提供了基于深度信息对场景画面进行闭环检测的方法及装置,其中,方法包括:获取导航的场景画面的深度图像数据及彩色图像数据,所述深度图像数据包括:多张深度图像帧;对所述彩色图像数据进行特征提取,得到所述彩色图像数据中的特征;确定相邻深度图像帧中深度信息的波动幅值;基于所述相邻深度图像帧中深度信息的波动幅值,确定存在移动物;对所述彩色图像数据中的特征,所述移动物对导航的场景画面引入的错误特征进行剔除,得到剔除所述错误特征后彩色图像数据中的特征;基于剔除所述错误特征后彩色图像数据中的特征,进行闭环检测。
-
公开(公告)号:CN109087351A
公开(公告)日:2018-12-25
申请号:CN201810832090.9
申请日:2018-07-26
申请人: 北京邮电大学
摘要: 本发明实施例提供了基于深度信息对场景画面进行闭环检测的方法及装置,其中,方法包括:获取导航的场景画面的深度图像数据及彩色图像数据,所述深度图像数据包括:多张深度图像帧;对所述彩色图像数据进行特征提取,得到所述彩色图像数据中的特征;确定相邻深度图像帧中深度信息的波动幅值;基于所述相邻深度图像帧中深度信息的波动幅值,确定存在移动物;对所述彩色图像数据中的特征,所述移动物对导航的场景画面引入的错误特征进行剔除,得到剔除所述错误特征后彩色图像数据中的特征;基于剔除所述错误特征后彩色图像数据中的特征,进行闭环检测。
-
公开(公告)号:CN110880018B
公开(公告)日:2023-03-14
申请号:CN201911040260.0
申请日:2019-10-29
申请人: 北京邮电大学
IPC分类号: G06V10/764 , G06V10/82 , G06V10/774 , G06N3/0464 , G06N3/047 , G06N3/08
摘要: 本申请实施例提供了一种卷积神经网络目标分类方法,通过在模型训练过程中引入一个随目标类特征中心向量与各子类特征中心向量变化的动态加角余量,实现了通过计算样本图像的特征向量与目标类特征中心向量夹角的第一余弦值向量后,根据动态加角余量以及目标类特征中心向量间的夹角,通过第二预设公式得到第二夹角,通过对第二夹角求余弦,得到第二余弦值,并利用第二余弦值替换第一余弦值向量中特征向量与目标类特征中心向量间的夹角的余弦值,得到第二余弦值向量,根据第二余弦值向量计算模型的损失对模型训练过程进行指导,从而有效降低训练数据集子类特征中心均匀分布的程度。
-
公开(公告)号:CN111814869A
公开(公告)日:2020-10-23
申请号:CN202010640171.6
申请日:2020-07-06
申请人: 北京邮电大学
摘要: 本申请实施例提供了一种同步定位与建图的方法、装置、电子设备及存储介质,涉及定位技术领域。本发明实施例包括:获取摄像设备采集的当前帧图像,从当前帧图像中提取多个关键特征,确定多个关键特征中的边缘特征和非边缘特征;针对多个关键特征中的每个非边缘特征,若该非边缘特征与第二关键特征之间的相似度大于第一预设阈值,则确定该非边缘特征与第二关键特征为互相匹配的特征对;针对多个关键特征中的每个边缘特征,若该边缘特征与第三关键特征之间的相似度大于第二预设阈值,则确定该边缘特征与第三关键特征为互相匹配的特征对,第二预设阈值大于第一预设阈值;根据确定的特征对构建地图。采用本发明实施例可以提高定位及建图的精度。
-
公开(公告)号:CN111814869B
公开(公告)日:2022-11-08
申请号:CN202010640171.6
申请日:2020-07-06
申请人: 北京邮电大学
摘要: 本申请实施例提供了一种同步定位与建图的方法、装置、电子设备及存储介质,涉及定位技术领域。本发明实施例包括:获取摄像设备采集的当前帧图像,从当前帧图像中提取多个关键特征,确定多个关键特征中的边缘特征和非边缘特征;针对多个关键特征中的每个非边缘特征,若该非边缘特征与第二关键特征之间的相似度大于第一预设阈值,则确定该非边缘特征与第二关键特征为互相匹配的特征对;针对多个关键特征中的每个边缘特征,若该边缘特征与第三关键特征之间的相似度大于第二预设阈值,则确定该边缘特征与第三关键特征为互相匹配的特征对,第二预设阈值大于第一预设阈值;根据确定的特征对构建地图。采用本发明实施例可以提高定位及建图的精度。
-
公开(公告)号:CN110473254A
公开(公告)日:2019-11-19
申请号:CN201910768325.7
申请日:2019-08-20
申请人: 北京邮电大学
IPC分类号: G06T7/70
摘要: 本发明实施例提供了一种基于深度神经网络的位姿估计方法及装置,方法包括:获取目标图像序列,所述目标图像序列是相机在移动中连续拍摄的;将所述目标图像序列输入位姿估计网络模型,得到所述相机拍摄所述目标图像序列中每张图像时的位姿信息;所述位姿估计网络模型是根据训练集预先训练完成的,所述训练集包括:样本图像序列,以及样本位姿信息。由于采用深度神经网络模型进行相机的位姿信息估计,不需要进行关键点的提取和描述子计算过程,降低了计算复杂度,此外,对被测对象的无严格要求,可以适用于被测对象的位移较大的场景。
-
公开(公告)号:CN109271990A
公开(公告)日:2019-01-25
申请号:CN201811020264.8
申请日:2018-09-03
申请人: 北京邮电大学
摘要: 本发明实施例提供了一种针对RGB-D图像的语义分割方法及装置。所述方法包括:获得待语义分割的RGB-D图像;将RGB-D图像所包括的RGB图像和深度图像输入至预先训练的神经网络,得到RGB-D图像对应的目标标识图像;其中,RGB图像输入至神经网络的分支网络组中的一个分支网络层,深度图像输入至分支网络组中的另一个分支网络层;神经网络包括:顺次连接的分支网络组、特征融合网络层和输出网络层,神经网络是根据样本RGB-D图像、样本RGB-D图像对应的样本标识图像训练得到,任一样本RGB-D图像对应的样本标识图像为:该样本RGB-D图像所包括的样本RGB图像对应的语义分割结果。应用本发明实施例,能够实现利用神经网络对RGB-D图像进行有效的语义分割的目的。
-
-
-
-
-
-
-