-
公开(公告)号:CN116067374A
公开(公告)日:2023-05-05
申请号:CN202310013414.7
申请日:2023-01-05
Applicant: 南京航空航天大学
IPC: G01C21/20 , G06V10/75 , G06V10/764 , G06V10/82
Abstract: 本发明公开基于目标检测算法YOLOv4及几何约束的动态场景SLAM定位方法,本发明首先通过视觉传感器采集图像,用YOLOv4目标检测算法识别图像序列中潜在运动物体区域,对区域外的部分进行特征点提取并用光流法计算匹配特征点,算出两帧变换矩阵后,利用对极几何的极线约束判断特征点是否为动态点,当退化运动发生极线约束失效时,利用边界约束判断特征点是否为动态特征点,最后结合目标检测结果确定动态物体区域,剔除对应区域后再依次进行跟踪、局部建图以及回环检测线程,实现面向动态场景的SLAM算法,现有视觉SLAM算法在动态环境下位姿估计不准确,且容易丢失,本发明在显著提高动态场景下视觉SLAM位姿精度的同时保证了实时性,能够在嵌入式系统上流畅运行。