一种面向高分辨率光学遥感图像目标检测的自监督学习方法

    公开(公告)号:CN114973008A

    公开(公告)日:2022-08-30

    申请号:CN202210513584.7

    申请日:2022-05-11

    申请人: 武汉大学

    摘要: 本发明公开了一种面向高分辨率光学遥感图像目标检测的自监督学习方法,通过设计针对遥感图像目标特性的一系列预测任务,在通用的图像级特征的自监督学习的基础上添加了对于目标级特征的自监督学习。融合了高分辨率光学遥感图像地物目标空间敏感、旋转敏感以及尺度不变性的主要特点,优化网络对于目标特征的提取能力,更好的适配下游的遥感图像目标检测任务。相对于通用的基于图像级特征的自监督学习方法,本发明公开的方法能够充分地挖掘更加细粒的目标级别的特征。本发明可以有效地应用到基于深度学习的遥感图像的目标检测任务中去,提高检测的性能。

    一种融合事件相机与传统光学相机的合成孔径成像方法

    公开(公告)号:CN114862732A

    公开(公告)日:2022-08-05

    申请号:CN202210422694.2

    申请日:2022-04-21

    申请人: 武汉大学

    IPC分类号: G06T5/50 G06N3/04 G06N3/08

    摘要: 本发提供了一种融合事件相机与传统光学相机的合成孔径成像方法,该方法融合了两种相机在合成孔径成像应用中的优势,通过构建基于脉冲神经网络和卷积神经网络的神经网络架构,构建事件流与图像帧之间的桥梁,并重建出高质量的无遮挡目标图像帧,完成在多种密集程度遮挡场景中的高质量穿透成像任务。本发明综合利用了事件相机与传统光学相机的优势,以及使用了神经网络强大的的学习能力,从而实现目标在多种密集遮挡场景中的高质量图像重建,进一步增强了合成孔径成像技术的鲁棒性与可应用性。

    基于时相一致性伪标签的半监督SAR图像建筑区提取方法

    公开(公告)号:CN114821337A

    公开(公告)日:2022-07-29

    申请号:CN202210553829.9

    申请日:2022-05-20

    申请人: 武汉大学

    摘要: 本发明提供的是一种基于时相一致性伪标签的半监督SAR图像建筑区提取方法,本发明利用时间序列SAR图像中的语义不变性获取一致性约束,将不同时间点的SAR图像间的非语义变化看作是天然数据增强的结果,同时对两个支路的模型使用不同的初始化参数,构造模型参数层面的扰动,数据和模型层面的扰动能够增强模型预测的稳定性和对数据噪声的鲁棒性。本发明采用的基于时相一致性伪标签的半监督SAR图像建筑区提取方法,能够有效利用无标注SAR图像序列中的信息,得到更好的建筑区提取效果。

    一种基于事件相机系统的地面视角单目视觉里程计方法

    公开(公告)号:CN113379839A

    公开(公告)日:2021-09-10

    申请号:CN202110569036.1

    申请日:2021-05-25

    申请人: 武汉大学

    摘要: 本发明提出了一种基于事件相机系统的地面视角单目视觉里程计方法。本发明使用下视事件相机拍摄地面纹理,能够在高速、高动态场景中稳定运行,并且不受前视视角中遮挡和运动物体的干扰。本发明将事件相机输出的事件点沿时间轴压缩,以构建事件帧图像;在事件帧上提取Harris特征点并进行LK光流跟踪,以得到相邻事件帧间匹配的特征点对;根据反投影模型及运动模型求解相机的平移量和旋转量;将相机的平移量和旋转量作为光度误差最小化函数的优化初值,通过高斯牛顿法求解最小化函数得到优化后的平移量和旋转量。本发明将特征点法和直接法结合,实现了半直接法事件相机VO算法,提高了位姿估计的精度和稳定性。

    一种基于分布距离的小目标检测方法

    公开(公告)号:CN113378905A

    公开(公告)日:2021-09-10

    申请号:CN202110623154.6

    申请日:2021-06-04

    申请人: 武汉大学

    IPC分类号: G06K9/62 G06K9/20

    摘要: 本发明提供了一种基于分布距离的小目标检测方法。本发明构建小目标检测图像数据集;人工标注所述小目标检测数据集中每幅图像的目标标记框以及目标类别;构建基于分布距离的小目标检测网络,将小目标检测数据集作为输入数据,结合小目标检测训练集中的目标类型,构建基于分布距离的小目标检测网络损失函数,通过随机梯度下降算法训练得到优化后的基于分布距离的小目标检测网络,使用优化后的网络检测图片中的小目标。本发明在目标较小的时候,检测性能得到了提升。

    一种基于混合神经网络的事件场合成孔径成像算法

    公开(公告)号:CN112987026A

    公开(公告)日:2021-06-18

    申请号:CN202110244649.8

    申请日:2021-03-05

    申请人: 武汉大学

    摘要: 本发明涉及一种基于混合神经网络的事件场合成孔径成像算法,包括事件数据集的构建、事件流的重对焦方法、混合神经网络的构建与训练和视觉图像的重建。其中,通过事件相机的移动从多视角捕获场景的亮度信息后,即可将收集到的事件流进行重对焦,使得目标产生的有效事件点在时空平面上成功对齐,而遮挡物产生的噪声事件点仍处于离焦状态。随后通过构建和训练脉冲神经网络与卷积神经网络组成的混合神经网络(SNN‑CNN)模型,可从重对焦后的事件场中恢复出高质量的无遮挡目标图像。本发明综合利用了事件相机的低延时、高动态范围优势与混合神经网络的时空数据处理能力,实现了密集遮挡以及极端光照环境下的目标重建,并具有较好的视觉效果。

    一种基于双目事件相机的SLAM方法及系统

    公开(公告)号:CN111899276A

    公开(公告)日:2020-11-06

    申请号:CN202010647021.8

    申请日:2020-07-07

    申请人: 武汉大学

    摘要: 本发明提供一种基于双目事件相机的SLAM方法及系统,包括对输入的左右事件相机数据,利用IMU辅助进行运动补偿,得到相应重建图像;所述利用IMU辅助进行运动补偿,通过IMU积分得到的相对位姿,将事件点的坐标投影到参考坐标系中,事件点的深度采用邻近三维空间点深度的中值代替;对左右事件相机输入的相应重建图像分别进行特征点检测和跟踪;对已经检测和跟踪到的特征点进行三角化计算,得到对应目标的三维坐标点以及图像之间的位姿变化,利用PnP方法计算相机位姿;结合IMU预积分进行后端BA优化,获得相机运动轨迹以及场景建图信息。本发明技术方案能应对光照变化较大和高速运动的场景,可用于解决现有SLAM系统中机器人运动或环境过于复杂时容易失效的问题。