基于卷积因子分析模型的雷达高分辨距离像目标识别方法

    公开(公告)号:CN106054155B

    公开(公告)日:2018-08-10

    申请号:CN201610393379.6

    申请日:2016-06-03

    IPC分类号: G01S7/41

    摘要: 本发明公开了一种基于卷积因子分析模型的雷达高分辨距离像目标识别方法,主要解决现有技术在小样本情况下目标识别性能较差的问题。其实现步骤为:1)分别对各类目标的雷达高分辨距离像按角域分帧并对各帧数据取模得到时域特征;2)对各帧数据进行预处理;3)分别对预处理后的各帧高分辨距离像构建卷积因子分析模型,并计算各模型参数的条件后验分布;4)对各参数初始化并进行I次迭代更新;5)对测试样本强度归一化,并与各帧平均像平移对齐;6)根据各帧卷积因子分析模型参数的后验均值计算该测试样本的帧概率密度函数值;7)找出最大概率密度函数值,判定测试样本的所属类别。本发明模型复杂度较小,可用于小样本情况下的雷达目标识别。

    基于多参数优化生成对抗网络的SAR目标识别方法

    公开(公告)号:CN109766835A

    公开(公告)日:2019-05-17

    申请号:CN201910026176.7

    申请日:2019-01-11

    IPC分类号: G06K9/00 G06K9/62

    摘要: 本发明公开了一种基于多参数优化生成对抗网络的的合成孔径雷达SAR目标识别方法,主要解决现有技术中分类器训练时识别率不高,且不能保证训练得到的分类器参数是最优解的问题。其实现方案为:生成初始训练样本集和测试样本集,并对初始训练样本进行扩充生成最终训练样本集;设置生成对抗网络的结构和参数组数;采用多组网络参数交叉训练的方法训练生成对抗网络,并同时利用训练集样本和生成器生成的伪样本训练生成对抗网络中的判别器;用训练好的多组生成对抗网络中的判别器对目标型号进行识别,对多组判别器得到的结果进行相加再取平均得到目标型号的识别结果。本发明提高了SAR目标识别的正确率,可用于对静止SAR目标的识别。

    基于卷积因子分析模型的雷达高分辨距离像目标识别方法

    公开(公告)号:CN106054155A

    公开(公告)日:2016-10-26

    申请号:CN201610393379.6

    申请日:2016-06-03

    IPC分类号: G01S7/41

    CPC分类号: G01S7/411

    摘要: 本发明公开了一种基于卷积因子分析模型的雷达高分辨距离像目标识别方法,主要解决现有技术在小样本情况下目标识别性能较差的问题。其实现步骤为:1)分别对各类目标的雷达高分辨距离像按角域分帧并对各帧数据取模得到时域特征;2)对各帧数据进行预处理;3)分别对预处理后的各帧高分辨距离像构建卷积因子分析模型,并计算各模型参数的条件后验分布;4)对各参数初始化并进行I次迭代更新;5)对测试样本强度归一化,并与各帧平均像平移对齐;6)根据各帧卷积因子分析模型参数的后验均值计算该测试样本的帧概率密度函数值;7)找出最大概率密度函数值,判定测试样本的所属类别。本发明模型复杂度较小,可用于小样本情况下的雷达目标识别。

    基于多参数优化生成对抗网络的SAR目标识别方法

    公开(公告)号:CN109766835B

    公开(公告)日:2023-04-18

    申请号:CN201910026176.7

    申请日:2019-01-11

    摘要: 本发明公开了一种基于多参数优化生成对抗网络的的合成孔径雷达SAR目标识别方法,主要解决现有技术中分类器训练时识别率不高,且不能保证训练得到的分类器参数是最优解的问题。其实现方案为:生成初始训练样本集和测试样本集,并对初始训练样本进行扩充生成最终训练样本集;设置生成对抗网络的结构和参数组数;采用多组网络参数交叉训练的方法训练生成对抗网络,并同时利用训练集样本和生成器生成的伪样本训练生成对抗网络中的判别器;用训练好的多组生成对抗网络中的判别器对目标型号进行识别,对多组判别器得到的结果进行相加再取平均得到目标型号的识别结果。本发明提高了SAR目标识别的正确率,可用于对静止SAR目标的识别。

    基于CGAN的空间目标ISAR图像部件分割方法

    公开(公告)号:CN111583276B

    公开(公告)日:2022-04-19

    申请号:CN202010370448.8

    申请日:2020-05-06

    摘要: 本发明提出了一种基于条件生成对抗网络CGAN的空间目标ISAR图像部件分割方法,用于解决现有技术存在的ISAR图像分割精度低的问题,实现步骤为:生成训练数据集和测试数据集;构建条件生成对抗网络CGAN模型;对条件生成对抗网络CGAN进行迭代训练;对训练好的条件生成对抗网络CGAN进行测试;分割预测分割图像中的空间目标ISAR图像部件。本发明利用条件生成对抗网络CGAN的对抗博弈过程实现了从ISAR图像到其标签的全局映射,很好地构建了预测分割图像的高频成分,同时还采用L1损失构建预测分割图像的低频成分,使预测分割图像和标签的整体相似,有效提升了空间目标ISAR图像部件分割精度。

    一种结合定位质量估计的开集SAR目标检测方法

    公开(公告)号:CN118196620A

    公开(公告)日:2024-06-14

    申请号:CN202410276443.7

    申请日:2024-03-12

    摘要: 本发明公开了一种结合定位质量估计的开集SAR目标检测方法,包括:获取SAR数据集并进行扩充,得到训练数据集;基于单阶段目标检测模型构建开集SAR目标检测器,在现有分类头中增加一路未知类判别分支,用以判别目标属于已知类还是未知类;同时,在现有回归头中增加一路定位质量估计分支,用于进行与类别无关的目标定位质量估计;引入未知类概率学习损失和定位质量估计损失对开集SAR目标检测器进行训练,以便于利用训练好的开集SAR目标检测器进行目标检测。该方法不仅能对已知类别进行检测识别,还能检测未知类目标,并将其判为未知类,减少了未知类目标和已知类目标的混淆,提升了SAR目标检测器在开放场景下的性能。

    基于对抗域适应的SAR图像目标检测方法

    公开(公告)号:CN112132042B

    公开(公告)日:2023-08-01

    申请号:CN202011013438.5

    申请日:2020-09-24

    摘要: 本发明提出了一种基于对抗域适应的SAR图像目标检测方法,用于解决现有技术在少样本任务中存在的检测精度低的问题,实现步骤为:获取源域数据集和目标域数据集;构建源域目标检测网络;对源域目标检测网络进行迭代训练;获取建议目标区域特征图;构建对抗域适应目标检测网络;对对抗域适应目标检测网络进行迭代训练;获取SAR图像的目标检测结果。本发明在目标检测网络的基础上,加入了对抗域适应模块,约束网络学习SAR图像和光学遥感图像的共有特征,实现了实例级的域适应,缓解了SAR数据量少引起的模型过拟合问题,有效提升了SAR图像目标检测性能。

    基于CGAN的空间目标ISAR图像部件分割方法

    公开(公告)号:CN111583276A

    公开(公告)日:2020-08-25

    申请号:CN202010370448.8

    申请日:2020-05-06

    摘要: 本发明提出了一种基于条件生成对抗网络CGAN的空间目标ISAR图像部件分割方法,用于解决现有技术存在的ISAR图像分割精度低的问题,实现步骤为:生成训练数据集和测试数据集;构建条件生成对抗网络CGAN模型;对条件生成对抗网络CGAN进行迭代训练;对训练好的条件生成对抗网络CGAN进行测试;分割预测分割图像中的空间目标ISAR图像部件。本发明利用条件生成对抗网络CGAN的对抗博弈过程实现了从ISAR图像到其标签的全局映射,很好地构建了预测分割图像的高频成分,同时还采用L1损失构建预测分割图像的低频成分,使预测分割图像和标签的整体相似,有效提升了空间目标ISAR图像部件分割精度。

    一种基于多泛化知识积累的小样本图像匹配方法

    公开(公告)号:CN116778198A

    公开(公告)日:2023-09-19

    申请号:CN202310545395.2

    申请日:2023-05-15

    摘要: 本发明公开了一种基于多泛化知识积累的小样本图像匹配方法,包括:获取第一光学图像和第一SAR图像;对第一光学图像和第一SAR图像进行预处理,得到多个第一光学图像切片和多个第一SAR图像切片;将多个第一光学图像切片输入匹配模型的第一分支、将多个第一SAR图像切片输入匹配模型的第二分支,得到第一特征向量和第二特征向量;其中,匹配模型为基于小样本子任务、跨场景子任务、小样本子任务的第一支撑集、第一查询集以及跨场景子任务的第二支撑集、第二查询集训练得到的双分支网络;根据第一特征向量与第二特征向量间的相似性,得到匹配结果。本发明采用的泛化知识学习策略使匹配模型对于不同场景的小样本情况均能良好适用,提高了模型的泛用性。

    基于特征联合驱动的异源图像配准方法及其装置

    公开(公告)号:CN116168065A

    公开(公告)日:2023-05-26

    申请号:CN202211572767.2

    申请日:2022-12-08

    摘要: 本发明公开了一种基于特征联合驱动的异源图像配准方法及其装置,涉及图像处理技术领域,包括:获取已配对的光学场景图和合成孔径雷达场景图;获取场景图中的特征点,以特征点为中心进行裁切,获取场景图切片;构建特征联合驱动的匹配网络模型,并训练模型,基于训练好的模型获取各场景图切片对应的物理结构特征和深层语义特征;将场景图切片对应的物理结构特征和深层语义特征进行首尾拼接,得到特征向量;获取光学场景图切片的特征向量中的各特征与合成孔径雷达场景图切片的特征向量中各特征之间的距离,得到场景图中的匹配点对,基于匹配点对光学场景图和合成孔径雷达配准。本申请能够充分利用图像的浅层结构信息和深层语义信息实现图像匹配。