-
公开(公告)号:CN103543453B
公开(公告)日:2017-01-18
申请号:CN201310517927.8
申请日:2013-10-28
Applicant: 北京理工大学 , 北京空间飞行器总体设计部
Abstract: 本发明提供一种地球同步轨道合成孔径雷达干涉的高程反演方法,其包括:步骤1,选取GEO SAR获取干涉数据的轨道,采集轨道上的干涉数据;步骤2,根据步骤1获得的干涉数据利用BP算法进行GEO SAR成像处理;步骤3,根据经步骤2处理后的GEO SAR图像建立GEO干涉模型,当相位矢量与成像平面分离时,根据GEO干涉模型进行GEO SAR干涉高程反演。本发明的高程反演方法通过建立合理的GEO SAR干涉模型,实现有效相位矢量与成像平面分离情况下的高程反演处理,解决了GEO SAR干涉处理的高程反演的核心问题——有效相位矢量与成像平面分离问题,实现了任意位置处利用GEO SAR干涉处理的高程反演。
-
公开(公告)号:CN103543453A
公开(公告)日:2014-01-29
申请号:CN201310517927.8
申请日:2013-10-28
Applicant: 北京理工大学 , 北京空间飞行器总体设计部
CPC classification number: G01S13/9023 , G01S7/41
Abstract: 本发明提供一种地球同步轨道合成孔径雷达干涉的高程反演方法,其包括:步骤1,选取GEO SAR获取干涉数据的轨道,采集轨道上的干涉数据;步骤2,根据步骤1获得的干涉数据利用BP算法进行GEO SAR成像处理;步骤3,根据经步骤2处理后的GEO SAR图像建立GEO干涉模型,当相位矢量与成像平面分离时,根据GEO干涉模型进行GEO SAR干涉高程反演。本发明的高程反演方法通过建立合理的GEO SAR干涉模型,实现有效相位矢量与成像平面分离情况下的高程反演处理,解决了GEO SAR干涉处理的高程反演的核心问题——有效相位矢量与成像平面分离问题,实现了任意位置处利用GEO SAR干涉处理的高程反演。
-
公开(公告)号:CN113777606B
公开(公告)日:2023-12-26
申请号:CN202110921920.7
申请日:2021-08-12
Applicant: 北京理工大学 , 北京理工大学重庆创新中心 , 北京理工大学前沿技术研究院
IPC: G01S13/90
Abstract: 本发明提供一种分布式GEO SAR三维形变反演多角度选取方法及装置,所述方法包括获取分布式GEO SAR系统对观测目标全部照射的空间范围内的速度、坐标、场景坐标,得到三维形变模型系数矩阵;通过各观测角度下的干涉图相位方差获得相位误差的协方差矩阵;根据所述三维形变模型系数矩阵和所述相位误差的协方差矩阵,计算所述分布式GEO SAR系统对观测目标在全部照射时间段内的测量精度系数最小定位精度系数;基于所述分布式GEO SAR系统对观测目标在全部照射时间段内的测量精度系数最小定位精度系数,进行最优组合选择。根据本发明的方案,可有效提高地表三维形变反演精度。
-
公开(公告)号:CN114910905A
公开(公告)日:2022-08-16
申请号:CN202210427304.0
申请日:2022-04-22
Applicant: 北京理工大学 , 北京理工大学重庆创新中心 , 北京理工大学前沿技术研究院
Abstract: 本发明提供一种相似性约束下GEO星机双基SAR动目标智能成像方法,包括:通过GEO SA‑BSAR系统采集含有运动目标的回波数据,并对回波数据进行距离压缩、方位维FFT和杂波抑制处理,获取运动目标的距离‑多普勒域信号;对距离‑多普勒域信号进行距离维FFT处理、相位补偿和2D‑IFFT处理,获取运动目标散焦信号;构建基于相似性约束的深度神经网络模型,深度神经网络模型的网络结构由若干个残差块搭建,并通过优化含相似性度量的损失函数对深度神经网络进行训练,得到深度神经网络模型参数;将运动目标散焦信号输入训练后的深度神经网络模型,输出得到聚焦的运动目标图像。本发明能够快速准确地对运动目标进行成像。
-
公开(公告)号:CN114910905B
公开(公告)日:2025-05-20
申请号:CN202210427304.0
申请日:2022-04-22
Applicant: 北京理工大学 , 北京理工大学重庆创新中心 , 北京理工大学前沿技术研究院
Abstract: 本发明提供一种相似性约束下GEO星机双基SAR动目标智能成像方法,包括:通过GEO SA‑BSAR系统采集含有运动目标的回波数据,并对回波数据进行距离压缩、方位维FFT和杂波抑制处理,获取运动目标的距离‑多普勒域信号;对距离‑多普勒域信号进行距离维FFT处理、相位补偿和2D‑IFFT处理,获取运动目标散焦信号;构建基于相似性约束的深度神经网络模型,深度神经网络模型的网络结构由若干个残差块搭建,并通过优化含相似性度量的损失函数对深度神经网络进行训练,得到深度神经网络模型参数;将运动目标散焦信号输入训练后的深度神经网络模型,输出得到聚焦的运动目标图像。本发明能够快速准确地对运动目标进行成像。
-
公开(公告)号:CN113156437B
公开(公告)日:2022-08-19
申请号:CN202110351415.3
申请日:2021-03-31
Applicant: 北京理工大学 , 北京理工大学重庆创新中心 , 北京理工大学前沿技术研究院
Abstract: 本发明提供一种高轨SAR对低轨SAR成像的射频干扰影响评估方法,可根据高轨SAR与低轨SAR的系统参数以及地面双基地散射系数计算来自高轨SAR的射频干扰信号聚焦后的功率,然后利用低轨SAR信号聚焦后的功率和射频干扰信号聚焦后的功率计算聚焦后图像SINR,从而有效地评估高轨SAR信号对低轨SAR成像产生的影响,实现高轨SAR对低轨SAR射频干扰影响的定量分析,进而判断高轨SAR是否对低轨SAR的成像产生影响。
-
公开(公告)号:CN114609629A
公开(公告)日:2022-06-10
申请号:CN202210093131.3
申请日:2022-01-26
Applicant: 北京理工大学 , 北京理工大学重庆创新中心 , 北京理工大学前沿技术研究院
Abstract: 本发明公开了基于直达波和杂波子空间的GEO星机双基地同步方法,该同步方法在直达波同步的基础上,为了实现直达波斜距相位与同步误差相位的精确分离,先利用三次相位函数提取直达波斜距的高阶项系数,再将场景中提取的静止杂波子空间作为辅助校准源,从该空间中估计出斜距相位产生的多普勒频移误差,实现了直达波斜距相位与同步误差相位的精确分离,从而提高运动目标测速和定位精度。本发明方法不需要实时获取高精度轨道参数,降低同步难度。
-
公开(公告)号:CN113156437A
公开(公告)日:2021-07-23
申请号:CN202110351415.3
申请日:2021-03-31
Applicant: 北京理工大学 , 北京理工大学重庆创新中心 , 北京理工大学前沿技术研究院
Abstract: 本发明提供一种高轨SAR对低轨SAR成像的射频干扰影响评估方法,可根据高轨SAR与低轨SAR的系统参数以及地面双基地散射系数计算来自高轨SAR的射频干扰信号聚焦后的功率,然后利用低轨SAR信号聚焦后的功率和射频干扰信号聚焦后的功率计算聚焦后图像SINR,从而有效地评估高轨SAR信号对低轨SAR成像产生的影响,实现高轨SAR对低轨SAR射频干扰影响的定量分析,进而判断高轨SAR是否对低轨SAR的成像产生影响。
-
公开(公告)号:CN113777606A
公开(公告)日:2021-12-10
申请号:CN202110921920.7
申请日:2021-08-12
Applicant: 北京理工大学 , 北京理工大学重庆创新中心 , 北京理工大学前沿技术研究院
IPC: G01S13/90
Abstract: 本发明提供一种分布式GEO SAR三维形变反演多角度选取方法及装置,所述方法包括获取分布式GEO SAR系统对观测目标全部照射的空间范围内的速度、坐标、场景坐标,得到三维形变模型系数矩阵;通过各观测角度下的干涉图相位方差获得相位误差的协方差矩阵;根据所述三维形变模型系数矩阵和所述相位误差的协方差矩阵,计算所述分布式GEO SAR系统对观测目标在全部照射时间段内的测量精度系数最小定位精度系数;基于所述分布式GEO SAR系统对观测目标在全部照射时间段内的测量精度系数最小定位精度系数,进行最优组合选择。根据本发明的方案,可有效提高地表三维形变反演精度。
-
公开(公告)号:CN118131235A
公开(公告)日:2024-06-04
申请号:CN202410326319.7
申请日:2024-03-21
Applicant: 北京理工大学 , 北京理工大学前沿技术研究院
IPC: G01S13/90 , G01S7/41 , G06V10/75 , G06V10/44 , G06V10/54 , G06V10/42 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/045 , G06N3/084
Abstract: 本发明公开了一种分布式多角度雷达差分干涉数据广义特征自适应配准方法,属于合成孔径雷达技术领域。本发明根据散射点的入射角获取散射点的后向散射系数;将每个散射点沿垂直视线方向投影到不同角度SAR二维成像平面上,再根据后向散射系数得到成像平面图像,将生成的成像平面图像输入到复特征生成网络中输出复图像;计算输出的复图像与目标图像的损失,将损失结果反向传播完成复特征生成网络的训练。
-
-
-
-
-
-
-
-
-