-
公开(公告)号:CN104008546B
公开(公告)日:2017-01-25
申请号:CN201410218699.9
申请日:2014-05-21
Applicant: 西安电子科技大学
Abstract: 本发明属于空间目标部件检测技术领域,特别涉及基于高斯概率和的ISAR卫星帆板检测方法。该基于高斯概率和的ISAR卫星帆板检测方法包括以下步骤:得到卫星图像I1和卫星帆板图像I2;从卫星图像I1中提取到R个特征点,从卫星帆板图像I2中提取到T个特征点;针对卫星图像I1的每个特征点,设置对应的矩形窗口;依次进行第1次特征点匹配至第R次特征点匹配;在进行每次特征点匹配时,得出对应的高斯概率和Z1至ZR;从Z1至ZR中找出最大值Zt,得出卫星帆板检测的特征点,然后根据卫星帆板检测的特征点对卫星帆板进行检测;所述卫星帆板检测的特征点为:在进行第t次特征点匹配时,卫星图像I1中匹配成功的特征点。
-
公开(公告)号:CN103869316A
公开(公告)日:2014-06-18
申请号:CN201410119829.3
申请日:2014-03-27
Applicant: 西安电子科技大学
IPC: G01S13/90
CPC classification number: G01S13/90 , G01S2013/907
Abstract: 本发明公开了一种基于稀疏表征的前视阵列SAR超分辨成像方法,主要解决现有前视成像算法物理难实现且系统成本高的问题。其实现过程是:(1)以双基模式接收合成孔径雷达回波数据,并按照单基模式修改回波信号;(2)对修改后的回波信号进行距离脉冲压缩和方位维解线调频处理;(3)基于观测场景和成像目标的稀疏特性,将处理后的信号通过最大后验概率估计方法构建SAR成像的代价函数;(4)利用更新的拟牛顿算法来求解代价函数得到前视阵列SAR的超分辨成像结果。本发明能在有限阵列长度的条件下获得高分辨率前视成像结果,有效降低系统的成本和复杂度,可用于目标探测、地形勘测、制导、城市规划以及环境勘测。
-
公开(公告)号:CN103630886B
公开(公告)日:2015-10-28
申请号:CN201310653886.5
申请日:2013-12-05
Applicant: 西安电子科技大学
IPC: G01S7/41
Abstract: 本发明公开了一种基于属性散射中心模型的ISAR目标分解与重构方法,用于对属性散射中心参数进行提取和估计以及对目标进行重构。解决了图像域分割的参数提取方法不适合应用于低信噪比、目标结构复杂环境和破坏信号完整性的问题。其实现方案是:对ISAR目标信号进行距离成像,平动补偿,方位成像和傅里叶变换,将信号转换到距离频域-方位角度域;对空间目标含有的K个属性散射中心依次进行参数估计和迭代求解;将K个属性散射中心叠加实现对ISAR目标的重构和尺寸估计。本发明针对现有方法运算量大的问题,引入快速傅立叶算法提升运算效率。能对空间目标进行精确的散射中心提取和参数估计,可用于目标探测与识别和ISAR成像领域。
-
公开(公告)号:CN103616687B
公开(公告)日:2015-10-28
申请号:CN201310655227.5
申请日:2013-12-05
Applicant: 西安电子科技大学
IPC: G01S13/90
Abstract: 本发明公开了一种分段线性走动估计的低信噪比ISAR包络对齐方法,主要解决现有技术不能对低信噪比情况下的ISAR回波包络进行有效而快速对齐的问题。其实现方案是:利用目标运动的连续性,将目标回波的包络误差建模为高阶多项式形式,并将全孔径时间分成若干个子孔径时间,将每个子孔径时间内的包络误差可近似为线性。运用传统的包络对齐算法对每个子孔径进行线性系数的估计,利用子孔径的线性系数估计结果,通过最小二乘法实现对全孔径包络误差的估计。本发明能在低信噪比情况下实现对目标回波包络高效精确地对齐,可用于目标探测与识别和ISAR成像领域。
-
公开(公告)号:CN118566763A
公开(公告)日:2024-08-30
申请号:CN202410573590.0
申请日:2024-05-10
Applicant: 电子科技大学
IPC: G01R31/392 , G01R31/367 , G01R31/378
Abstract: 本发明公开了一种基于多尺度特征提取网络估计锂电池健康状态的方法,先构建精细化建模的多尺度特征提取网络,再使用采集的数据集训练网络,直至收敛;然后根据收敛后的多尺度特征提取网络预测待测锂电池的健康状态;具体地讲,多尺度特征提取网络融合了精细化序列处理与卷积注意力特征提取,然后根据融合后的特征,使用多层感知机估计待测锂电池的健康状态,从而这样便获得更全面的锂电池老化特征,使预测的更加精确。
-
公开(公告)号:CN103630886A
公开(公告)日:2014-03-12
申请号:CN201310653886.5
申请日:2013-12-05
Applicant: 西安电子科技大学
IPC: G01S7/41
CPC classification number: G01S7/412 , G01S13/9035 , G01S2013/9064
Abstract: 本发明公开了一种基于属性散射中心模型的ISAR目标分解与重构方法,用于对属性散射中心参数进行提取和估计以及对目标进行重构。解决了图像域分割的参数提取方法不适合应用于低信噪比、目标结构复杂环境和破坏信号完整性的问题。其实现方案是:对ISAR目标信号进行距离成像,平动补偿,方位成像和傅里叶变换,将信号转换到距离频域-方位角度域;对空间目标含有的K个属性散射中心依次进行参数估计和迭代求解;将K个属性散射中心叠加实现对ISAR目标的重构和尺寸估计。本发明针对现有方法运算量大的问题,引入快速傅立叶算法提升运算效率。能对空间目标进行精确的散射中心提取和参数估计,可用于目标探测与识别和ISAR成像领域。
-
公开(公告)号:CN103901429B
公开(公告)日:2016-08-17
申请号:CN201410140123.5
申请日:2014-04-09
Applicant: 西安电子科技大学
IPC: G01S13/90
Abstract: 本发明公开了一种基于稀疏孔径的机动目标逆合成孔径雷达成像方法,本发明的实现步骤是:(1)接收稀疏孔径的逆合成孔径雷达的原始回波数据;(2)距离压缩和包络对齐处理;(3)精确的相位校正;(4)重构稀疏孔径回波信号;(5)快速傅立叶变换实现距离?多普勒成像。本发明具有在机动目标和稀疏孔径情况下,能够对逆合成孔径雷达ISAR成像处理实现精确的相位补偿和数据重构,获得更聚焦的高质量逆合成孔径雷达ISAR成像结果。
-
公开(公告)号:CN103983968B
公开(公告)日:2016-03-23
申请号:CN201410106245.2
申请日:2014-03-20
Applicant: 西安电子科技大学
IPC: G01S13/90
Abstract: 本发明属于极化SAR超分辨成像技术领域,特别涉及基于分布式压缩感知的全极化SAR超分辨成像方法。该基于分布式压缩感知的全极化SAR超分辨成像方法包括以下步骤:建立全极化合成孔径雷达信号模型;根据各个极化通道接收的后向散射回波数据,得出合成孔径雷达后向散射系数矩阵;采用分布式压缩感知算法,建立合成孔径雷达后向散射系数矩阵的最优化问题模型;求解所述合成孔径雷达后向散射系数矩阵的最优化问题,得出合成孔径雷达后向散射系数矩阵;根据所述合成孔径雷达后向散射系数矩阵,针对每个极化通道进行超分辨成像处理,得出对应的伪彩色图像;针对各个极化通道对应的伪彩色图像进行伪彩色融合,得出伪彩色融合图像。
-
公开(公告)号:CN103901429A
公开(公告)日:2014-07-02
申请号:CN201410140123.5
申请日:2014-04-09
Applicant: 西安电子科技大学
IPC: G01S13/90
CPC classification number: G01S13/90 , G01S7/2923 , G01S2013/9064
Abstract: 本发明公开了一种基于稀疏孔径的机动目标逆合成孔径雷达成像方法,本发明的实现步骤是:(1)接收稀疏孔径的逆合成孔径雷达的原始回波数据;(2)距离压缩和包络对齐处理;(3)精确的相位校正;(4)重构稀疏孔径回波信号;(5)快速傅立叶变换实现距离-多普勒成像。本发明具有在机动目标和稀疏孔径情况下,能够对逆合成孔径雷达ISAR成像处理实现精确的相位补偿和数据重构,获得更聚焦的高质量逆合成孔径雷达ISAR成像结果。
-
公开(公告)号:CN103616687A
公开(公告)日:2014-03-05
申请号:CN201310655227.5
申请日:2013-12-05
Applicant: 西安电子科技大学
IPC: G01S13/90
CPC classification number: G01S7/41 , G01S13/9035 , G01S2013/9064
Abstract: 本发明公开了一种分段线性走动估计的低信噪比ISAR包络对齐方法,主要解决现有技术不能对低信噪比情况下的ISAR回波包络进行有效而快速对齐的问题。其实现方案是:利用目标运动的连续性,将目标回波的包络误差建模为高阶多项式形式,并将全孔径时间分成若干个子孔径时间,将每个子孔径时间内的包络误差可近似为线性。运用传统的包络对齐算法对每个子孔径进行线性系数的估计,利用子孔径的线性系数估计结果,通过最小二乘法实现对全孔径包络误差的估计。本发明能在低信噪比情况下实现对目标回波包络高效精确地对齐,可用于目标探测与识别和ISAR成像领域。
-
-
-
-
-
-
-
-
-