-
公开(公告)号:CN109858450B
公开(公告)日:2020-10-23
申请号:CN201910110621.8
申请日:2019-02-12
申请人: 中国科学院遥感与数字地球研究所 , 应急管理部国家减灾中心
摘要: 本发明公开一种十米级空间分辨率遥感影像城镇提取方法及系统。所述提取方法包括:采集夏季时相的十米级空间分辨率光学遥感影像和城镇地区的夜间灯光数据;根据光学遥感影像建立城镇和非城镇多尺寸遥感影像训练样本集;根据深度学习特征训练城镇场景图像分类器,获得训练分类器;计算夜间灯光数据的最佳阈值,最佳阈值为夜间灯光数据中用于分割城镇和非城镇两个区域类型的分割点数值;在初始城镇区域分布掩膜图约束的空间范围内采用训练分类器进行多尺度格网的城镇场景分类,获得城镇分类结果;将城镇分类结果进行后处理操作,获得城镇边界提取结果。通过采用最佳阈值分割夜间灯光数据获得城镇和非城镇两个区域类型的分布范围和使用多尺度格网的城镇场景分类提高了城镇边界提取结果的准确性。
-
公开(公告)号:CN109858450A
公开(公告)日:2019-06-07
申请号:CN201910110621.8
申请日:2019-02-12
申请人: 中国科学院遥感与数字地球研究所 , 应急管理部国家减灾中心
摘要: 本发明公开一种十米级空间分辨率遥感影像城镇提取方法及系统。所述提取方法包括:采集夏季时相的十米级空间分辨率光学遥感影像和城镇地区的夜间灯光数据;根据光学遥感影像建立城镇和非城镇多尺寸遥感影像训练样本集;根据深度学习特征训练城镇场景图像分类器,获得训练分类器;计算夜间灯光数据的最佳阈值,最佳阈值为夜间灯光数据中用于分割城镇和非城镇两个区域类型的分割点数值;在初始城镇区域分布掩膜图约束的空间范围内采用训练分类器进行多尺度格网的城镇场景分类,获得城镇分类结果;将城镇分类结果进行后处理操作,获得城镇边界提取结果。通过采用最佳阈值分割夜间灯光数据获得城镇和非城镇两个区域类型的分布范围和使用多尺度格网的城镇场景分类提高了城镇边界提取结果的准确性。
-
公开(公告)号:CN107145891B
公开(公告)日:2020-12-11
申请号:CN201710315699.4
申请日:2017-05-08
申请人: 中国科学院遥感与数字地球研究所
IPC分类号: G06K9/46
摘要: 本发明公开一种基于遥感影像的水体提取方法及系统,所述方法包括:获取同一研究区域的多时相遥感影像;提取各多时相遥感影像的近红外波段,得到分别与多时相遥感影像对应的单波段影像;求同一像元在各单波段影像的亮度值的方差;比较方差与分割阈值的大小,从中选择出方差小于分割阈值的像元作为水体像元,全部的水体像元构成水体提取结果。本发明提供的方法及系统能够很好地排除山体阴影和城区建筑的影响,水体提取精度高。
-
公开(公告)号:CN107169450A
公开(公告)日:2017-09-15
申请号:CN201710340257.5
申请日:2017-05-15
申请人: 中国科学院遥感与数字地球研究所
CPC分类号: G06K9/0063 , G06K9/6256 , G06K9/6267 , G06K9/6292
摘要: 本发明提供了一种高分辨率的遥感图像分类方法,包括:对给定的遥感图像生成场景子图像集合,并建立场景分类训练集;提取所述场景分类训练集中的每幅子图像的第一语义特征;根据所述每幅子图像的第一语义特征建立第一场景分类模型;基于第一场景分类模型计算第一分类结果概率向量;提取所述场景分类训练集中的每幅子图像的第二语义特征;根据所述每幅子图像的第二语义特征建立第二场景分类模型;基于第二场景分类模型计算第二分类结果概率向量;利用分数层融合方法将第一分类结果概率向量和第二分类结果概率向量进行融合,得到第三分类结果概率向量;根据第三分类结果概率向量建立第三场景分类模型;根据第三场景分类模型判定待分类遥感图像的场景类别。本发明能够同时利用高分辨率场景图像的多级语义特征,使二者有机融合,提高了场景分类的准确性。
-
公开(公告)号:CN107145891A
公开(公告)日:2017-09-08
申请号:CN201710315699.4
申请日:2017-05-08
申请人: 中国科学院遥感与数字地球研究所
IPC分类号: G06K9/46
摘要: 本发明公开一种基于遥感影像的水体提取方法及系统,所述方法包括:获取同一研究区域的多时相遥感影像;提取各多时相遥感影像的近红外波段,得到分别与多时相遥感影像对应的单波段影像;求同一像元在各单波段影像的亮度值的方差;比较方差与分割阈值的大小,从中选择出方差小于分割阈值的像元作为水体像元,全部的水体像元构成水体提取结果。本发明提供的方法及系统能够很好地排除山体阴影和城区建筑的影响,水体提取精度高。
-
公开(公告)号:CN107066989A
公开(公告)日:2017-08-18
申请号:CN201710307103.6
申请日:2017-05-04
申请人: 中国科学院遥感与数字地球研究所
摘要: 本发明公开了一种同步卫星遥感序列影像的积雪识别方法及系统。具体为,计算多时相待识别影像与单时相积雪样本之间的光谱角度和亮度差,并基于光谱角度和亮度差,对多时相待识别影像进行掩膜,生成多时相高亮地物影像;计算动态时间规整值,并基于所述动态时间规整值,对多时相高亮地物影像进行掩膜,生成积雪初步识别结果图像;基于积雪初步识别结果图像,采用分类结果后处理的方法,得到积雪识别结果图像,充分利用了同步卫星遥感序列影像的多时相特性,无需短波红外波段,即可排除云的影响,实现同步卫星遥感影像中积雪的快速准确的识别。
-
公开(公告)号:CN106950177A
公开(公告)日:2017-07-14
申请号:CN201611005727.4
申请日:2016-11-16
申请人: 中国科学院遥感与数字地球研究所 , 民政部国家减灾中心
IPC分类号: G01N21/17
CPC分类号: G01N21/17 , G01N2021/1793
摘要: 本发明涉及一种改进的光谱角匹配(MSAM)进行GF‑4卫星遥感影像水体提取的方法,其步骤:首先对影像进行几何和辐射校正后,分别进行主成分变换(PCA)、求取归一化差分水体指数(NDWI)与归一化差分植被指数(NDWI),然后将遥感影像与第一个主成分PC1、第二个主成分PC2、NDWI和NDVI按波段合成组合成一个新的影像,由于影像的光谱值与PC1、PC2、NDWI和NDWI量纲不同,所以对组合后的影像进行归一化。进而构建积水体样本库,利用MSAM方法计算影像中各个像元与水体样本的光谱角度,生成光谱角结果图;通过设定阈值得到水体提取初步结果,最后进行分类结果后处理,得到最终的水体提取结果图。本发明填补了目前GF‑4卫星遥感影像水体提取方法的空白,实现了GF‑4卫星遥感影像中水体信息的准确提取。
-
公开(公告)号:CN107239759A
公开(公告)日:2017-10-10
申请号:CN201710387269.3
申请日:2017-05-27
申请人: 中国科学院遥感与数字地球研究所
CPC分类号: G06K9/0063 , G06K9/6262 , G06K9/6269
摘要: 本发明提供一种基于深度特征的高空间分辨率遥感图像迁移学习方法。该方法可以利用已有的遥感图像以及样本信息对新获取的遥感图像直接进行分类,从而为遥感快速监测提供支持。该方法包括以下步骤:对源域图像以及目标域图像,使用主成分变换,分别提取其前三个主成分分量;对生成的三个波段的新图像,提取每个像素为中心的图像块输入到已经训练好的多层卷积神经网络;输出卷积神经网络的最后一个全连接层,得到该像素的深度特征表示;对源域图像以及源域的训练样本,基于提取的深度特征使用支持向量机分类器训练得到一个分类器;对目标域图像,使用得到的支持向量分类器直接进行分类,完成从源域图像以及类别对应关系到目标域的迁移学习。
-
公开(公告)号:CN107239759B
公开(公告)日:2020-11-27
申请号:CN201710387269.3
申请日:2017-05-27
申请人: 中国科学院遥感与数字地球研究所
摘要: 本发明提供一种基于深度特征的高空间分辨率遥感图像迁移学习方法。该方法可以利用已有的遥感图像以及样本信息对新获取的遥感图像直接进行分类,从而为遥感快速监测提供支持。该方法包括以下步骤:对源域图像以及目标域图像,使用主成分变换,分别提取其前三个主成分分量;对生成的三个波段的新图像,提取每个像素为中心的图像块输入到已经训练好的多层卷积神经网络;输出卷积神经网络的最后一个全连接层,得到该像素的深度特征表示;对源域图像以及源域的训练样本,基于提取的深度特征使用支持向量机分类器训练得到一个分类器;对目标域图像,使用得到的支持向量分类器直接进行分类,完成从源域图像以及类别对应关系到目标域的迁移学习。
-
公开(公告)号:CN107066989B
公开(公告)日:2020-04-24
申请号:CN201710307103.6
申请日:2017-05-04
申请人: 中国科学院遥感与数字地球研究所
摘要: 本发明公开了一种同步卫星遥感序列影像的积雪识别方法及系统。具体为,计算多时相待识别影像与单时相积雪样本之间的光谱角度和亮度差,并基于光谱角度和亮度差,对多时相待识别影像进行掩膜,生成多时相高亮地物影像;计算动态时间规整值,并基于所述动态时间规整值,对多时相高亮地物影像进行掩膜,生成积雪初步识别结果图像;基于积雪初步识别结果图像,采用分类结果后处理的方法,得到积雪识别结果图像,充分利用了同步卫星遥感序列影像的多时相特性,无需短波红外波段,即可排除云的影响,实现同步卫星遥感影像中积雪的快速准确的识别。
-
-
-
-
-
-
-
-
-