-
公开(公告)号:CN113610097B
公开(公告)日:2023-05-05
申请号:CN202110907055.0
申请日:2021-08-09
申请人: 西安电子科技大学
摘要: 本发明公开了一种基于多尺度相似指导网络的舰船目标分割方法,主要解决现有技术在小样本条件下对舰船目标分割结果较差的问题。其方案是:将现有的不同地区且包含不同成像方式的SAR图像舰船目标分割数据集构建原始数据集;将原始数据集构建为小样本分割训练数据集和小样本分割测试数据集;构建由支撑图像的特征提取支路、查询图像的特征提取支路、相似度指导模块及生成支路构成的多尺度相似指导网络;使用小样本训练集对该网络进行训练;将小样本测试集输入到训练好的网络中得到舰船目标的分割结果。本发明相较于其他小样本语义分割方法,有效减少目标域上数据所需标注数据的数量,提高了小样本语义分割效果。可用于SAR图像解译的中间处理。
-
公开(公告)号:CN113723482A
公开(公告)日:2021-11-30
申请号:CN202110958503.X
申请日:2021-08-20
申请人: 西安电子科技大学
摘要: 本发明公开了一种基于多示例孪生网络的高光谱目标检测方法,主要解决现有技术在高光谱数据目标不足时,模型易过拟合进而导致检测效果下降的问题。其实现方案为:1.准备数据集,并从训练集中划分出“正‑负”和“正‑正”样本对;2.搭建一个由特征提取模块、权重计算模块、特征融合模块、分类器四个部分依次级联构成的多示例孪生网络;3.设置训练参数,用训练集中的样本对迭代训练多示例孪生网络;4.用训练好的多示例孪生网络对测试集数据进行单点测试,输出每个像素属于目标的置信度。本发明提高了高光谱数据目标不足时的检测结果,减小了过拟合现象,可用于爆炸物检测、农作物精细分类。
-
公开(公告)号:CN113610097A
公开(公告)日:2021-11-05
申请号:CN202110907055.0
申请日:2021-08-09
申请人: 西安电子科技大学
摘要: 本发明公开了一种基于多尺度相似指导网络的舰船目标分割方法,主要解决现有技术在小样本条件下对舰船目标分割结果较差的问题。其方案是:将现有的不同地区且包含不同成像方式的SAR图像舰船目标分割数据集构建原始数据集;将原始数据集构建为小样本分割训练数据集和小样本分割测试数据集;构建由支撑图像的特征提取支路、查询图像的特征提取支路、相似度指导模块及生成支路构成的多尺度相似指导网络;使用小样本训练集对该网络进行训练;将小样本测试集输入到训练好的网络中得到舰船目标的分割结果。本发明相较于其他小样本语义分割方法,有效减少目标域上数据所需标注数据的数量,提高了小样本语义分割效果。可用于SAR图像解译的中间处理。
-
公开(公告)号:CN114612937B
公开(公告)日:2024-08-20
申请号:CN202210253062.8
申请日:2022-03-15
申请人: 西安电子科技大学
IPC分类号: G06V40/10 , G06V10/46 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/048 , G06N3/084 , G06N3/09
摘要: 本发明公开了一种基于单模态增强的红外与可见光融合行人检测方法,主要解决现有方法中单模态特征提取支路对特征表达能力差的问题。其方案为:1)对现有公开KAIST数据集进行筛选与处理,获得处理后的训练集与测试集;2)构建基于单模态增强的红外与可见光融合行人检测网络W;3)构建行人检测网络W的总体损失Loss;4)用训练集对基于单模态增强的红外与可见光融合行人检测网络W进行训练,通过损失Loss更新网络W中的参数,得到训练好的行人检测网络W′;5)将测试集的图像输入到训练好的行人检测网络W′,得到最终检测结果。本发明提高了行人目标的检测精度与检测速度,可用于无人驾驶,视频跟踪。
-
公开(公告)号:CN115035508A
公开(公告)日:2022-09-09
申请号:CN202210689905.9
申请日:2022-06-17
申请人: 西安电子科技大学
IPC分类号: G06V20/62 , G06V20/13 , G06V10/26 , G06V10/774 , G06V10/764 , G06N3/04 , G06N3/08
摘要: 本发明公开了一种基于主题引导的Transformer遥感图像字幕生成方法,主要解决现有技术生成的描述单一,且无法精确表示图像中的语义信息的问题。其实现方案为:搭建一个由Transformer和主题向量组成的主题编码器,并在分类数据集上进行预训练;搭建一个由随机掩码层、嵌入层、Transformer解码器和soft‑max层级联组成的语义解码器;将主题编码器和语义解码器进行连接,得到遥感图像字幕生成网络;设置训练参数,用标准RSICD数据集迭代训练遥感图像字幕生成网络;利用训练好的遥感图像字幕生成网络生成字幕描述。本发明提高了生成描述的多样性和准确性,可用于地物图像检索、灾情预测、图像理解。
-
公开(公告)号:CN114612937A
公开(公告)日:2022-06-10
申请号:CN202210253062.8
申请日:2022-03-15
申请人: 西安电子科技大学
摘要: 本发明公开了一种基于单模态增强的红外与可见光融合行人检测方法,主要解决现有方法中单模态特征提取支路对特征表达能力差的问题。其方案为:1)对现有公开KAIST数据集进行筛选与处理,获得处理后的训练集与测试集;2)构建基于单模态增强的红外与可见光融合行人检测网络W;3)构建行人检测网络W的总体损失Loss;4)用训练集对基于单模态增强的红外与可见光融合行人检测网络W进行训练,通过损失Loss更新网络W中的参数,得到训练好的行人检测网络W′;5)将测试集的图像输入到训练好的行人检测网络W′,得到最终检测结果。本发明提高了行人目标的检测精度与检测速度,可用于无人驾驶,视频跟踪。
-
公开(公告)号:CN112364773A
公开(公告)日:2021-02-12
申请号:CN202011258058.8
申请日:2020-11-12
申请人: 西安电子科技大学
摘要: 本发明公开了一种基于L1正则约束深度多示例学习的高光谱目标检测方法,主要解决现有技术对复杂场景下的高光谱目标检测效果差的问题。其实现步骤为:1)对输入图像进行划分,得到训练集和测试集;2)构建基于L1正则约束的深度多示例学习网络W;3)用训练集对网络W进行迭代训练,当构建的损失函数达到最小值时,得到初步训练完成的网络Wi,再将训练集重新输入到初步训练完成的网络Wi中进行迭代训练到设定的最大迭代次数,得到最终训练好的网络W′;4)将测试集的每个示例点输入到最终训练好的网络W′进行检测,得到检测结果。本发明提高了不精确标记的高光谱目标的检测结果,减小了过拟合现象,可用于爆炸物、农作物的精细分类。
-
公开(公告)号:CN115035508B
公开(公告)日:2024-09-27
申请号:CN202210689905.9
申请日:2022-06-17
申请人: 西安电子科技大学
IPC分类号: G06V20/62 , G06V20/13 , G06V10/26 , G06V10/774 , G06V10/764 , G06N3/0455 , G06N3/0475 , G06N3/084
摘要: 本发明公开了一种基于主题引导的Transformer遥感图像字幕生成方法,主要解决现有技术生成的描述单一,且无法精确表示图像中的语义信息的问题。其实现方案为:搭建一个由Transformer和主题向量组成的主题编码器,并在分类数据集上进行预训练;搭建一个由随机掩码层、嵌入层、Transformer解码器和soft‑max层级联组成的语义解码器;将主题编码器和语义解码器进行连接,得到遥感图像字幕生成网络;设置训练参数,用标准RSICD数据集迭代训练遥感图像字幕生成网络;利用训练好的遥感图像字幕生成网络生成字幕描述。本发明提高了生成描述的多样性和准确性,可用于地物图像检索、灾情预测、图像理解。
-
公开(公告)号:CN113723482B
公开(公告)日:2024-04-02
申请号:CN202110958503.X
申请日:2021-08-20
申请人: 西安电子科技大学
IPC分类号: G06V20/10 , G06V10/58 , G06V10/80 , G06V10/764 , G06V10/82 , G06N3/0475 , G06N3/045 , G06N3/0464 , G06N3/048 , G06N3/08 , G01N21/31
摘要: 本发明公开了一种基于多示例孪生网络的高光谱目标检测方法,主要解决现有技术在高光谱数据目标不足时,模型易过拟合进而导致检测效果下降的问题。其实现方案为:1.准备数据集,并从训练集中划分出“正‑负”和“正‑正”样本对;2.搭建一个由特征提取模块、权重计算模块、特征融合模块、分类器四个部分依次级联构成的多示例孪生网络;3.设置训练参数,用训练集中的样本对迭代训练多示例孪生网络;4.用训练好的多示例孪生网络对测试集数据进行单点测试,输出每个像素属于目标的置信度。本发明提高了高光谱数据目标不足时的检测结果,减小了过拟合现象,可用于爆炸物检测、农作物精细分类。
-
公开(公告)号:CN117152303A
公开(公告)日:2023-12-01
申请号:CN202311075484.1
申请日:2023-08-25
申请人: 西安电子科技大学
IPC分类号: G06T11/60 , H04N21/488 , H04N21/81 , G06V10/764 , G06V10/82 , G06N3/084
摘要: 本发明公开了一种基于属性学习的未知场景遥感图像字幕生成方法,主要解决现有方法只能产生在训练过程中出现过的词语和句子,不能对未知的场景进行准确描述的问题。其实现方案是:搭建一个属性提取器、设置一个可学习的属性标识向量A,并在多标签分类数据集上进行预训练;搭建由属性推理模块和主体词生成模块构成的基于属性学习的解码器;将主题编码器、属性提取器、基于属性学习的解码器级联,构成基于属性学习的未知场景遥感图像字幕生成网络,并对其进行迭代训练;将测试集遥感图像输入到训练好的字幕生成网络生成字幕描述。本发明提高了未知场景下遥感图像的描述准确率,能适应遥感图像的多种场景,可用于地物图像检索、灾情预测及图像理解。
-
-
-
-
-
-
-
-
-