-
公开(公告)号:CN116739915A
公开(公告)日:2023-09-12
申请号:CN202310499434.X
申请日:2023-05-05
Applicant: 西安电子科技大学
IPC: G06T5/00 , G06T5/50 , G06N3/0455 , G06N3/094 , G06V10/764 , G06V10/82
Abstract: 本发明提供了一种基于互补掩码的鲁棒对抗噪声消除方法,从自动驾驶车辆获取景象视频并分解为图像帧;从存储单元获取训练好的图像去噪生成模型;通过图像去噪生成模型将每个图像帧分为大小相等的多个掩码块,并将其分为两个集合,利用掩码块内的像素结合掩码块位置得到原图序列信息,重建出两个集合对应的原图序列信息,基于原图序列信息变换形成去噪图像;将按照去噪图像生成导航视频。本发明采取随机掩码去噪的策略去除对抗扰动潜在的空间结构,有利于更好地保留自然样本遭到对抗攻击时的语义信息。本发明能引导去噪生成模型中保留图像的鲁棒特征,使恢复的去噪图像更具鲁棒性,可以生成更精确的自动驾驶视频。
-
公开(公告)号:CN112950454B
公开(公告)日:2023-01-24
申请号:CN202110099911.4
申请日:2021-01-25
Applicant: 西安电子科技大学
IPC: G06T3/00 , G06V10/75 , G06V10/82 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种基于多尺度语义匹配的图像风格迁移方法,包括:获取内容图像训练集和风格图像训练集,形成多组内容‑风格图像对;通过深度卷积网络分别对内容‑风格图像对中的内容图像和风格图像提取多尺度深度特征;对内容图像和风格图像的多尺度深度特征进行多尺度语义匹配,获得重建后的深度特征;将重建后的深度特征通过解码器合成风格迁移后的重建图像;迭代更新解码器的参数直至解码器收敛;将待处理的内容图像和风格图像依次经过多尺度深度特征提取、多尺度语义匹配及收敛更新后的解码器合成,获得风格迁移后的图像。该方法能够显著地保持输入内容图像的结构完整性与连贯性,同时准确迁移输入风格图像对应语义部位的风格。
-
公开(公告)号:CN114881098A
公开(公告)日:2022-08-09
申请号:CN202210192794.0
申请日:2022-02-28
Applicant: 西安电子科技大学
Abstract: 本发明提供的一种基于流形正则化转移矩阵的标签噪声估计方法,通过预训练第二网络中第一网络,并对数据集蒸馏后,将获得的子数据集输入至第二网络中,得到子数据集内的数据实例所属类别的概率以及获得与数据实例相关的转移矩阵;进一步根据数据实例标签计算得到第二网络的交叉熵损失,并结合已构建的表述数据实例属于相同流形的一致性的关联矩阵、数据实例属于不同流形的惩罚矩阵,计算第二网络的损失函数;通过调整损失函数减小训练第二网络得到训练好的第二网络,从而完成数据实例所属类别的预估。本发明可以在不影响转移矩阵逼近误差的情况下,减小估计误差,实验证明本发明在标签噪声学习中可以取得优异的性能。
-
公开(公告)号:CN113222813A
公开(公告)日:2021-08-06
申请号:CN202110420575.9
申请日:2021-04-19
Applicant: 西安电子科技大学
Abstract: 本发明公开了一种图像超分辨率重建方法、装置、电子设备及存储介质,该方法包括:获取待处理图像;将待处理图像输入至超分辨率重建模型,以使超分辨率重建模型对待处理图像中的各个像素点进行预测,并获得待处理图像的超分辨率重建图像;超分辨率重建模型为预先使用多个训练样本训练得到的二值神经网络模型,每个训练样本包括第一分辨率图像块以及对应的第二分辨率图像块;其中,所述第二分辨率大于所述第一分辨率。由于超分辨率重建模型中的双流二值推理层可通过量化阈值提升二值量化精度,并以双流的网络结构提升超分辨率重建模型的信息承载能力,因此能够显著提升超分辨率重建模型的性能,同时也可以在保证图像重建精度的基础上提高重建速度。
-
公开(公告)号:CN110084110B
公开(公告)日:2020-12-08
申请号:CN201910208630.0
申请日:2019-03-19
Applicant: 西安电子科技大学
Abstract: 本发明公开了一种近红外人脸图像识别方法、装置、电子设备及存储介质,包括:根据待测试近红外人脸图像,得到第一高维深度特征表示;根据M张可见光人脸图像,对应得到M个第二高维深度特征表示;根据所述第一高维深度特征表示和M个所述第二高维深度特征表示,对所述待测试近红外人脸图像进行人脸识别。本发明利用第一高维深度特征表示和第二高维深度特征表示分别对近红外人脸图像和可见光人脸图像进行表示,第一高维深度特征表示和第二高维深度特征表示比现有方法所采用的特征表示具有更强的表征能力,从而提高了对近红外人脸图像的识别准确率。
-
公开(公告)号:CN109472191B
公开(公告)日:2020-08-11
申请号:CN201811081523.8
申请日:2018-09-17
Applicant: 西安电子科技大学
Abstract: 本发明涉及一种基于时空上下文的行人重识别与追踪方法,包括:训练Mask RCNN网络;利用训练后的Mask RCNN网络处理原始图片集,得到训练集、测试集和查找集;利用训练集训练卷积神经网络;利用训练后的卷积神经网络对测试集和查找集进行处理,以从测试集中获取第一预设数量的图片,以对目标行人进行重识别。本发明使用目标检测算法和实例分割算法对图片进行预处理,去除背景干扰信息,能够进一步提高模型精度,提升行人重识别方法的准确率。同时,本发明解决了目前行人重识别算法缺乏追踪功能的问题,提出了基于步行速度的区域预测算法,结合Mask RCNN降低了追踪计算复杂度,达到实时追踪,提高了追踪效率。
-
公开(公告)号:CN110163794A
公开(公告)日:2019-08-23
申请号:CN201810410348.6
申请日:2018-05-02
Applicant: 腾讯科技(深圳)有限公司 , 西安电子科技大学
Abstract: 本发明公开了一种图像的转换方法、装置、存储介质和电子装置。其中,该方法包括:获取第一图像转换指令,其中,第一图像转换指令用于指示对待转换的图像进行转换;响应第一图像转换指令,采用第一模型对待转换的图像进行转换,得到目标图像,其中,第一模型用于将第一类别的图像转换为第二类别的图像,待转换的图像为第一类别的图像,目标图像为第二类别的图像,第一类别不同于第二类别,第一模型是通过使用第二类别的样本图像对第一原始模型进行训练得到的模型,第一模型包含第二模型的信息,第二模型用于将第二类别的图像转换为第一类别的图像;输出目标图像。本发明解决了转换得到图像与真实图像不符的技术问题。
-
公开(公告)号:CN106023120B
公开(公告)日:2019-06-21
申请号:CN201610224500.2
申请日:2016-04-12
Applicant: 西安电子科技大学
IPC: G06T5/50
Abstract: 本发明公开了一种基于耦合近邻索引的人脸画像合成方法,主要解决现有方法在近邻选择时没有考虑训练画像作用的问题。其实现步骤是:1.划分训练画像样本集、训练照片样本集和测试样本集;2.将所有图像划分成图像块,并组成块集合;3.将训练照片块集合与对应的画像块集合划分为多个子集;4.建立训练照片块子集和训练画像块子集中每一对照片‑画像块到其K近邻对的索引;5.寻找每一测试照片块的最近邻,进而得到其K近邻;6.利用马尔科夫权重网络求解重构权值;7.求解待合成画像块;8.迭代执行步骤5‑7共N次,融合得到最终的合成画像。与现有技术相比,本发明合成画像清晰度高、细节更完整,可用于人脸检索与识别。
-
公开(公告)号:CN106023079B
公开(公告)日:2019-05-24
申请号:CN201610333375.9
申请日:2016-05-19
Applicant: 西安电子科技大学
Abstract: 本发明公开了一种联合局部与全局特性的两阶段人脸画像生成方法。其步骤为:(1)划分样本;(2)划分图像块;(3)划分图像块子集;(4)生成初始合成画像块;(5)生成最终合成画像块;(6)合成画像。本发明采用了分阶段的方法,第一阶段将样本块划分为具有全局性的多个子集,在子集内合成初始画像块,第二阶段将样本块划分为具有局部性的多个子集,在子集内合成最终画像块,能合成背景干净且细节清晰的高质量画像。本发明仅使用简单的K均值聚类与样本块位置信息划分样本块集合,使用简单映射生合成画像,极大的提升了合成画像速度。
-
公开(公告)号:CN107832335A
公开(公告)日:2018-03-23
申请号:CN201710935929.7
申请日:2017-10-10
Applicant: 西安电子科技大学
Abstract: 本发明公开的一种基于上下文深度语义信息的图像检索方法,主要解决现有图像检索方法由于缺乏上下文环境信息而造成的准确率低的问题。实现步骤为:①使用自适应极化栅栏法确定图像关键点;②对卷积神经网络进行预训练和微调,构建包含区域分析层、迭代量化层的极化卷积神经网络;③提取关键点的上下文深度语义特征,并将其存入索引表,完成线下索引;④计算查询图像与数据库中每幅图像的相似度;⑤根据相似度从高到低的顺序输出检索结果。本发明使用上下文深度语义特征实现了图像关键点从区域到全局环境的匹配,提出的自适应极化栅栏法和构建的区域分析层符合全天空极光图像的成像特点,检索准确率高,可用于鱼眼镜头成像的大规模图像的精确检索。
-
-
-
-
-
-
-
-
-