-
公开(公告)号:CN116953628A
公开(公告)日:2023-10-27
申请号:CN202310831074.9
申请日:2023-07-07
申请人: 西北工业大学深圳研究院 , 西北工业大学
IPC分类号: G01S7/36 , G06V10/44 , G06V10/764
摘要: 本发明属于雷达抗干扰技术领域,具体涉及一种基于特征提取与组合分类器的雷达有源干扰识别方法,包括如下步骤:步骤1:采用CWD变换方法对干扰信号进行处理,获取干扰信号的时频图像;步骤2:提取时频图像的轮廓特征,得到有源干扰信号全局分布信息;步骤3:依据有源干扰时频图像提取有源干扰信号复杂度、盒维数和信息维数特征,步骤4:获取有源干扰信号瞬时相位信息,依据有源干扰信号瞬时相位信息提取有源干扰信号的瞬时频率特征,步骤5:依据提取到的有源干扰信号特征向量通过组合分类器实现对雷达有源干扰信号的分类识别;本发明实现对有源干扰信号的特征提取及降维处理,运算量小、实现难度低,对多种有源干扰信号分类识别。
-
公开(公告)号:CN116383820A
公开(公告)日:2023-07-04
申请号:CN202211547947.5
申请日:2022-12-05
申请人: 西北工业大学深圳研究院 , 西北工业大学
IPC分类号: G06F21/57 , G06N3/0464 , G06N3/094
摘要: 本发明属于计算机视觉与和计算机安全领域,具体涉及一种对抗重编程模型及方法,该对抗重编程模型包括特征提取模块、分类器、对抗扰动函数、对抗重编程线性函数和对抗损失函数;分类器包括若干卷积神经网络模型;特征提取模块采用卷积神经网络模型提取目标域数据集图像中的初始特征图,基于初始特征图通过对抗扰动函数获取对抗数据;且基于对抗数据设计所述对抗重编程线性函数;对抗重编程线性函数使目标域数据集图像在目标检测数据集中按攻击者的意图进行分类;本发明对抗重编程方法通过评估测试数据集的分类结果,发现掩模输入梯度的对齐度对对抗重编程攻击成功与否起着决定性作用;较大的对抗重编程掩模矩阵尺寸是有助于对抗重编程攻击的。
-
公开(公告)号:CN116863513A
公开(公告)日:2023-10-10
申请号:CN202310011974.9
申请日:2023-01-05
申请人: 西北工业大学深圳研究院 , 西北工业大学
摘要: 本发明公开了一种基于高频增强的低质量Deepfake检测方法,属于Deepfake防御技术领域,包括:获取人脸图像集;提取人脸图像集中人脸图像的特征信息、局部高频信息和全局高频信息;将特征信息和局部高频信息、全局高频信息分别融合,得到第一融合信息和第二融合信息;对第一融合信息和第二融合信息进行融合,得到最终融合特征信息;将最终融合特征信息输入分类器进行分类预测,实现对于虚假人脸的检测。本方案通过构建局部高频信息增强分支,利用通道注意力机制的特性对DCT系数执行高频幅度增强,然后构建了通道瓶颈模块剔除系数噪声,经过DCT逆变换间接实现频域感知的多空间注意力机制。
-
公开(公告)号:CN118365676A
公开(公告)日:2024-07-19
申请号:CN202410506825.4
申请日:2024-04-25
申请人: 西北工业大学
IPC分类号: G06T7/246 , G06T5/90 , G06T5/60 , G06V10/40 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/084
摘要: 本发明涉及一种自适应暗光增强的目标跟踪网路结构及目标跟踪方法,网络主要包括光照增强与目标跟踪两个模块,基于光照估计与颜色空间变化的光照补偿方法,同时也完成了对暗场景特征的自适应提升。在目标跟踪模块,主要采用了基于Transformer架构的网络,通过自注意力机制,可实现对目标的准确跟踪。相比于独立的光照增强模块,本发明针对跟踪任务进行图像特征的增强。网络结构简单,在提高性能的同时保持着目标跟踪任务实时性的要求。本文的跟踪器不仅在低光照场景下取得了较好的效果,而且维持了跟踪器在正常光照场景下的跟踪性能。相比于OSTrack算法,在UAVDark70数据集上,精确度提升了8.9%。
-
公开(公告)号:CN116228537A
公开(公告)日:2023-06-06
申请号:CN202310135980.5
申请日:2023-02-20
申请人: 西北工业大学
IPC分类号: G06T3/40 , G06T5/00 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/0455 , G06N3/0464 , G06N3/094
摘要: 本发明涉及一种基于去噪和超分辨率重构融合的攻击图像防御方法,首先,采用多级嵌套的编解码网络,对图像中的噪声进行粗清洗。由于噪声主要是高频信息,因而多尺度编解码网络可以利用低频信息引导高频信息的重构,进而实现对高频噪声的消除。然后,使用超分辨率重构网络对噪声进行精清洗,通过在超分重构过程中注入高频分量,破坏残留的对抗噪声的分布。本方法有效地结合了自编码器去噪和超分辨率重构来进行对抗防御。在实验中,本发明提出的样本清洗防御算法在自制的卫星对抗样本数据集上取得了优异的防御效果。样本清洗之后,攻击噪声完全被清除,在EfficientNet网络的识别中准确率提升了42.67%。
-
公开(公告)号:CN112217638B
公开(公告)日:2022-08-05
申请号:CN202011036901.8
申请日:2020-09-28
申请人: 西北工业大学
摘要: 为了实现能够在不具备完全量子能力的经典方与具备完全量子能力的量子方之间通信的半量子安全直接通信协议,本发明提出了一种基于GHZ态的半量子安全直接通信方法;本协议使用泡利算子对三粒子GHZ态进行相应的变换来传输加密后的原消息m;整个协议过程中参与者之间提前共享一个半量子秘钥,并且原消息m由半量子秘钥加密,半量子秘钥的无条件安全性也提升了参与者之间的通信安全性;同时本协议包含了两次双重窃听检测步骤,能够更好的提升通信的安全性,降低被窃听者窃听的风险;与现有的半量子安全直接通信协议相比,减少了通信参与者之间通信过程中的粒子序列反射以及测量重发的步骤,使得协议过程更加简洁并且同时能够满足安全直接通信的需求。
-
公开(公告)号:CN108682005B
公开(公告)日:2021-06-18
申请号:CN201810375536.X
申请日:2018-04-25
申请人: 西北工业大学
摘要: 本发明公开了一种基于协方差矩阵特征的半参考3D合成图像质量评价方法,用于解决目前图像质量评价方法对3D合成图像质量评价效果较差的问题。半参考图像质量评价方法需要使用参考图像的部分信息,本发明中使用协方差矩阵描述这些信息。首先在发送端提取参考图像特征,通过无损的辅助信道将参考图像特征传输到接收端。在接收端,提取退化图像特征。然后计算参考图像特征和退化图像特征间的距离,用于评价退化图像质量。本发明提出使用图像八个基本特征的协方差矩阵描述3D合成图像,然后使用仿射不变度量计算退化图像和参考图像协方差矩阵间的距离,距离越小说明图像质量越高。
-
公开(公告)号:CN110070022A
公开(公告)日:2019-07-30
申请号:CN201910302391.5
申请日:2019-04-16
申请人: 西北工业大学
摘要: 本发明涉及一种基于图像的自然场景材料识别方法,首先设计跳跃空洞卷积网络提取自然场景图片中的材料特征,并且实现一个端到端的材料识别,然后又利用全连接条件随机场对网络识别的结果进行修正优化,避免材料识别结果边缘过度平滑。本发明不需要其他设备,同时不需要实地检测,只需要自然场景中拍摄得到的一些图像,就可以完成材料识别。
-
公开(公告)号:CN109993710A
公开(公告)日:2019-07-09
申请号:CN201910211120.9
申请日:2019-03-20
申请人: 西北工业大学
摘要: 本发明提供了一种基于生成对抗网络的水下图像去噪方法,首先将水下图像输入到一个由若干残差块组成的生成网络,得到特征映射图;然后将输出得到的特征映射图与清水的无噪标签图像分别通过VGG‑19网络映射得到一个深度特征空间,并计算特征映射图与清水的无噪标签图像在深度特征空间中的感知代价,计算感知代价的同时,将生成网络输出的特征映射图输入到对抗网络,最后训练完成后,将含噪的水下图像输入到生成网络,其输出即为处理后的无噪图像。本发明通过引入对抗机制,去噪效果明显,尤其是该方法可有效保留甚至增强图像中的边缘纹理信息,具有更好地视觉效果和成像品质。
-
公开(公告)号:CN108470286A
公开(公告)日:2018-08-31
申请号:CN201810033335.1
申请日:2018-01-15
申请人: 西北工业大学
CPC分类号: G06Q30/0282 , G06Q30/0201 , G06Q30/0202 , G06Q30/0631
摘要: 本发明针对现有的基于内存的协同过滤推荐方法的不足,提出了一种面向稀疏数据的比率协同过滤推荐方法,以解决无共同评分项下的相似度计算和评分预测问题。该方法首先根据用户的评分数据计算目标用户(项目)与其他用户(项目)之间的相似度,然后把相似度按照从高到低的顺序将对应的用户(项目)进行排序,选择前K个用户(项目)作为目标用户(项目)的最近邻,对每一个邻居分别根据基于用户(项目)评分预测方法预测未评分项目的中间预测值,最后将这K个中间预测值的平均值作为目标用户(项目)对未评分项目(用户)的预测评分值。本发明计算简单,在数据稀疏时,该方法仍然可以进行相似度计算,预测精度高。
-
-
-
-
-
-
-
-
-