一种基于稳定扩散模型的人脸隐私保护方法和系统

    公开(公告)号:CN118430078A

    公开(公告)日:2024-08-02

    申请号:CN202410376819.1

    申请日:2024-03-29

    Abstract: 本发明属于人脸隐私保护技术领域,涉及一种基于稳定扩散模型的人脸隐私保护方法和系统。该方法在目标图像嵌入阶段使用文本逆转方法训练能够保存目标图像语义信息的文本嵌入;在对抗样本生成阶段,利用目标图像嵌入阶段得到的文本嵌入对保护图像的去噪过程进行去噪引导,将目标图像的语义信息注入保护图像中,并通过DDIM反转得到原始图像和目标图像在稳定扩散模型隐空间的编码,以在保护图像的去噪过程中提供对抗引导;通过去噪引导和对抗引导生成保护图像,实现人脸隐私保护。本发明能够解决目前人脸隐私保护领域对抗样本不自然、与原图像视觉不一致、对抗扰动易被感知等问题,并能够提高在目标黑盒模型上的迁移性攻击能力。

    一种基于文本提示的语义引导的行人重识别方法和系统

    公开(公告)号:CN120032307A

    公开(公告)日:2025-05-23

    申请号:CN202410736218.7

    申请日:2024-06-07

    Abstract: 本发明属于信息技术领域,涉及一种基于文本提示的语义引导的行人重识别方法和系统。该方法包括:将训练图像输入视觉编码器,得到视觉嵌入;利用逆向网络将视觉嵌入映射到文本空间,得到伪令牌,将伪令牌整合到自然语言句子中,得到对于输入图像的语言提示;将语言提示输入文本编码器中,得到文本嵌入;利用视觉嵌入和文本嵌入训练多模态交互模块;将查询图片输入训练完成的多模态交互模块,获得融合视觉与文本信息的特征向量,利用融合视觉与文本信息的特征向量在行人图像数据库中执行相似度检索,得到行人重识别结果。本发明在现有行人重识别数据集上的检索性能得到了显著提升。

    基于分化注意力和去噪过程引导的多目标图像生成方法

    公开(公告)号:CN119722833A

    公开(公告)日:2025-03-28

    申请号:CN202411591540.1

    申请日:2024-11-08

    Abstract: 本发明公开了一种基于分化注意力和去噪过程引导的多目标图像生成方法,其步骤包括:1)针对给定包括N个目标词的文本提示y以及一初始隐编码zT,利用稳定扩散模型生成文本提示y中每一目标词与zT之间的交叉注意力图CAT;2)通过设定损失函数优化初始隐编码zT;3)稳定扩散模型生成文本提示y中每一目标词与优化后的初始隐编码zT之间的最优交叉注意力图#imgabs0#4)稳定扩散模型对优化后的初始隐编码zT进行迭代去噪并对设定时间步生成的交叉注意力图进行插值;然后对迭代去噪结束所得隐编码z0进行解码生成该文本提示y对应的图像。本发明有效提高生成图像与给定文本提示之间的语义匹配性。

    一种基于解耦空间对齐的黑盒模型逆向重建方法

    公开(公告)号:CN118644728A

    公开(公告)日:2024-09-13

    申请号:CN202410809839.3

    申请日:2024-06-21

    Abstract: 本发明公开了一种基于预测向量映射的黑盒模型逆向重建方法,属于图像处理与机器学习领域。本发明在数据挑选阶段,通过从公共数据集中选择具有最高置信度的图像和对应预测向量,构成训练集;在训练阶段,训练一个从预测向量到StyleGAN潜在空间再到图像的逆向模型,并引入多种损失函数确保重建图像与真实图像的相似性;在攻击阶段,通过预测集成攻击方法,增强目标身份的特征,实现有效的图像重建。本发明解决了现有方法中计算成本高、效率低的问题,通过解耦潜在空间的对齐,提升了重建图像的质量和精度。本发明取得了高效攻击过程、语义连续的面部嵌入、增强的特征对齐和更高的重建性能等效果。

    一种基于表示蒸馏的深度哈希模型对抗训练方法和系统

    公开(公告)号:CN119378601A

    公开(公告)日:2025-01-28

    申请号:CN202411291948.7

    申请日:2024-09-14

    Abstract: 本发明属于人工智能技术领域,涉及一种基于表示蒸馏的深度哈希模型对抗训练方法和系统。该方法的步骤包括:1)利用干净样本训练与学生模型具有相同网络结构的深度哈希模型,作为教师模型;2)以最大化与教师模型输出的语义表示的距离为损失函数来迭代更新对抗样本;3)给定生成的对抗样本和原始干净样本,利用哈希码对齐损失函数和特征对齐损失函数实现从教师模型到学生模型的语义表示蒸馏,以指导学生模型的对抗训练过程;4)步骤2)和步骤3)交替进行,直到达到最大的迭代轮次。本发明能够充分保存教师模型从干净样本中学习到的判别性和可泛化性语义信息,从而解决现有方法无法充分学习这些语义信息而导致的模型鲁棒泛化性较差的问题。

    基于特征细化与特征矫正的持续视觉检索方法及系统

    公开(公告)号:CN119179797A

    公开(公告)日:2024-12-24

    申请号:CN202411192024.1

    申请日:2024-08-28

    Abstract: 本发明公开一种基于特征细化与特征矫正的持续视觉检索方法及系统,属于视觉检索技术领域。所述方法包括:构建视觉检索模型,所述视觉检索模型包括:骨干网络、特征细化模块、特征矫正模块、嵌入层和分类器,所述特征细化模块用于揭示所述骨干网络输出的特征图谱M中的重要区域,所述特征矫正模块用于训练所述视觉检索模型时抑制新类别中与旧类别重叠的语义;构建第t个阶段的训练数据集,并在第t个阶段的训练数据集上训练视觉检索模型ft,得到视觉检索模型ft+1;基于训练后的视觉检索模型ft+1获取目标图像的视觉检索结果。本发明可以解决持续视觉检索任务中遗忘问题,提升视觉检索模型在面对动态变化的数据环境时的可持续扩展能力。

    一种基于对抗学习和非对称哈希的跨模态检索方法

    公开(公告)号:CN110222140A

    公开(公告)日:2019-09-10

    申请号:CN201910323769.X

    申请日:2019-04-22

    Abstract: 本发明公开了一种基于对抗学习和非对称哈希的跨模态检索方法,其步骤包括:1)选取一跨模态数据集并将其划分为训练集和测试集;对模型进行训练,该模型包括一损失模块、特征提取单元和哈希码学习单元;哈希码学习单元包括哈希码学习网络和一个共享的多标签二值矩阵,损失模块包含特征提取单元的对抗损失,哈希码学习单元的三元边距损失、余弦量化损失和非对称哈希损失;2)利用训练的最优模型,生成跨模态数据集中每一模态数据的二值哈希码;3)对于一给定的查询数据,首先生成二值哈希码,然后计算该查询数据的二值哈希码与该跨模态数据集中与该查询数据模态不同的模态数据的二值哈希码之间计算汉明距离,得到满足条件的跨模态数据实例。

    基于文本模态对齐的跨模态行人重识别方法及装置

    公开(公告)号:CN118447530A

    公开(公告)日:2024-08-06

    申请号:CN202410300121.1

    申请日:2024-03-15

    Abstract: 本发明公开一种基于文本模态对齐的跨模态行人重识别方法及装置,属于人工智能技术领域。所述方法包括:训练一可学习向量来捕捉红外图像和可见光图像中与身份相关的模态共享信息;结合训练后的可学习向量获取每个行人ID的文本模态表示,并使用图像编码器提取红外图像和可见光图像中该行人ID的红外模态表示和可见光模态表示;基于所述文本模态表示、所述红外模态表示和所述可见光模态表示之间的彼此对齐来训练该图像编码器;基于训练后的图像编码器对目标红外图像或目标可见光图像中的行人进行编码,并通过对编码结果的分类,得到跨模态的行人重识别结果。本发明可以提升跨模态行人重识别模型的精度。

    一种基于对抗学习和非对称哈希的跨模态检索方法

    公开(公告)号:CN110222140B

    公开(公告)日:2021-07-13

    申请号:CN201910323769.X

    申请日:2019-04-22

    Abstract: 本发明公开了一种基于对抗学习和非对称哈希的跨模态检索方法,其步骤包括:1)选取一跨模态数据集并将其划分为训练集和测试集;对模型进行训练,该模型包括一损失模块、特征提取单元和哈希码学习单元;哈希码学习单元包括哈希码学习网络和一个共享的多标签二值矩阵,损失模块包含特征提取单元的对抗损失,哈希码学习单元的三元边距损失、余弦量化损失和非对称哈希损失;2)利用训练的最优模型,生成跨模态数据集中每一模态数据的二值哈希码;3)对于一给定的查询数据,首先生成二值哈希码,然后计算该查询数据的二值哈希码与该跨模态数据集中与该查询数据模态不同的模态数据的二值哈希码之间计算汉明距离,得到满足条件的跨模态数据实例。

Patent Agency Ranking