-
公开(公告)号:CN118115729B
公开(公告)日:2024-07-26
申请号:CN202410508896.8
申请日:2024-04-26
申请人: 齐鲁工业大学(山东省科学院) , 山东省人工智能研究院 , 天津理工大学 , 山东中联视听信息科技股份有限公司
IPC分类号: G06V10/25 , G06V10/82 , G06N3/0464 , G06N3/08
摘要: 本发明涉及数字图像处理技术领域,尤其涉及一种多层次多尺度特征交互的图像伪造区域识别方法及系统。本发明包括以下步骤:构建规范化的输入图像,将待检图像输入到骨干网络中提取特征;递进式多层次多尺度特征融合;双重激活合并通道优化编码;特征压缩聚合解码;损失函数监督训练。本发明通过多层次信息与多尺度信息交互融合共同探索数字伪造区域的差异性特征,通道优化模块进一步提升了显著性特征编码的准确性,压缩聚合解码对显著性编码进行了有效翻译,充分挖掘了伪造区域与非伪造区域之间的差异性,将伪造区域提取出来。
-
公开(公告)号:CN118154906A
公开(公告)日:2024-06-07
申请号:CN202410564619.9
申请日:2024-05-09
申请人: 齐鲁工业大学(山东省科学院) , 山东省人工智能研究院 , 天津理工大学 , 山东中联视听信息科技股份有限公司
IPC分类号: G06V10/74 , G06V10/32 , G06V10/80 , G06V10/44 , G06N3/0455 , G06N3/0464
摘要: 本发明涉及图像处理技术领域,尤其涉及一种基于特征相似性和多尺度边缘注意力的图像篡改检测方法,包括以下步骤:处理待输入图像,获取待检测图像的多源信息,将多源信息输入骨干网络提取特征;多尺度边缘注意力网络;特征相似性学习;多级特征融合编码;多损失函数联合监督。本发明利用多尺度边缘特征辅助篡改区域的定位,通过特征相似性探索不同篡改类型的一般特征,并通过对不同尺度上的特征进行有效的融合,充分挖掘篡改区域和真实区域的差异。
-
公开(公告)号:CN118196835A
公开(公告)日:2024-06-14
申请号:CN202410368547.0
申请日:2024-03-28
申请人: 齐鲁工业大学(山东省科学院) , 山东省人工智能研究院 , 天津理工大学 , 山东中联视听信息科技股份有限公司
IPC分类号: G06V40/10 , G06V20/70 , G06V10/26 , G06V10/74 , G06V10/774 , G06V10/82 , G06F16/583
摘要: 本发明提供一种基于空间一致性的换衣行人重识方法、系统、电子设备及存储介质,属于计算机视觉技术领域,通过生成在不同空间穿着同一衣服的新的行人图像,使得基于空间一致性的换衣行人重识别系统能够初步满足空间一致性的要求;再利用视角标签生成模块来生成每张图片的视角标签,结合衣服标签,利用基于衣服、视角的对抗损失的联合学习,通过惩罚机制使得模型更加关注与衣服、视角无关的特征,能够提取适应换衣场景下的更有鲁棒性和判别性的特征;本发明充分利用了与衣服和视角无关的特征;实现了各种场景中的换衣行人重识。
-
公开(公告)号:CN118170936B
公开(公告)日:2024-07-26
申请号:CN202410557844.X
申请日:2024-05-08
申请人: 齐鲁工业大学(山东省科学院) , 山东省人工智能研究院 , 天津理工大学 , 北京阿叟阿巴科技有限公司 , 山东中联视听信息科技股份有限公司
IPC分类号: G06F16/535 , G06V10/774 , G06V10/74 , G06V10/764 , G06V10/762 , G06V40/10
摘要: 本发明属于计算机视觉技术领域,提供了一种基于多模态的数据与关系增强的遮挡行人检索方法。步骤如下:首先获取待检索的行人图像,将行人图像输入到训练完毕的遮挡行人检索模型,提取图片的遮挡鲁棒性特征,然后遮挡行人检索模型借助图文模型CLIP来利用图片和文本的特征,在原基准模型的基础上,引入遮挡增强来扩充数据集规模,并对行人被遮挡的现象进行预测并作出特征过滤,通过加入关系增强模块来增强类间的关系,最后将得到的检索特征,与待检索库中的行人图像进行相似度比对,按照相似性得分由高到低的顺序对检索结果进行排序,计算准确率和首位命中率,因此本发明可以有效得应对遮挡场景。
-
公开(公告)号:CN118015523B
公开(公告)日:2024-07-16
申请号:CN202410424209.4
申请日:2024-04-10
申请人: 齐鲁工业大学(山东省科学院) , 山东省人工智能研究院 , 天津理工大学 , 山东中联视听信息科技股份有限公司
IPC分类号: G06V20/40 , G06V10/44 , G06V10/764 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/0895
摘要: 本发明提供一种基于多模态证据学习的弱监督时序动作定位方法及系统,属于计算机视觉技术领域,其包括:将预训练I3D网络中提取的RGB特征和FLOW特征进行语义和时序信息增强,将增强后的RGB特征和FLOW特征聚合为视频特征,利用视频特征进行动作分类和定位,引入证据学习模块对RGB和FLOW两个模态进行片段级证据学习,分别计算两个模态的数据不确定性和模型不确定性,从而减少背景噪声对视频预测的干扰,提高分类定位的准确性。本发明所提供的基于多模态证据学习的弱监督时序动作定位方法及系统充分利用了时序信息和语义信息,扩大了感受野,有利于模型更好的进行分类定位,获得了鲁棒的定位和分类特征。
-
公开(公告)号:CN118053107B
公开(公告)日:2024-07-12
申请号:CN202410430577.X
申请日:2024-04-11
申请人: 齐鲁工业大学(山东省科学院) , 山东省人工智能研究院 , 天津理工大学 , 山东中联视听信息科技股份有限公司
IPC分类号: G06V20/40 , G06V10/80 , G06V10/82 , G06V10/764 , G06V10/766 , G06N3/0455 , G06N3/0464 , G06N3/082
摘要: 本发明涉及计算机技术领域,尤其涉及一种基于潜在动作区间特征整合的时序动作检测方法及装置,包括以下步骤:对原始视频进行特征编码提取;构建基于全局注意力的片段级潜在动作区间特征提取网络模型;构建片段级潜在动作区间特征融合和时序信息增强网络模型;构建基于局部多头自注意力和多层感知机的多尺寸特征金字塔模块;构建基于轻量级卷积网络的动作分类分支模块和边界回归分支模块。通过在动作检测中引入全局特征考虑,模型能够更好地理解动作前摇和后续特征,解决了时序信息处理和边界不明确的问题,从而提高检测准确性。
-
公开(公告)号:CN118115729A
公开(公告)日:2024-05-31
申请号:CN202410508896.8
申请日:2024-04-26
申请人: 齐鲁工业大学(山东省科学院) , 山东省人工智能研究院 , 天津理工大学 , 山东中联视听信息科技股份有限公司
IPC分类号: G06V10/25 , G06V10/82 , G06N3/0464 , G06N3/08
摘要: 本发明涉及数字图像处理技术领域,尤其涉及一种多层次多尺度特征交互的图像伪造区域识别方法及系统。本发明包括以下步骤:构建规范化的输入图像,将待检图像输入到骨干网络中提取特征;递进式多层次多尺度特征融合;双重激活合并通道优化编码;特征压缩聚合解码;损失函数监督训练。本发明通过多层次信息与多尺度信息交互融合共同探索数字伪造区域的差异性特征,通道优化模块进一步提升了显著性特征编码的准确性,压缩聚合解码对显著性编码进行了有效翻译,充分挖掘了伪造区域与非伪造区域之间的差异性,将伪造区域提取出来。
-
公开(公告)号:CN118279306B
公开(公告)日:2024-08-09
申请号:CN202410703254.3
申请日:2024-06-03
申请人: 齐鲁工业大学(山东省科学院) , 山东省人工智能研究院 , 天津理工大学 , 山东中联视听信息科技股份有限公司 , 北京阿叟阿巴科技有限公司
摘要: 本发明涉及数字图像处理技术领域,尤其涉及一种边缘引导的双链多尺度图像伪造区域检测方法及系统,具体如下:构建规范化输入图像,将待检图像送入骨干网络提取多尺度特征,多尺度特征包括RGB链和边缘链两条线索链,边缘图像由RGB图像经直方图均衡化、二阶微分锐化和边界提取得到;构建RGB链提取RGB图像篡改伪影特征;构建边缘链提取边缘图像篡改伪影特征;RGB链与边缘链邻接融合编码;多尺度推理预测;损失函数监督训练。本发明在损失函数和推理判别器双重约束下优化模型参数和性能,提高了模型的泛化能力,增强了实际应用中的稳定性和可靠性。本发明能够对篡改伪造图像进行识别,为数字图像取证、数字图像伪造鉴别提供了有效的技术方法。
-
公开(公告)号:CN118170936A
公开(公告)日:2024-06-11
申请号:CN202410557844.X
申请日:2024-05-08
申请人: 齐鲁工业大学(山东省科学院) , 山东省人工智能研究院 , 天津理工大学 , 北京阿叟阿巴科技有限公司 , 山东中联视听信息科技股份有限公司
IPC分类号: G06F16/535 , G06V10/774 , G06V10/74 , G06V10/764 , G06V10/762 , G06V40/10
摘要: 本发明属于计算机视觉技术领域,提供了一种基于多模态的数据与关系增强的遮挡行人检索方法。步骤如下:首先获取待检索的行人图像,将行人图像输入到训练完毕的遮挡行人检索模型,提取图片的遮挡鲁棒性特征,然后遮挡行人检索模型借助图文模型CLIP来利用图片和文本的特征,在原基准模型的基础上,引入遮挡增强来扩充数据集规模,并对行人被遮挡的现象进行预测并作出特征过滤,通过加入关系增强模块来增强类间的关系,最后将得到的检索特征,与待检索库中的行人图像进行相似度比对,按照相似性得分由高到低的顺序对检索结果进行排序,计算准确率和首位命中率,因此本发明可以有效得应对遮挡场景。
-
公开(公告)号:CN118053107A
公开(公告)日:2024-05-17
申请号:CN202410430577.X
申请日:2024-04-11
申请人: 齐鲁工业大学(山东省科学院) , 山东省人工智能研究院 , 天津理工大学 , 山东中联视听信息科技股份有限公司
IPC分类号: G06V20/40 , G06V10/80 , G06V10/82 , G06V10/764 , G06V10/766 , G06N3/0455 , G06N3/0464 , G06N3/082
摘要: 本发明涉及计算机技术领域,尤其涉及一种基于潜在动作区间特征整合的时序动作检测方法及装置,包括以下步骤:对原始视频进行特征编码提取;构建基于全局注意力的片段级潜在动作区间特征提取网络模型;构建片段级潜在动作区间特征融合和时序信息增强网络模型;构建基于局部多头自注意力和多层感知机的多尺寸特征金字塔模块;构建基于轻量级卷积网络的动作分类分支模块和边界回归分支模块。通过在动作检测中引入全局特征考虑,模型能够更好地理解动作前摇和后续特征,解决了时序信息处理和边界不明确的问题,从而提高检测准确性。
-
-
-
-
-
-
-
-
-