一种结构感知自注意和在线实例聚合匹配的行人搜索方法及装置

    公开(公告)号:CN109948425B

    公开(公告)日:2023-06-09

    申请号:CN201910061943.8

    申请日:2019-01-22

    Abstract: 本发明公开了一种结构感知自注意和在线实例聚合匹配的行人搜索方法及装置,属于计算机视觉技术处理技术领域。在训练阶段,首先通过一个卷积神经网络和非局部层的结合,对输入的整个场景图像进行特征提取,得到它的特征表示,针对行人的这一特殊对象设计结构感知的锚点,提升检测框架性能,将检测出的行人框池化成相同尺寸后,送入行人重识别网络训练,保存,优化和更新具有标签的行人特征。在模型测试阶段,使用训练好的非局部卷积神经网络对输入场景图像进行行人检测,检测出行人框之后,并用目标行人图像进行特相似度匹配排序并检索。本发明可对大规模的现实场景图像同时进行行人检测和重识别,在城市监控等安防领域发挥重要作用。

    一种基于多尺度生成式对抗网络的红外和可见光图像融合方法

    公开(公告)号:CN111145131B

    公开(公告)日:2023-05-26

    申请号:CN201911187619.7

    申请日:2019-11-28

    Abstract: 本发明公开了一种基于多尺度生成式对抗网络的红外和可见光图像融合方法,解决由光谱分辨率和空间分辨率制约以及物理条件的限制,红外图像具有很高的光谱分辨率而其空间分辨率却较低的问题。包括:第一阶段,构造生成式对抗网络模型,利用高分辨率可见光图像生成高质量红外图像,一方面红外图像数据得到了增强扩充,另一方面提高了红外图像的分辨率;第二阶段,通过高分辨率可见光图像与其低通版本的差乘以增益因子获得空间细节信息,然后将提取到的空间细节信息注入到第一阶段生成后的高分辨率红外图像中,最终得到融合后的高分辨率图像,使得融合图像可以同时保持红外图像中的热辐射信息和可见图像中的纹理信息。

    基于自适应个性化联邦学习的行人重识别方法

    公开(公告)号:CN115565206A

    公开(公告)日:2023-01-03

    申请号:CN202211404940.8

    申请日:2022-11-10

    Abstract: 本发明公开了一种基于自适应个性化联邦学习的行人重识别方法,属于图像处理技术领域。具体步骤如下:不同区域行人重识别数据预处理;构造不同区域的训练数据集;构建个性化本地模型;协同训练本地模型和全局模型;构造不同区域的测试数据集;根据定制完成的个性化本地模型进行推理;输出行人重识别的结果。本发明解决现有方法难以针对监控摄像头分布广和采集的图像数据更新快的特点进行快速集中学习的问题,步骤简单,处理效率高,针对联邦学习场景下行人重识别准确率高。

    一种基于多模态信息融合的用户人格特征预测方法和装置

    公开(公告)号:CN113705725B

    公开(公告)日:2022-03-25

    申请号:CN202111079044.4

    申请日:2021-09-15

    Abstract: 本发明公开了一种基于多模态信息融合的用户人格特征预测方法和装置,首先收集用户在社交媒体上标注为偏好的图像数据以及相应的评论数据,并利用心理学上的调查问卷获取数值化的用户人格特征;然后利用基于卷积神经网络的物体识别和场景识别方法提取所述偏好图像的视觉特征,同时利用循环神经网络提取相应所述评论的文本特征;再通过构建基于注意力机制的多模态融合模块,将图像和文本两种模态进行特征融合,得到注意力特征图;最后利用深度回归网络把多模态融合后的注意力特征图与数值化的用户人格特征进行建模训练,得到人格特征预测模型;本发明方法和装置的步骤简单明确,易于实现在社交媒体中,且具有较强的预测准确性和稳定性。

    一种基于聚类的无监督跨域行人重识别方法

    公开(公告)号:CN111860678A

    公开(公告)日:2020-10-30

    申请号:CN202010744097.2

    申请日:2020-07-29

    Abstract: 本发明公开了一种基于聚类的无监督跨域行人重识别方法,属于计算机视觉领域。具体实现(1)搭建用于预训练的神经网络;(2)将源域有标签的数据输入预训练网络,做有监督的预训练;(3)搭建用于微调的双流相互学习网络框架;(4)训练双流相互学习框架,输出适用于目标域的行人重识别模型。本发明利用有标签的源域数据集和无标签的目标域数据集,以及相互学习的网络框架,实现无监督的跨域行人重识别;引入自注意力机制和全局联合池化操作,以及提出新的损失函数——联合灵活优化损失,并选用更合适开放集数据的聚类方法,从而使得模型性能获得明显提升。

    一种时空部件图的视频目标分割方法

    公开(公告)号:CN111652899A

    公开(公告)日:2020-09-11

    申请号:CN202010475318.0

    申请日:2020-05-29

    Abstract: 一种时空部件图的视频目标分割方法,首先使用孪生编码模型,分两个分支:一个分支输入历史帧和掩模捕获序列的动态特征,另一个分支输入当前帧图像和前一帧的分割掩模。其次,构建时空部件图,使用图卷积网络,学习时空特征,增强目标的外观和运动模型;并引入通道注意模块,把鲁棒的时空目标模型输出到解码模块。最后,设计平滑精细模块,结合相邻阶段的多尺度图像特征,从时空信息中分割出目标。本发明时空部件图模型可生成鲁棒目标外观和运动特征,解决目标遮挡、快速变化及背景杂波问题,进而缓解目标外观变化而导致的视觉目标漂移问题,同时能够提高视频目标分割的性能。

    基于多模态图像风格转换的跨模态行人重识别方法

    公开(公告)号:CN111539255A

    公开(公告)日:2020-08-14

    申请号:CN202010227374.2

    申请日:2020-03-27

    Abstract: 本发明公开了一种基于多模态图像风格转换的跨模态行人重识别方法,根据行人图像数据集,对训练图像进行收集和预处理获取训练样本;构建解耦图像特征的自动编码网络模型,该模型对处理后输入的行人图像进行特征解耦,分为域无关的内容特征和域相关的风格特征;构建基于模态转换的生成网络和判别网络模型,该模型实现不同域行人图像的风格属性信息互换,实现变换风格的样本生成;本发明方法针对行人重识别算法易受不同光照影响的问题,通过神经网络提取行人图像的特征来学习不同图像的相似性矩阵,该方法学习到的度量矩阵比人为选定的矩阵具有灵活性,更能获得图像特征之间的相似性。

    一种基于深度孪生胶囊网络的光学遥感场景分类方法

    公开(公告)号:CN110321859A

    公开(公告)日:2019-10-11

    申请号:CN201910613063.7

    申请日:2019-07-09

    Abstract: 本发明公开了一种基于深度孪生胶囊网络的光学遥感图像场景分类方法,包括如下设计:1、删除深度残差网络深层的平均池化层及其之后的层;2、将微调后的深度残差网络作为特征提取器;3、分别对输入图像提取特征,将获取到的特征转化为胶囊特征;4、引入孪生网络的思想,将单支的深度胶囊网络复制成双支的深度胶囊网络,构成为特征提取器参数共享的两个完全相同的网络;5、计算出两个特征的距离来表示图像对的相似程度;6、利用动态路由算法进行胶囊的传播完成图像分类。本发明利用胶囊存储特征空间信息,结合孪生网络结构,使特征在遥感数据集上更具识别性。此外,还增加一个正则化项来增强模型的鲁棒性。

    一种条件式生成对抗网络的异源遥感图像配准方法及装置

    公开(公告)号:CN109903299A

    公开(公告)日:2019-06-18

    申请号:CN201910262015.8

    申请日:2019-04-02

    Abstract: 本发明公开了一种基于图像分割的条件式生成对抗网络的异源遥感图像配准方法及装置,根据两组异源遥感图像数据,获取训练样本;对输入图像进行图像分割,获得分割图像;构建基于图像分割的条件式生成对抗网络;构建图像块的生成对抗网络;训练两个生成对抗网络;将生成图像与待配准图像进行同源图像配准。本发明能够约束生成对抗网络生成图像的空间信息一致性,并提供全尺寸空间信息一致的图像转换解决方案,将异源图像配准问题化简为同源图像配准问题,构建统一的异源遥感图像配准框架。

Patent Agency Ranking