-
公开(公告)号:CN110321957B
公开(公告)日:2023-03-24
申请号:CN201910605728.X
申请日:2019-07-05
IPC分类号: G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08 , G06F16/58
摘要: 本发明提供了一种融合三元组损失和生成对抗网络的多标签图像检索方法,其包括步骤:搭建深度学习框架,部署生成对抗网络模型;输入图像数据集至生成对抗网络模型中以获取多标签图像和三元组数据;基于多标签图像构建三元组损失函数;从图像数据集中选取第一图像对深度哈希编码网络进行训练以获取完成训练的深度哈希编码网络;从图像数据集中选取预设数量的第二图像,将第二图像输入完成训练的深度哈希编码网络以获取哈希向量数据库;将需要检索的第一图像输入完成训练的深度哈希编码网络以检索出与第一图像相似的第二图像。本发明通过使用生成对抗网络生成与数据集样本相似的多标签生成图片,扩充了训练数据量,提高了图像的检索速度和精度。
-
公开(公告)号:CN110321957A
公开(公告)日:2019-10-11
申请号:CN201910605728.X
申请日:2019-07-05
摘要: 本发明提供了一种融合三元组损失和生成对抗网络的多标签图像检索方法,其包括步骤:搭建深度学习框架,部署生成对抗网络模型;输入图像数据集至生成对抗网络模型中以获取多标签图像和三元组数据;基于多标签图像构建三元组损失函数;从图像数据集中选取第一图像对深度哈希编码网络进行训练以获取完成训练的深度哈希编码网络;从图像数据集中选取预设数量的第二图像,将第二图像输入完成训练的深度哈希编码网络以获取哈希向量数据库;将需要检索的第一图像输入完成训练的深度哈希编码网络以检索出与第一图像相似的第二图像。本发明通过使用生成对抗网络生成与数据集样本相似的多标签生成图片,扩充了训练数据量,提高了图像的检索速度和精度。
-
公开(公告)号:CN109977250A
公开(公告)日:2019-07-05
申请号:CN201910211486.6
申请日:2019-03-20
摘要: 本发明公开了一种融合语义信息和多级相似性的深度哈希图像检索方法,包括以下步骤;S1,构建图像数据库;S2,构建标签向量矩阵和语义向量矩阵;S3,构建相似度矩阵;S4,搭建深度哈希神经网络模型,将原始图像转换为近似哈希向量;S5,构建对相似图片哈希向量的海明距离有下界约束的损失函数;S6,对搭建的深度哈希神经网络模型进行训练;S7,构建图像的哈希向量数据库;S8,将待检索图像的哈希向量与哈希向量数据库里的向量进行对比,以找出相似的图像。本发明通过融合语义信息,提高了图像检索的精度;并通过约束两张相似图片所对应哈希向量间的海明距离的下界,提高了检索性能。
-
公开(公告)号:CN109064294A
公开(公告)日:2018-12-21
申请号:CN201810953583.8
申请日:2018-08-21
CPC分类号: G06Q30/0631 , G16H20/10
摘要: 本发明公开一种融合时间因素、文本特征和相关性的药品推荐方法。获取用户和药品的交互信息,所述交互信息包括用户对药品的评分信息以及相对应的时间戳信息;构建时间动态模型,所述时间动态模型包括药品基线偏差值模型、用户基线偏差值模型以及用户潜在兴趣模型;收集并处理第一信息得到第三信息,采用卷积神经网络提取第三信息中的文本特征;构建药品的相关性矩阵;构建个性化推荐模型并进行训练,得到用户和药品的潜在因子矩阵;计算用户对药品的预测评分,将评分高的药品推荐给用户。本发明能有效解决药品推荐准确率低、实时性差的技术问题,将药品实时推荐给所需的用户。
-
公开(公告)号:CN109977250B
公开(公告)日:2023-03-28
申请号:CN201910211486.6
申请日:2019-03-20
IPC分类号: G06F16/58 , G06F16/51 , G06N3/0464 , G06N3/084
摘要: 本发明公开了一种融合语义信息和多级相似性的深度哈希图像检索方法,包括以下步骤;S1,构建图像数据库;S2,构建标签向量矩阵和语义向量矩阵;S3,构建相似度矩阵;S4,搭建深度哈希神经网络模型,将原始图像转换为近似哈希向量;S5,构建对相似图片哈希向量的海明距离有下界约束的损失函数;S6,对搭建的深度哈希神经网络模型进行训练;S7,构建图像的哈希向量数据库;S8,将待检索图像的哈希向量与哈希向量数据库里的向量进行对比,以找出相似的图像。本发明通过融合语义信息,提高了图像检索的精度;并通过约束两张相似图片所对应哈希向量间的海明距离的下界,提高了检索性能。
-
公开(公告)号:CN108875076A
公开(公告)日:2018-11-23
申请号:CN201810750096.1
申请日:2018-07-10
摘要: 本发明公开了一种基于Attention机制和卷积神经网络的快速商标图像检索方法,包括搭建Caffe深度学习开源框架,对开源VGG16网络模型进行训练;基于VGG16网络模型设计包含两层卷积层的Attention网络,并在训练好的VGG16网络模型中添加Attention网络;使用FlickrLogos‑32数据集中的训练集对添加了Attention网络的VGG16网络模型进行训练;基于训练好的添加了Attention网络的VGG16网络模型生成Attention‑MAC商标特征提取模型;基于Attention‑MAC商标特征提取模型对待查询商标图像进行检索,并生成检索结果。本发明避免使用全连接层冗余的参数,达到精简模型的目的,提高训练和检索的速度,降低误检率。
-
公开(公告)号:CN109086437B
公开(公告)日:2021-06-01
申请号:CN201810926656.4
申请日:2018-08-15
IPC分类号: G06F16/583 , G06F16/51 , G06K9/62 , G06N3/04 , G06N3/08
摘要: 本发明公开一种融合Faster‑RCNN(Faster‑Regions with Convolutional Neural Network,快速区域卷积神经网络)和Wasserstein自编码器的图像检索方法。本发明搭建深度学习框架,采用Faster‑RCNN模型提取图像特征;对Faster‑RCNN模型进行训练,微调网络权重;提取图像的全局特征,构建图像的全局特征图库;构建Wasserstein自编码器,并对Wasserstein自编码器进行训练;采用Wasserstein自编码器对全局特征进行降维,计算欧几里得距离得出第一相似度,并进行第一次排序,完成图像的粗粒度检索;提取图像中候选区域的特征作为局部特征,构建图像的局部特征图库;采用Wasserstein自编码器对局部特征进行降维,计算第二相似度并进行第二次排序,完成图像的细粒度检索。该方法能加快图像的检索速度以及提高图像检索的准确率。
-
公开(公告)号:CN109522432B
公开(公告)日:2023-01-31
申请号:CN201811104365.3
申请日:2018-09-21
摘要: 本发明涉及图像检索技术领域,公开了一种融合自适应相似度和贝叶斯框架的图像检索方法,包括以下步骤:S1:构建相似度矩阵和标识矩阵;S2:通过构建深度哈希神经网络模型从而将图像转换为近似哈希向量;S3:构建融合贝叶斯框架的损失函数;S4:通过构建相似度更新幅度模型实现图像相似度的调整;S5:对构建的深度哈希神经网络模型进行训练;S6:构建图像的哈希向量数据库;S7:将需检索图像的哈希向量与构建的哈希向量数据库进行比对,以找出相似的图像。通过本发明可提高图像的检索速度和精度。
-
公开(公告)号:CN109064294B
公开(公告)日:2021-11-12
申请号:CN201810953583.8
申请日:2018-08-21
摘要: 本发明公开一种融合时间因素、文本特征和相关性的药品推荐方法。获取用户和药品的交互信息,所述交互信息包括用户对药品的评分信息以及相对应的时间戳信息;构建时间动态模型,所述时间动态模型包括药品基线偏差值模型、用户基线偏差值模型以及用户潜在兴趣模型;收集并处理第一信息得到第三信息,采用卷积神经网络提取第三信息中的文本特征;构建药品的相关性矩阵;构建个性化推荐模型并进行训练,得到用户和药品的潜在因子矩阵;计算用户对药品的预测评分,将评分高的药品推荐给用户。本发明能有效解决药品推荐准确率低、实时性差的技术问题,将药品实时推荐给所需的用户。
-
公开(公告)号:CN108875076B
公开(公告)日:2021-07-20
申请号:CN201810750096.1
申请日:2018-07-10
IPC分类号: G06F16/583 , G06N3/04
摘要: 本发明公开了一种基于Attention机制和卷积神经网络的快速商标图像检索方法,包括搭建Caffe深度学习开源框架,对开源VGG16网络模型进行训练;基于VGG16网络模型设计包含两层卷积层的Attention网络,并在训练好的VGG16网络模型中添加Attention网络;使用FlickrLogos‑32数据集中的训练集对添加了Attention网络的VGG16网络模型进行训练;基于训练好的添加了Attention网络的VGG16网络模型生成Attention‑MAC商标特征提取模型;基于Attention‑MAC商标特征提取模型对待查询商标图像进行检索,并生成检索结果。本发明避免使用全连接层冗余的参数,达到精简模型的目的,提高训练和检索的速度,降低误检率。
-
-
-
-
-
-
-
-
-