-
公开(公告)号:CN109063112B
公开(公告)日:2022-04-01
申请号:CN201810851990.8
申请日:2018-07-30
申请人: 成都快眼科技有限公司
摘要: 本发明提供了一种基于多任务学习深度语义哈希的快速图像检索方法、模型及模型构建方法,基于分类任务可以提高哈希码的判别性及聚合性和检索任务可以保留哈希码的语义相似性,将分类任务与检索任务融入只有一个输出的单流(one‑stream)框架里,充分利用语义监督信息,以提高哈希码的紧致性、判别性及保留哈希码的语义相似性;本发明方案构建了单流(one‑stream)网络框架,结合多任务学习的方法,提高了哈希检索性能。
-
公开(公告)号:CN109063113B
公开(公告)日:2021-11-02
申请号:CN201810851999.9
申请日:2018-07-30
申请人: 成都快眼科技有限公司
IPC分类号: G06F16/51 , G06F16/532 , G06F16/583
摘要: 本发明提供了一种基于不对称深度离散哈希的快速图像检索方法、检索模型及模型构建方法,本发明方案考虑查询图像与数据库图像哈希码之间类内的紧致性以及类间的分离性,构建测度学习模型,通过深度学习及离散优化,以同时学习查询图像近似二值码以及数据库图像离散的哈希码;通过构建不对称哈希码学习框架,结合测度学习、深度学习及离散优化,针对数据库图像学习离散判别性的哈希码和针对查询图像训练一个深度卷积神经网络;从而使得哈希码类间最小汉明距离大于类内最大汉明距离。
-
公开(公告)号:CN113344069A
公开(公告)日:2021-09-03
申请号:CN202110606700.5
申请日:2021-05-31
申请人: 成都快眼科技有限公司
摘要: 本发明提供一种基于多维关系对齐的无监督视觉表征学习的图像分类方法,包括:步骤1,获取预训练图像数据以及增广视图;步骤2,构建包括在线编码器和离线编码器的双分支网络,将增广视图分别输入在线编码器和离线编码器得到特征以及负样本;步骤3,定义增广视图的特征与负样本的关系矩阵,并采用交叉对齐策略构建关系对齐损失;步骤4,设计多维关系对齐损失并进行无监督预训练;步骤5,通过添加分类器构成图像分类网络;步骤6,微调图像分类网络;步骤7,利用微调后的图像分类网络执行图像分类任务。本发明将关系对齐作为无监督视觉表征学习的核心,其在不引入任何不可靠约束的情况下,深入探索了样本之间的相似度关系。
-
公开(公告)号:CN107392251B
公开(公告)日:2020-08-11
申请号:CN201710616494.X
申请日:2017-07-26
申请人: 成都快眼科技有限公司
发明人: 李宏亮
IPC分类号: G06K9/62
摘要: 本发明提供了一种使用分类图片提升目标检测网络性能的方法,具体方法为:训练好的目标检测网络中,针对目标检测性能最差的目标类别,制作该目标类别的分类图片数据库,并把所述目标类别的分类图片中包含的特征信息学习到所述目标检测网络中,扩充网络中有关所述目标类别目标特征的信息。在训练目标检测网络时,针对检测性能最差的类别,考虑构造该类别的分类图片数据库,并使用目标检测网络在该分类图片数据库上进行微调,使得目标检测网络中关于该类别的特征信息变得更加丰富,提升该类别的目标检测性能,进而提升目标检测网络的整体性能。
-
公开(公告)号:CN109800712A
公开(公告)日:2019-05-24
申请号:CN201910052180.0
申请日:2019-01-21
申请人: 成都快眼科技有限公司
摘要: 本发明公开了一种基于深度卷积神经网络的车辆检测计数方法及设备,该方法包括:通过预先构建的基本网络提取待检测图像的底层特征;采用基于期望损失的锚点生成方法选取锚点窗口,在特征谱的每个位置产生锚点窗口大小的多个待检测窗口;对每个待检测窗口进行特征提取,输出特征谱;预测每个待检测窗口的目标打分、位置偏移和数量,输出待检测图像上车辆的位置和数量。本发明能够高效准确地检测出视频中的车辆数量,并以窗口的形式显示出其位置,且能够将航拍图像车辆检测的精度提升9个百分点的平均准确率,同时能够更大程度地减少数量的误差。
-
公开(公告)号:CN109117876A
公开(公告)日:2019-01-01
申请号:CN201810833623.5
申请日:2018-07-26
申请人: 成都快眼科技有限公司
摘要: 本发明提供了一种稠密小目标检测模型构建方法、模型及检测方法,基于目标中点上下文信息融合,通过对分辨率较大的图片切割,避免输入网络下采样后的图片丢失太多图像信息,影响网络特征提取;采用残差金字塔特征提取网络,融合不同尺度的特征,提高了网络在不同大小目标的检测精度,尤其是小目标;采用RoIAlign层代替原始的RoIPooling层,解决了候选区域特征不匹配引起的候选框位置偏差;由于在网络传递中易丢失小目标特征,将中心点上下文特征与原始RoI特征融合,使网络充分利用目标上下文信息,在保证网络运行速度的同时,更精确地定位与识别稠密的小目标,提高了网络性能。
-
公开(公告)号:CN109033321A
公开(公告)日:2018-12-18
申请号:CN201810790480.4
申请日:2018-07-18
申请人: 成都快眼科技有限公司
CPC分类号: G06N3/0454
摘要: 本发明提供了一种图像与自然语言特征提取及基于关键词的语言指示图像分割方法,在图像特征提取及自然语言特征提取的基础上,对输入图像和输入的自然语言,根据自然语言中所包含的关键词,将关键词对应图像区域i的特征fi、关键词加权后的语句特征qi以及对应基于关键词的视觉上下文特征ci一共三个特征进行级联;级联后的特征输入多层感知机进行分类,获得分割结果。与现有技术相比,图像与自然语言的特征提取,能够便于实现基于关键词的语言指示图像分割方法;本发明的语言指示图像分割方法,减少了对长语句的处理难度,提高了对象定位与识别的准确性,进而提高了语言指示图像分割精度。
-
公开(公告)号:CN106651897A
公开(公告)日:2017-05-10
申请号:CN201610888875.9
申请日:2016-10-12
申请人: 成都快眼科技有限公司
摘要: 本发明提供了一种基于超像素分割的视差修正方法,针对校正后的双目相机拍摄的左右图像,根据像素亮度值,对左右图像分别进行超像素块分割;针对无纹理区域误匹配的问题,对平坦区域超像素块标记不稳定超像素块;根据相邻超像素块越相近的区域的视差越接近,来修正不稳定超像素块的视差。该方法针对局部立体算法前景膨胀的问题,基于超像素分割,根据相邻超像素块越相似的区域的视差越接近,来修正错误匹配的区域,生成视差图速度快,精度高。
-
公开(公告)号:CN113344069B
公开(公告)日:2023-01-24
申请号:CN202110606700.5
申请日:2021-05-31
申请人: 成都快眼科技有限公司
IPC分类号: G06V10/764 , G06V10/774 , G06V10/82 , G06N3/04 , G06N3/08
摘要: 本发明提供一种基于多维关系对齐的无监督视觉表征学习的图像分类方法,包括:步骤1,获取预训练图像数据以及增广视图;步骤2,构建包括在线编码器和离线编码器的双分支网络,将增广视图分别输入在线编码器和离线编码器得到特征以及负样本;步骤3,定义增广视图的特征与负样本的关系矩阵,并采用交叉对齐策略构建关系对齐损失;步骤4,设计多维关系对齐损失并进行无监督预训练;步骤5,通过添加分类器构成图像分类网络;步骤6,微调图像分类网络;步骤7,利用微调后的图像分类网络执行图像分类任务。本发明将关系对齐作为无监督视觉表征学习的核心,其在不引入任何不可靠约束的情况下,深入探索了样本之间的相似度关系。
-
公开(公告)号:CN113342997B
公开(公告)日:2022-11-11
申请号:CN202110538489.8
申请日:2021-05-18
申请人: 成都快眼科技有限公司
摘要: 本发明提供一种基于文本行匹配的跨图文本阅读方法,包括:步骤10,获取输入的两张文本图像;步骤20,提取出文本行位置,过滤不可读文本行并进行特征提取,得到文本行特征;步骤30,获得文本行匹配结果:步骤31,将文本行位置和文本行特征进行特征编码得到节点特征;步骤32,对节点特征进行自优化和交叉优化得到优化后的节点特征;步骤33,利用优化后的节点特征计算打分矩阵,得到文本行匹配结果;步骤4,根据文本行匹配结果拼接文本行特征,并提取出对应文本得到文本识别结果;步骤5,融合文本识别结果,得到文本阅读结果。本发明能够充分利用文本的先验信息,在文本行级别上完成跨图文本阅读任务,取得了比像素级合并和阅读方法更好的效果。
-
-
-
-
-
-
-
-
-