-
公开(公告)号:CN112699726A
公开(公告)日:2021-04-23
申请号:CN202011251301.3
申请日:2020-11-11
Applicant: 中国科学院计算技术研究所数字经济产业研究院 , 杭州中科睿鉴科技有限公司
Abstract: 本发明涉及一种图像增强方法、真伪商品鉴别方法及设备。本发明的目的是提供一种图像增强方法、真伪商品鉴别方法及设备,以避免数据集有偏导致分类模型过拟合到无关因子。本发明的技术方案是:一种图像增强方法,其特征在于:S01、对于具体的图像分类任务分析其中分类无关的有偏因子,控制有偏因子对应的属性为唯一变量,摄取图像作为源域数据集;S02、通过GAN网络结构训练有偏因子对应属性迁移模型,学习一个生成器G,x’=G(x,a);S03、在目标数据集上,应用经训练的生成器G扩充样本,对于目标数据集上的每一个样本,通过遍历有偏因子对应属性所有的取值a,得到无偏的生成样本。本发明适用于计算机视觉领域。
-
公开(公告)号:CN106384127B
公开(公告)日:2019-04-02
申请号:CN201610811522.9
申请日:2016-09-08
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供了确定局部特征点的二进制描述子的方法,该方法根据预先训练的结果从特征点周围区域中提取最具有区分力的比较点对及比较属性,并可综合使用比较点对的多种属性来提取二进制描述子,具有更强的描述能力和区分能力,计算效率高,描述能力强,非常适合应用于大规模图像实时检索。
-
公开(公告)号:CN109376683A
公开(公告)日:2019-02-22
申请号:CN201811329682.5
申请日:2018-11-09
Applicant: 中国科学院计算技术研究所
Abstract: 本发明涉及一种基于稠密图的视频分类方法和系统,包括:通过共享的二维卷积神经网络获取帧级特征,然后将其按照时间顺序堆起来组成稠密图,最后通过一层时序卷积网络并行地获取多尺度特征完成分类任务。由于本发明涉及的参数量相比现有技术更少,因此计算复杂度更低。本发明不需要光流图去建模时序信息,相对高效。发明中全部使用了二维卷积核,共享大量网络参数,充分发挥了显卡的并行计算能力,在不损失精度的情况下大大提升了速度,并且使得模型易训练。
-
公开(公告)号:CN104881668A
公开(公告)日:2015-09-02
申请号:CN201510241287.1
申请日:2015-05-13
Applicant: 中国科学院计算技术研究所
IPC: G06K9/46
CPC classification number: G06K9/4604 , G06K9/4671
Abstract: 本发明公开了一种基于代表性局部模式的图像指纹提取方法及系统,涉及图像处理领域,该方法包括将库图像进行图像攻击模拟处理,生成新库图像,并提取所述库图像与所述新库图像的关键点,根据所述关键点,获取局部区块,并根据所述局部区块,生成局部模式并建立局部模式库,从所述局部模式库中获取代表性局部模式;根据所述代表性局部模式,建立所述库图像与所述新库图像的图像指纹,并将所述图像指纹存入图像指纹库;获取新图像,提取所述新图像的新图像指纹,将所述新图像指纹与所述图像指纹库中的图像指纹进行比对,查找库图像中与所述新图像向对应的图像。本发明占用内存少,可以使用优化的机器指令进行加速匹配,适于大规模的图像拷贝检测。
-
公开(公告)号:CN103514595A
公开(公告)日:2014-01-15
申请号:CN201210222279.9
申请日:2012-06-28
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供一种图像显著区域检测方法,包括:步骤1、边缘检测,得到边缘图像;步骤2、计算像素点视觉显著值和空间权重值;其中,每种颜色的视觉显著值由这种颜色在所述边缘图像里的像素点数目除以这种颜色在原始图像里的像素点数目得到,每个像素点的视觉显著值等于它颜色的视觉显著值;其中,每个像素点的空间权重值由它离核心点的距离决定,离核心点越近,其空间权重值越大,离核心点越远,其空间权重值越小;步骤3、综合视觉显著值和空间权重值得到像素点的最终显著值;和步骤4、基于最终显著值,利用均值飘移算法确定显著区域的像素点。该方法提高显著区域像素的检出数量,避免对背景颜色交界处的误检测。
-
公开(公告)号:CN101211356A
公开(公告)日:2008-07-02
申请号:CN200610171520.4
申请日:2006-12-30
Applicant: 中国科学院计算技术研究所
Abstract: 本发明公开了一种基于显著区域的图像查询方法,包括以下步骤:(1)将图像进行网格划分;(2)对网格进行模糊聚类,将图像分割成若干关注区域;(3)基于关注区域计算显著度;(4)将所有格点按照显著度进行排序得到显著区域;(5)进行图像查询。本发明的优点在于:简化计算,更符合视觉感知,提高检索效率和精度。
-
公开(公告)号:CN112132133B
公开(公告)日:2023-11-17
申请号:CN202010545903.3
申请日:2020-06-16
Applicant: 中国科学院计算技术研究所数字经济产业研究院 , 杭州中科睿鉴科技有限公司
IPC: G06V30/148 , G06V10/774 , G06V30/19 , G06V10/82 , G06N3/0464 , G06V20/62 , G06T3/40
Abstract: 本发明涉及一种标识图像数据增强方法及真伪智能鉴定方法。本发明的目的是提供一种标识图像数据增强方法及真伪智能鉴定方法,解决现有图像分类算法遇到小样本问题时的解决方案。本发明的技术方案是:一种标识图像数据增强方法,其特征在于:获取显示有标识的真图;获取真图中标识的关键特征数据;基于关键特征数据建立伪图数据规则;根据数据规则生成伪图。本发明适用于计算机视觉技术领域。
-
公开(公告)号:CN110222719A
公开(公告)日:2019-09-10
申请号:CN201910388158.3
申请日:2019-05-10
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提出一种基于多帧音视频融合网络的人物识别方法及系统,其特征在于,包括:视觉特征融合步骤,解码待人物识别的视频,得到该视频的连续K帧,提取该连续K帧中每一帧的人脸特征,对所有该人脸特征进行加权融合得到多帧视觉特征,K为正整数;声纹特征融合步骤,提取该连续K帧中每一帧的声纹特征,使用时间递归神经网络融合所有该声纹特征,得到多帧声纹特征;音视频特征融合步骤,使用全连接层对该多帧视觉特征和该多帧声纹特征进行融合,并用分类损失约束融合过程,得到多帧音视频融合特征,根据该多帧音视频融合特征进行人物识别。
-
公开(公告)号:CN109684912A
公开(公告)日:2019-04-26
申请号:CN201811329684.4
申请日:2018-11-09
Applicant: 中国科学院计算技术研究所
Abstract: 本发明涉及一种基于信息损失函数的视频描述方法和系统,包括:获取训练视频,得到集合训练视频每一帧的语义信息;将训练视频的语义信息输入结合LSTM的层次化注意力机制模型中,得到训练视频的文字描述;根据文字描述中每个单词对表达视频内容的重要性,对单词进行损失加权,得到信息损失函数,将信息损失函数作为目标函数反传梯度优化层次化注意力机制模型,得到视频描述模型;获取待描述视频,将待描述视频分别输入至目标检测网络,卷积神经网络和动作识别网络,以得到集合待描述视频每一帧的目标特征、总体特征、运动特征,作为待描述视频的语义信息,将其输入至视频描述模型,得到待描述视频的文字描述。
-
公开(公告)号:CN103514595B
公开(公告)日:2016-03-30
申请号:CN201210222279.9
申请日:2012-06-28
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供一种图像显著区域检测方法,包括:步骤1、边缘检测,得到边缘图像;步骤2、计算像素点视觉显著值和空间权重值;其中,每种颜色的视觉显著值由这种颜色在所述边缘图像里的像素点数目除以这种颜色在原始图像里的像素点数目得到,每个像素点的视觉显著值等于它颜色的视觉显著值;其中,每个像素点的空间权重值由它离核心点的距离决定,离核心点越近,其空间权重值越大,离核心点越远,其空间权重值越小;步骤3、综合视觉显著值和空间权重值得到像素点的最终显著值;和步骤4、基于最终显著值,利用均值飘移算法确定显著区域的像素点。该方法提高显著区域像素的检出数量,避免对背景颜色交界处的误检测。
-
-
-
-
-
-
-
-
-