一种任意姿态行人图片生成方法

    公开(公告)号:CN108564119B

    公开(公告)日:2020-06-05

    申请号:CN201810295994.2

    申请日:2018-04-04

    IPC分类号: G06K9/62 G06K9/00 G06N3/04

    摘要: 本发明公开了一种基于生成对抗网络的任意姿态行人图片生成方法,仅通过将人物图片、图中行人的的姿态以及目标迁移姿态的热力图输入生成器网络,即可得到前一位目标姿态的相同人物的图片。由于该方法的生成器中引入了姿态注意力机制,且采用了两个不同的判别器分别进行外貌一致性和姿态一致性的判别,使其能够应对图像变形、几何变换、视角转移等多种复杂情况。并且可以端到端训练。本发明提出的任意姿态的人物图片生成方法在现有技术思路的基础上进行了创新,采用新颖的结构进行网络模型搭建,相较于之前的方法,所合成的图片更加真实、自然,有很强的实际应用价值。

    一种基于全卷积网络的多方向场景文本单次检测方法

    公开(公告)号:CN107977620B

    公开(公告)日:2020-05-19

    申请号:CN201711225391.7

    申请日:2017-11-29

    IPC分类号: G06K9/00 G06K9/32 G06K9/62

    摘要: 本发明公开了一种基于全卷积网络的多方向场景文本单次检测方法,通过构建全卷积的单次检测网络模型,无须多步处理步骤、仅用单个网络就可以进行端到端训练,以多种尺度的特征提取层结合文本框预测层可以检测到不同尺寸、长宽比、分辨率的多方向自然场景文字,并且能以多边形包围盒贴合文字从而更少地引入背景干扰,最后仅需简单的非最大值抑制操作便可获得最终的文本检测结果。本发明提出的检测方法相对于现有技术结构简单有效,在准确度、检测速度和鲁棒性这些方面都取得了卓越的效果,有很强的实际应用价值。

    一种任意形状的场景文本端到端识别方法

    公开(公告)号:CN108549893B

    公开(公告)日:2020-03-31

    申请号:CN201810294058.X

    申请日:2018-04-04

    摘要: 本发明公开了一种任意形状的场景文本端到端识别方法,通过特征金字塔网络提取文本特征,用于区域提取网络生成候选文本框;然后通过快速区域分类回归分支调整候选文本框位置得到更准确的文本包围盒位置信息;其次将包围盒位置信息输入分割分支,通过像素投票算法得到预测字符序列;最后通过加权编辑距离算法对预测的字符序列进行处理,找到给定词典中预测序列的最匹配单词得到最终的文本识别结果。该方法可以同时检测和识别自然图像中任意形状的场景文本,包括水平文本、多方向文本和曲形文本,并且可以完全地进行端到端训练。本发明提出的检测识别方法相对于现有技术在准确度和通用性这些方面都取得了卓越的效果,有很强的实际应用价值。

    一种基于注意力机制的缺陷目标检测方法

    公开(公告)号:CN109829893A

    公开(公告)日:2019-05-31

    申请号:CN201910005485.6

    申请日:2019-01-03

    摘要: 本发明属于缺陷检测技术领域,公开了一种基于注意力机制的缺陷目标检测方法,对原始数据集中所有图片的各类缺陷进行标注,得到带标注的标准训练数据集;根据该标准训练数据集得到训练标签、确定损失函数,得到网络模型并利用反向传导方法训练,得到对缺陷部位权重增强的基于注意力机制的缺陷回归检测网络模型;利用上述的缺陷回归检测网络模型对待检测图片进行分类预测和回归预测;并对预测的缺陷包围框进行非极大值抑制处理进行过滤,得到输出结果;本发明提供的这种方法通过注意力机制提高缺陷区域的权重,由此提高缺陷检测的精度;本方法对工业产品表面缺陷进行分类与回归的检测可以应用到其他类型的表面缺陷检测框架中提高检测精度,通用性强。

    一种基于连接文字段的自然图片中多方向文本检测方法

    公开(公告)号:CN106897732A

    公开(公告)日:2017-06-27

    申请号:CN201710010596.7

    申请日:2017-01-06

    发明人: 白翔 石葆光

    IPC分类号: G06K9/62 G06N3/08 G06K9/20

    摘要: 本发明公开了一种基于连接文字段的自然图片中多方向文本检测方法,文字段和连接是该检测方法中关键的两个步骤,定义如下:文字段指的是在图片上划分出许多单个多方向的包围盒区域,它们包围着一个文字条或者单词的一部分;连接指的是将相邻的字段连接起来,意味着它们属于同一个单词或同一句话。文字段和连接合起来使用一个端到端训练的全卷积神经网络以多种尺度进行等间隔地检测。最后的检测结果是先连接多个文字段组成新区域,然后对这些新区域进行组合而得到的。本发明提出的检测方法相对于现有技术在准确率、速度和模型简易度这些方面都取得了卓越的效果,效率高且鲁棒性强,能克服复杂的图片背景,另外也能检测图像中非拉丁文字的长文本。

    基于参考特征的人脸识别方法

    公开(公告)号:CN102637251B

    公开(公告)日:2013-10-30

    申请号:CN201210074224.8

    申请日:2012-03-20

    发明人: 白翔 沈为 王跃铭

    IPC分类号: G06K9/00 G06K9/62

    摘要: 本发明公开了一种基于参考特征的人脸识别方法,首先对待识别的人脸图像,首先提取人脸图像的尺度不变特征和局部二值模式特征,然后再用主成份分析方法降维,得到待识别人脸图像的图像特征;再利用得到的图像特征,计算图像特征到聚类中心的相似度,得到待识别人脸图像参考特征;最后对于待识别的人脸图像的参考特征与训练数据集中的参考特征计算相似度,得到分析结果。本发明公开的人脸图像的参考特征包含了人脸图像的纹理信息和结构信息,比现有的方法只反映人脸的纹理信息或者只反映人脸的结构信息更全面的表征了人脸;特征提取过程简单易行,易于实现;识别结果准确率高;对于同一个人物不同面部姿态具有较高的识别率。

    一种基于蒸馏比较的异常物体分割方法

    公开(公告)号:CN114170599B

    公开(公告)日:2024-08-23

    申请号:CN202111523499.0

    申请日:2021-12-14

    摘要: 本发明公开了一种基于蒸馏比较的异常物体分割方法:在无异常训练集上,训练一个语义分割网络,移除语义分类头后作为教师分支;固定教师分支参数,利用语义特征分布蒸馏获得与教师分支结构相似的学生分支。两分支的输出在正常类上保持一致,在异常类上不一致。输入带异常测试图像,两分支分别对图像进行多尺度特征提取和聚合,提取的语义特征逐位置进行比较得到异常分数图,异常分数图双线性插值取阈值将图像中的所有像素划分为正常和异常两类。本方法引入了一种全新的简单灵活的蒸馏比较网络来进行异常物体分割,在推理阶段没有利用语义分类头的结果,大幅减少了对语义分割错误的正常类别像素的误判,实现了更准确的异常物体分割。

    基于条件扩散模型的甲骨文辅助破译方法

    公开(公告)号:CN117333881A

    公开(公告)日:2024-01-02

    申请号:CN202311295878.8

    申请日:2023-10-07

    摘要: 本发明公开了一种基于条件扩散模型的甲骨文辅助破译方法:收集和整理已破译的甲骨文文字在甲骨文、金文、大篆、隶书和楷书五个阶段的字形演变数据;将两个不同时期的文字图片进行配对,并进行固定尺寸的随机裁剪操作;构建一个条件扩散模型神经网络,将成对图片送入神经网络中进行训练,优化网络参数;输入一张甲骨文文字图片,利用训练好的条件扩散模型对图片进行逆向扩散,并使用加权滑动方法生成甲骨文字形演变图片。本发明提出了一个简单而有效的甲骨文字形演变生成模型,利用已破译甲骨文不同时期文字图片的监督信息,达到了输入甲骨文图片,模型能够预测生成其在任意时期的字形图片的目的,从而辅助甲骨文专家对未破译的甲骨文进行破译。

    一种半监督旋转目标检测模型的训练方法及相应的装置

    公开(公告)号:CN116630791A

    公开(公告)日:2023-08-22

    申请号:CN202310370868.X

    申请日:2023-04-07

    摘要: 本发明公开了一种半监督旋转目标检测模型的训练方法及相应的装置,包括:通过标注样本对第二模型进行训练,根据第二模型的预测结果和样本标签计算得到有监督损失LS;分别对无标注样本不同程度的增强,以得到第一增强样本Iw和第二增强样本Is,通过第一增强样本IW对第一模型进行训练,将第二增强样本Is对第二模型进行训练;根据第一模型的预测结果以及第二模型的预测结果,分别得到旋转感知的自适应加权损失LR和全局一致性损失LG;根据有监督损失LS、自适应加权损失LR和全局一致性损失LG对第一模型和第二模型进行迭代训练,直至模型收敛。