一种基于VGG16的CNN-SVM手写签名识别方法

    公开(公告)号:CN110399815A

    公开(公告)日:2019-11-01

    申请号:CN201910629487.2

    申请日:2019-07-12

    申请人: 淮阴工学院

    摘要: 本发明公开了一种基于VGG16的CNN-SVM手写签名识别方法,步骤一:标签化处理手写签名图像数据集;步骤二:对数据集依次通过图像灰度化、二值化和尺寸归一化进行预处理;步骤三:采用Kaggle公司的公用数据集ImageNet训练神经网络模型VGG16得到权重集;步骤四:将权重集迁移至CNN并训练,得到初始特征矩阵;步骤五:将初始特征矩阵经过PCA降维后输入SVM进行训练,得到手写签名图像识别结果。本发明基于VGG16改进了CNN-SVM,有效的提升了手写签名识别效果,增加了图纸签名的使用价值。

    一种基于VGG16的CNN-SVM手写签名识别方法

    公开(公告)号:CN110399815B

    公开(公告)日:2023-09-26

    申请号:CN201910629487.2

    申请日:2019-07-12

    申请人: 淮阴工学院

    摘要: 本发明公开了一种基于VGG16的CNN‑SVM手写签名识别方法,步骤一:标签化处理手写签名图像数据集;步骤二:对数据集依次通过图像灰度化、二值化和尺寸归一化进行预处理;步骤三:采用Kaggle公司的公用数据集ImageNet训练神经网络模型VGG16得到权重集;步骤四:将权重集迁移至CNN并训练,得到初始特征矩阵;步骤五:将初始特征矩阵经过PCA降维后输入SVM进行训练,得到手写签名图像识别结果。本发明基于VGG16改进了CNN‑SVM,有效的提升了手写签名识别效果,增加了图纸签名的使用价值。

    一种基于双目视觉和距离估计的蘑菇直径测量方法

    公开(公告)号:CN115909318A

    公开(公告)日:2023-04-04

    申请号:CN202211618280.3

    申请日:2022-12-15

    IPC分类号: G06V20/64 G06V10/147

    摘要: 本发明公开了一种基于双目视觉和距离估计的蘑菇直径测量方法,包括:双目相机标定;利用双目相机采集蘑菇图像,得到左摄像头拍摄图像imagel和右摄像头拍摄图像imager;进行图像预处理,得到左视图像Il和右视图像Ir;分别对左视图像Il和右视图像Ir进行距离估计操作,得到左视图视角下的蘑菇直径d1l和右视图视角下的蘑菇直径d2r;对左视图像Il和右视图像Ir进行双目测量操作,通过轮廓特征提取、立体匹配、深度计算操作,得到蘑菇轮廓关键点的三维坐标,根据轮廓关键点计算出蘑菇直径d3;计算三个测量值d1l、d2r、d3的几何平均数,几何平均数即最终的蘑菇直径测量值。本发明具有较高的测量精度及稳定性。

    一种基于融合特征的人体动作分类方法

    公开(公告)号:CN110427831B

    公开(公告)日:2022-02-11

    申请号:CN201910614687.0

    申请日:2019-07-09

    申请人: 淮阴工学院

    摘要: 本发明公开了一种基于融合特征的人体动作分类方法,包括输入多个带标签的人体动作视频,将各动作视频转换成帧序列;使用预训练的沙漏人体姿势估计模型预测各帧的人体关节点3D坐标,得到关节点3D坐标数据集;将人体关节点坐标投影至三维平面;使用LSTM、GRU两种模型分别对投影后的数据进行特征提取,将提取的两组特征向量进行融合;基于融合后的特征训练人体动作视频分类模型,将视频数据输入训练好的人体动作视频分类模型,得到人体动作视频分类结果。本发明方法通过特征融合可挖掘人体动作的整体特征,增强模型对特征的辨别力,对于类间差别较小的动作分类更加准确。

    一种基于全局信息和位置嵌入的场景图生成方法

    公开(公告)号:CN113836339A

    公开(公告)日:2021-12-24

    申请号:CN202111021629.0

    申请日:2021-09-01

    申请人: 淮阴工学院

    摘要: 本发明涉及计算机视觉技术领域,公开了一种基于全局信息和位置嵌入的场景图生成方法,基于大型数据集中的图像,由Faster‑RCNN得到高级特征图和每个实体信息并且对目标位置编码;将特征图和实体信息拼接的特征通过基于自注意力机制的网络得到节点间与其他目标的信息连接;利用LSTM的注意力网络得到目标上下文信息;构建边上下文生成的解码信息和目标图关系的生成融合方式;通过关系计算得到最终场景图。与现有技术相比,本发明将目标特征融入原始图像的视觉信息的方法,加入位置编码信息,连接全局信息和加权信息,提升整体视觉特征对于单一目标的影响,提高了模型推理时对于场景中主要目标的关注度和主宾分类的合理性,召回率有明显提升。

    一种基于W-ATT-CNN算法的化工装备文本分类方法

    公开(公告)号:CN110543629A

    公开(公告)日:2019-12-06

    申请号:CN201910705558.2

    申请日:2019-08-01

    申请人: 淮阴工学院

    摘要: 本发明公开了一种基于W-ATT-CNN算法的化工装备文本分类方法,包括对化工装备文本数据集D进行预处理,得到预处理后的数据集D'以及包含D'中所有汉字类别名称的词汇表vocab;通过向量化、拼接操作将数据集D'转化为矩阵V,并将数据矩阵V按7:3的比例分为训练矩阵V1和测试矩阵V2;构造ATT-CNN网络并设置训练流程,从V1中随机选取50%的数据作为训练样本矩阵T;使用矩阵V1训练ATT-CNN网络,将矩阵V2输入训练好的ATT-CNN网络进行测试,得到分类结果R,由分类结果R计算得到分类准确率P,将P与设定阈值做比较,得到最终分类模型Mod。本发明通过W-ATT-CNN算法对化工装备文本进行分类,提高了化工装备在不同应用场景中分类的准确性。