-
公开(公告)号:CN106022237B
公开(公告)日:2019-07-12
申请号:CN201610315688.1
申请日:2016-05-13
申请人: 电子科技大学
摘要: 本发明公开了一种端到端的卷积神经网络的行人检测方法,用以解决现有行人检测算法检测精度不高、算法复杂和多模块融合困难等问题。采用了一种新的端到端的卷积神经网络,通过构建带有标注的训练样本集,采用端到端训练,得到一个能预测行人候选框和相应框的置信度的卷积神经网络模型。测试时,将测试图片输入训练好的模型内,即可得到相应的行人检测框和置信度。最后进行非极大值抑制和阀值筛选,得到最佳行人区域。本发明与以往发明相比,具有两大优势:一是端到端训练和测试,使整个模型训练和测试都极为容易;二是本发明通过构建候选框回归网络,解决了行人尺度和比例问题,不需要以往的发明采用的金字塔技术,极大的节约了计算资源。
-
公开(公告)号:CN105894045B
公开(公告)日:2019-04-26
申请号:CN201610295486.5
申请日:2016-05-06
申请人: 电子科技大学
摘要: 本发明公开了一种基于空间金字塔池化深度网络模型的车型识别方法,首先将车型数据库的图像,导入深度网络模型进行卷积层特征提取,构成卷积层的特征图;再将卷积层特征图的每个图像,按不同尺度进行空间金字塔卷积运算,构成空间金字塔层的特征图;然后池化空间金字塔层的所有特征,构成全连接层,得到车型图像最终的特征表示;将车型图像的特征表示用于线性支持向量机训练,得到车型识别系统;对待识别车辆,同样获取其特征表示,导入识别系统即可识别出其车型。传统的深度网络模型输入图像必须为固定大小,限制了对大规模车型图像数据的操作,本发明采取基于空间金字塔池化的深度网络模型,很好地解决了这个问题,具有较高的实用性和鲁棒性。
-
公开(公告)号:CN106023249A
公开(公告)日:2016-10-12
申请号:CN201610317159.5
申请日:2016-05-13
申请人: 电子科技大学
IPC分类号: G06T7/20
CPC分类号: G06T2207/30221
摘要: 本发明公开了一种基于局部二值相似性模式的运动目标检测方法,属于目标检测技术领域,解决场景的变化导致目标的位置、大小发生改变,从而影响运动目标检测的效果。步骤为:(1)抽取包含运动目标的视频中的第一帧图像,提取第一帧图像中的每个像素点的局部二值相似性模式描述子,构建背景模型;(2)抽取包含运动目标的视频中的第一帧后的所有帧图像,计算第一帧后的所有帧图像中每个像素点的局部二值相似性模式值,并将每个像素点的局部二值相似性模式值与相同位置的背景模型进行相似性比较;(3)通过相似性比较判断各像素点是前景还是背景;(4)如果背景变化,转到步骤(1),更新背景模型,再执行步骤(2)和步骤(3)。本发明用于运动目标的检测。
-
公开(公告)号:CN105956560A
公开(公告)日:2016-09-21
申请号:CN201610295487.X
申请日:2016-05-06
申请人: 电子科技大学
CPC分类号: G06K9/00825 , G06K9/46 , G06K9/6223 , G06K2209/23 , G06N3/02 , G06T9/00 , G06T2207/20021
摘要: 本发明公开了一种基于池化多尺度深度卷积特征的车型识别方法,首先对车型数据库的每个车型图像,按不同尺度提取其深度卷积特征,第一个尺度不处理;将余下每个尺度的深度卷积特征,进行PCA降维;再进行局部特征聚合描述子编码;然后再次通过PCA降维,得到当前尺度的特征表示;将所有尺度的特征级联池化,得到当前图像最终的特征表示;将车型图像的特征表示用于线性支持向量机训练,得到车型识别系统;对待识别车辆,同样获取其特征表示,导入识别系统即可识别出其车型。传统的深度卷积特征缺少几何不变性,限制了对可变场景的车型图像分类和识别,本发明采取图像的池化多尺度深度卷积特征,很好地解决了这个问题,具有较高的实用性和鲁棒性。
-
公开(公告)号:CN106022239A
公开(公告)日:2016-10-12
申请号:CN201610317720.X
申请日:2016-05-13
申请人: 电子科技大学
IPC分类号: G06K9/00
CPC分类号: G06K9/00724
摘要: 本发明公开了一种基于循环神经网络的多目标跟踪方法,包括下述步骤:构建标注了每帧行人位置的监控视频数据集;对标注了每帧行人位置的监控视频数据集进行人工扩充,得到训练集样本;对训练集样本进行分组,得到多个训练组;构建多目标跟踪网络;将各训练组以序列为单位输入多目标跟踪网络进行训练;将待测视频数据输入训练后的多目标跟踪网络,进行前向传播,得到多个目标的运动轨迹。本发明通过采用原始数据以及人工扩充后的大量数据端到端地对所提出的网络模型进行训练,在一个统一的神经网络架构下完成了数据关联和轨迹估计等复杂任务,在不同方向、光照条件、形变等复杂环境条件下,均能有效地对目标运动轨迹进行跟踪。
-
公开(公告)号:CN105469095A
公开(公告)日:2016-04-06
申请号:CN201510788958.6
申请日:2015-11-17
申请人: 电子科技大学
CPC分类号: G06K9/4676 , G06K9/6269 , G06K2209/23
摘要: 本发明公开了一种基于车型图像的模式集直方图的车型识别方法,首先对车型图像数据库,根据词袋模型构建图像的直方图表示;接着对图像的直方图进行多次随机投影,然后进行二值化处理,得到图像的二值化事务项数据集;再将二值化事务项数据集进行模式挖掘,构成图像的模式集直方图表示;对所有车型图像的模式集直方图进行one vs rest线性SVM训练,得到每种类别车型图像的分类器,联合后得到车型识别系统;而对测试车型图像,提取其基于训练集中每种车型图像的模式集直方图表示,将其导入车型识别系统进行测试,识别出车型。本发明算法快速高效,提高了识别速度,消耗内存少,具有较高的实用性和鲁棒性。
-
公开(公告)号:CN105404859A
公开(公告)日:2016-03-16
申请号:CN201510738891.5
申请日:2015-11-03
申请人: 电子科技大学
CPC分类号: G06K9/00825 , G06K9/6256 , G06K9/6269
摘要: 一种基于池化车辆图片原始特征的车型识别方法,首先对于训练的车型图像库,设置车型图像的M种图像块大小,分别提取车型图像的每种大小的局部图像块;将每个局部图像块视为一个行向量,对其进行归一化和PCA降维;然后进行极性分离,构成新的局部图像块向量;接着在当前局部图像块的基础上对整个图像进行空间金字塔池化,联合金字塔每一层池化后的特征向量,构成当前大小的图像块的图像表示;级联每种大小的图像块的图像表示,得到车型图像的空间池化特征表示;将得到的N类车型的空间池化特征表示进行线性SVM训练,得到一个具有N类车型类别的识别系统。对于测试车辆图像,求得其空间池化特征表示,导入车型识别系统,识别出测试车辆车型。
-
公开(公告)号:CN105956560B
公开(公告)日:2019-07-09
申请号:CN201610295487.X
申请日:2016-05-06
申请人: 电子科技大学
摘要: 本发明公开了一种基于池化多尺度深度卷积特征的车型识别方法,首先对车型数据库的每个车型图像,按不同尺度提取其深度卷积特征,第一个尺度不处理;将余下每个尺度的深度卷积特征,进行PCA降维;再进行局部特征聚合描述子编码;然后再次通过PCA降维,得到当前尺度的特征表示;将所有尺度的特征级联池化,得到当前图像最终的特征表示;将车型图像的特征表示用于线性支持向量机训练,得到车型识别系统;对待识别车辆,同样获取其特征表示,导入识别系统即可识别出其车型。传统的深度卷积特征缺少几何不变性,限制了对可变场景的车型图像分类和识别,本发明采取图像的池化多尺度深度卷积特征,很好地解决了这个问题,具有较高的实用性和鲁棒性。
-
公开(公告)号:CN105975941B
公开(公告)日:2019-04-12
申请号:CN201610316159.3
申请日:2016-05-31
申请人: 电子科技大学
摘要: 本发明公开了一种基于深度学习的多方向车型检测识别系统,对于非固定视角下拍摄的汽车图像,该系统首先采用基于卷积神经网络的车辆检测定位算法检测出图像中的汽车位置,然后将汽车所在位置部分的图像送入同样基于卷积神经网络的车型识别网络进行品牌车型的判别。该系统对汽车图像拍摄方向、光照条件、尺度形变等具有良好的鲁棒性,对于汽车的检测和识别具有极高的准确率。
-
公开(公告)号:CN106022237A
公开(公告)日:2016-10-12
申请号:CN201610315688.1
申请日:2016-05-13
申请人: 电子科技大学
CPC分类号: G06K9/00369 , G06K9/6256
摘要: 本发明公开了一种端到端的卷积神经网络的行人检测方法,用以解决现有行人检测算法检测精度不高、算法复杂和多模块融合困难等问题。采用了一种新的端到端的卷积神经网络,通过构建带有标注的训练样本集,采用端到端训练,得到一个能预测行人候选框和相应框的置信度的卷积神经网络模型。测试时,将测试图片输入训练好的模型内,即可得到相应的行人检测框和置信度。最后进行非极大值抑制和阀值筛选,得到最佳行人区域。本发明与以往发明相比,具有两大优势:一是端到端训练和测试,使整个模型训练和测试都极为容易;二是本发明通过构建候选框回归网络,解决了行人尺度和比例问题,不需要以往的发明采用的金字塔技术,极大的节约了计算资源。
-
-
-
-
-
-
-
-
-