基于OpenCL的卷积神经网络并行处理方法

    公开(公告)号:CN110110844B

    公开(公告)日:2021-01-12

    申请号:CN201910331464.3

    申请日:2019-04-24

    IPC分类号: G06N3/04

    摘要: 本发明提出了一种基于OpenCL的卷积神经网络并行处理方法,主要解决现有卷积神经网络并行化处理中模型复杂度高、运行速度缓慢的问题。实现步骤为:获取图像数据矩阵的重组矩阵;获取权值矩阵;分块并行计算权值矩阵与重组矩阵的乘积;对乘积矩阵进行并行批量归一化;输出特征值矩阵。本发明利用计算机图形处理器GPU中大量的并行计算单元,将卷积神经网络的卷积过程转化为大型矩阵乘法,分块并行计算权值矩阵与重组矩阵的乘积,简化了卷积层数据的处理过程,优化了数据的访存方式,提高了数据的复用率,使得本发明大幅提高了卷积神经网络的运行速度。

    极化相似度匹配下的极化相干矩阵散射能量分解方法

    公开(公告)号:CN103901415B

    公开(公告)日:2016-06-15

    申请号:CN201410072920.4

    申请日:2014-02-28

    IPC分类号: G01S7/41 G01S13/90

    摘要: 本发明属于雷达自动目标识别技术领域,公开了一种极化相似度匹配下的极化相干矩阵散射能量分解方法,基于雷达得到的观测相干矩阵T1,对其去取向角得到极化相干矩阵T,分别计算极化相干矩阵T与面散射机制、二面角散射机制、体散射机制对应的最大极化相似度,确定极化相干矩阵T的主导散射机制及主导散射机制对应的主散射相干矩阵Tmain1,对主散射Tmain1进行半正定约束下的优先分解,求得主导散射机制对应的能量及残余矩阵Trem1;去除主导散射机制后,对残余矩阵Trem1基于极化相似度的大小在能量非负的约束下来顺序提取其他散射机制对应的能量;对最终的残余矩阵,基于其与不同的散射机制对应的极化相似度大小,决定其对应的能量归属于哪种散射机制。最终得到各个散射机制对应的散射能量。

    基于边界框回归模型的目标跟踪方法

    公开(公告)号:CN112053384B

    公开(公告)日:2022-12-02

    申请号:CN202010883760.7

    申请日:2020-08-28

    IPC分类号: G06T7/246 G06T7/73 G06T5/00

    摘要: 本发明公开了一种基于边界框回归的目标跟踪方法,主要解决因传统的相关滤波器预测的目标区域不准确的问题,本发明实现的步骤如下:计算连续分辨率的空间特征图;计算相关滤波器;构建边界框回归模型;回归预测的目标位置;将调整后的目标区域位置作为对于目标跟踪的结果;判断当前帧视频图像是否为待跟踪视频图像序列的最后一帧图像,若是,则执行下一步,否则,用下一帧从头开始执行;结束对待跟踪目标的跟踪。本发明通过构造边界框回归行,更准确地预测了目标区域的位置信息,也通过三次线性插值的方式丰富了神经网络对目标区域提取到的特征,最终实现了准确的目标跟踪。

    基于OpenCL的卷积神经网络并行处理方法

    公开(公告)号:CN110110844A

    公开(公告)日:2019-08-09

    申请号:CN201910331464.3

    申请日:2019-04-24

    IPC分类号: G06N3/04

    摘要: 本发明提出了一种基于OpenCL的卷积神经网络并行处理方法,主要解决现有卷积神经网络并行化处理中模型复杂度高、运行速度缓慢的问题。实现步骤为:获取图像数据矩阵的重组矩阵;获取权值矩阵;分块并行计算权值矩阵与重组矩阵的乘积;对乘积矩阵进行并行批量归一化;输出特征值矩阵。本发明利用计算机图形处理器GPU中大量的并行计算单元,将卷积神经网络的卷积过程转化为大型矩阵乘法,分块并行计算权值矩阵与重组矩阵的乘积,简化了卷积层数据的处理过程,优化了数据的访存方式,提高了数据的复用率,使得本发明大幅提高了卷积神经网络的运行速度。

    基于深度卷积特征分层响应融合的目标跟踪方法

    公开(公告)号:CN110084836B

    公开(公告)日:2022-03-04

    申请号:CN201910341675.5

    申请日:2019-04-26

    IPC分类号: G06T7/262 G06T7/246

    摘要: 本发明公开了一种基于深度特征分层响应融合的目标跟踪方法,主要解决现有技术在当目标发生严重遮挡、背景杂乱时,导致跟踪失败的问题。其实现步骤为:1)确定待跟踪目标初始位置,计算第一帧相关滤波器的候选区域目标特征和候选区域循环特征矩阵;2)读取下一帧目标图像,并通过前一帧相关滤波器模板计算目标图像特征响应矩阵,根据该矩阵最大值预测待跟踪目标位置;3)更新相关滤波器模板;6)判断图像是否为待跟踪视频序列的最后一帧图像,若是,结束跟踪,否则返回2)。本发明能在待跟踪目标发生严重遮挡时,利用细节置信图中的背景信息预测待跟踪目标位置,提高了跟踪的准确度,可用于视频监控、机器人导航和定位,无人驾驶的跟踪。

    基于边界框回归模型的目标跟踪方法

    公开(公告)号:CN112053384A

    公开(公告)日:2020-12-08

    申请号:CN202010883760.7

    申请日:2020-08-28

    IPC分类号: G06T7/246 G06T7/73 G06T5/00

    摘要: 本发明公开了一种基于边界框回归的目标跟踪方法,主要解决因传统的相关滤波器预测的目标区域不准确的问题,本发明实现的步骤如下:计算连续分辨率的空间特征图;计算相关滤波器;构建边界框回归模型;回归预测的目标位置;将调整后的目标区域位置作为对于目标跟踪的结果;判断当前帧视频图像是否为待跟踪视频图像序列的最后一帧图像,若是,则执行下一步,否则,用下一帧从头开始执行;结束对待跟踪目标的跟踪。本发明通过构造边界框回归行,更准确地预测了目标区域的位置信息,也通过三次线性插值的方式丰富了神经网络对目标区域提取到的特征,最终实现了准确的目标跟踪。

    基于广义特征分解的全极化高分辨距离像目标检测方法

    公开(公告)号:CN105044697B

    公开(公告)日:2017-07-18

    申请号:CN201510364487.6

    申请日:2015-06-26

    IPC分类号: G01S7/41

    摘要: 本发明公开了一种基于广义特征分解的全极化高分辨距离像目标检测方法,包括以下步骤:(1)根据已知的全极化雷达的回波获取训练目标回波和训练杂波作为训练数据;计算训练目标回波的相干向量的协方差矩阵C(O)和训练杂波的相干向量的协方差矩阵C(C);计算投影矩阵P;(2)获取全极化雷达的测试全极化高分辨距离像作为测试数据;将测试数据划分为L个距离单元,并提取测试数据的每个距离单元的相干向量;将测试数据的每个距离单元的相干向量左乘投影矩阵P,得到测试数据的每个距离单元的重构相干向量,计算每个距离单元的重构相干向量的2‑范数;设定检测门限η,如果第l个距离单元的重构相干向量k'D(l)的2‑范数||k'D(l)||2≥η,将测试数据判定为目标,否则判定为杂波。

    极化相似度匹配下的极化相干矩阵散射能量分解方法

    公开(公告)号:CN103901415A

    公开(公告)日:2014-07-02

    申请号:CN201410072920.4

    申请日:2014-02-28

    IPC分类号: G01S7/41 G01S13/90

    CPC分类号: G01S7/411 G01S13/9035

    摘要: 本发明属于雷达自动目标识别技术领域,公开了一种极化相似度匹配下的极化相干矩阵散射能量分解方法,基于雷达得到的观测相干矩阵T1,对其去取向角得到极化相干矩阵T,分别计算极化相干矩阵T与面散射机制、二面角散射机制、体散射机制对应的最大极化相似度,确定极化相干矩阵T的主导散射机制及主导散射机制对应的主散射相干矩阵Tmain1,对主散射Tmain1进行半正定约束下的优先分解,求得主导散射机制对应的能量及残余矩阵Trem1;去除主导散射机制后,对残余矩阵Trem1基于极化相似度的大小在能量非负的约束下来顺序提取其他散射机制对应的能量;对最终的残余矩阵,基于其与不同的散射机制对应的极化相似度大小,决定其对应的能量归属于哪种散射机制。最终得到各个散射机制对应的散射能量。

    基于模板匹配和深度分类网络的运动目标跟踪方法

    公开(公告)号:CN110033473A

    公开(公告)日:2019-07-19

    申请号:CN201910297980.9

    申请日:2019-04-15

    IPC分类号: G06T7/20

    摘要: 本发明公开了一种基于模板匹配和深度分类网络的运动目标跟踪方法,主要解决现有技术目标检测速度慢,及在目标发生外观形变、遮挡时时跟踪不准确的问题。其实现方案为:1)搭建双残差深度分类网络,并对其进行训练;2)在双残差深度分类网络中提取模板网络和检测网络;3)利用模板网络提取模板特征;4)利用检测网络提取检测特征;5)将模板特征在检测特征上进行模板匹配,得到模板匹配图;6)根据模板匹配图确定目标位置;7)根据目标位置更新模板特征;8)判断当前帧是否为最后一帧,若是,结束目标跟踪,否则,将更新后的模板特征作为下一帧的模板特征,返回4)。本发明跟踪速度快,准确率高,用于对剧烈形变、光照变化视频目标跟踪。

    基于样本组合和深度检测网络的运动目标跟踪方法

    公开(公告)号:CN109377511A

    公开(公告)日:2019-02-22

    申请号:CN201811004598.6

    申请日:2018-08-30

    摘要: 本发明公开了一种基于样本组合和深度检测网络的运动目标跟踪方法,本发明实现步骤为:(1)利用样本组合的数据增强方法生成训练样本集;(2)设置训练样本集的归一化标签;(3)构建深度检测网络;(4)利用训练样本集训练深度检测网络;(5)将含待跟踪目标的彩色视频图像序列依次输入训练好的深度检测网络中,输出运动目标跟踪坐标。本发明利用样本组合的数据增强方法生成训练样本集,训练深度检测网络,利用备选框置信度值确定待跟踪目标的位置,解决了目标识别速度慢以及当目标发生外观形变时跟踪不准确的问题。