-
公开(公告)号:CN118429882A
公开(公告)日:2024-08-02
申请号:CN202410428389.3
申请日:2024-04-10
Applicant: 浙江工业大学
IPC: G06V20/52 , G06V20/40 , G06V10/82 , G06V10/774 , G06V10/25 , G06V40/10 , G06V10/80 , G06V10/52 , G06N3/0455 , G06N3/045 , G06N3/0464 , G06N3/0475 , G06N3/094
Abstract: 一种面向泳池场景的轻量级人头人体检测方法,包括以下步骤:(1)采集真实泳池场景中的图像数据,并对其进行检测任务的标注;(2)使用生成对抗神经网络GAN在原始图像数据的基础上,生成具有干扰信息的样本,以模拟泳池场景下真实检测环境中的噪声;(3)搭建基于深度可分离卷积的轻量级检测网络编码器;(4)将编码阶段提取出的多尺度特征进行融合;(5)使用Anchor‑free的解码器来对编码器中输出的特征进行解码;(6)使用(2)中改进的泳池人头人体检测训练数据对编‑解码网络进行训练;(7)将(6)中训练的模型应用于真实的泳池场景中,进行轻量级的泳池人头人体检测。本发明在检测速度和精度均取得了优异的结果。
-
公开(公告)号:CN117252902A
公开(公告)日:2023-12-19
申请号:CN202311164979.1
申请日:2023-09-08
Applicant: 浙江工业大学
IPC: G06T7/246 , G06V10/764 , G06V20/40 , G06V10/74
Abstract: 一种基于注意力机制的单阶段多目标跟踪方法,选择多目标跟踪数据集并进行图像的预处理;搭建网络模型,在骨干网络之后加入设计的辨别增强模块,在辨别增强模块之后加入检测分支的预测头和设计的身份保留模块,最后在身份保留模块之后加入re‑ID分支的预测头;训练时随机选择数据集视频中某帧的图片作为输入,将数据集标注中每一个行人的坐标作为检测分支的样本,每一个行人的id标识作为身分特征训练的样本;测试时将视频的当前帧作为输入,得到当前帧的检测结果和身份特征;匹配过程。本发明提高了具有尺度变化的对象匹配的适应性。
-
公开(公告)号:CN108846358B
公开(公告)日:2021-10-26
申请号:CN201810606690.3
申请日:2018-06-13
Applicant: 浙江工业大学
Abstract: 一种基于孪生网络进行特征融合的目标跟踪方法,包括孪生网络模型的训练过程和模型在目标跟踪场景中的应用;孪生网络模型的训练过程如下:步骤1.1:模型训练数据集的选取;步骤1.2:训练数据集的预处理;步骤1.3:模型的训练:输入步骤1.2预处理的训练集进行训练;步骤1.4:模型获取;模型在目标跟踪场景中的应用过程如下:步骤2.1:数据输入;步骤2.2:模板更新;步骤2.3:目标位置评估;步骤2.4:利用算法得到的评估位置,提取后续的图像对,将提取到的图像对作为模型的输入,输入到模型中,重复上述的步骤2.1‑2.4的过程,直到图像序列中所有图像都处理完为止。本发明提升鲁棒性,提升跟踪效果。
-
公开(公告)号:CN113158810A
公开(公告)日:2021-07-23
申请号:CN202110314107.3
申请日:2021-03-24
Applicant: 浙江工业大学
Abstract: 一种基于ENet改进的轻量实时车道线分割方法,所述方法包括以下步骤:(1)将ENet卷积分解:将其每一个二维卷积拆分成两个一维卷积;(2)空间分离卷积模块的每个一维卷积核通道拆分为两组,一个256通道数核拆分成两个128通道核,最后再融合为一组;再经过一个3×3的卷积并随机打乱通道,使两组通道学习到的信息充分共享和通信;(3)在编码器和解码器增加两条跳跃连接,设置概率预测分支用于预测车道线存在的概率,根据设定的阈值判断某车道的车道线是否存在;完成车道线分割网络LRTNet的构建;(4)将车道线图片输入到所述车道线分割网络LRTNet,输出车道线分割结果。本发明精度较高,成本低,鲁棒性强。
-
公开(公告)号:CN111062915A
公开(公告)日:2020-04-24
申请号:CN201911217226.6
申请日:2019-12-03
Applicant: 浙江工业大学
Abstract: 一种基于改进YOLOv3模型的实时钢管缺陷检测方法,包括以下步骤:(1)搭建稳定的封闭图像采集环境,采集不同角度的图像;(2)提取图像中钢管位置信息,分离钢管图像;(3)拼接钢管各角度图像,手动标注所需特征;(4)利用尺度聚类思想改进YOLOv3网络,用拼接后的图像训练神经网络;(5)将训练完毕的神经网络做检验,并标注出现缺陷位置。本发明提供了一种基于改进YOLOv3模型的实时钢管缺陷检测方法,具有更好的检测效果。
-
公开(公告)号:CN118334071A
公开(公告)日:2024-07-12
申请号:CN202410532652.3
申请日:2024-04-30
Applicant: 浙江工业大学
IPC: G06T7/20 , G06T7/80 , G06N3/0464 , G06V10/74 , G06N3/08
Abstract: 一种基于多相机融合的交通路口车辆多目标跟踪方法,包括以下步骤:1)相机标定;2)坐标映射;3)实时采集;4)采用YOLOv5目标检测算法;5)利用ByteTrack多目标跟踪算法对每辆车进行实时跟踪,并实时生成运动轨迹;6)从每个检测框中提取出车辆的中心坐标点,并通过相机的坐标映射将其映射到统一的平面图内;7)关联算法:通过计算不同相机下车辆检测框映射到同一平面中心点之间的欧式距离,并计算一对相机下不同车辆的特征余弦相似度,最终得到一个得分矩阵,用于确定不同相机视角下是否为同一辆车;8)识别结果。本发明提高了面向交通路口的多目标跟踪算法的准确性与鲁棒性,大大提高了交通路口管理的效率和准确性。
-
公开(公告)号:CN108985331A
公开(公告)日:2018-12-11
申请号:CN201810610806.0
申请日:2018-06-14
Applicant: 浙江工业大学
Abstract: 一种基于对抗生成网络的目标计数方法,模型训练过程的步骤如下:步骤1.1:图片预处理,随机提取原图中若干图像块并缩放为相同大小;步骤1.2:设计鉴别模型,采用卷积神经网络计算图片置信度;步骤1.3:生成模型的设计,同样采用卷积神经网络生成所需密度图;步骤1.4:对抗生成网络的训练,设置两个损失函数L_D和L_G,采用Adam方法分别优化鉴别模型和生成模型;模型使用过程的步骤如下:步骤2.1:密度图的生成,根据训练模型使用生成模型生成密度图 步骤2.2:目标计数,根据公式(5)计算目标数量Num。本发明网络架构采用生成模型与鉴别模型以博弈的方式相互优化,从而获得精度较高的密度图。
-
公开(公告)号:CN113255734B
公开(公告)日:2024-03-22
申请号:CN202110474703.8
申请日:2021-04-29
Applicant: 浙江工业大学
IPC: G06F18/241 , G06F18/20 , G16H20/70 , G06N3/0464 , G06N3/08
Abstract: 一种基于自监督学习和迁移学习的抑郁症分类方法,基于弥散张量成像数据跟踪全脑白质纤维束,构建全脑白质纤维束网络,利用自监督学习策略通过对比学习自动学习与下游任务无关的脑网络节点表征和网络表征。基于脑网络表征和和非影像表型信息,构建群组网络,将抑郁症分类问题转换为网络节点分类问题,使用基于谱图卷积的图卷积神经网络模型对抑郁症患者和正常对照分类。本发明利用自监督学习和迁移学习,部分解决了抑郁症样本较少的问题,有效挖掘了抑郁症相关的脑网络水平特征,提高了抑郁症分类的精度。
-
公开(公告)号:CN111814623A
公开(公告)日:2020-10-23
申请号:CN202010603998.X
申请日:2020-06-29
Applicant: 浙江工业大学
Abstract: 一种基于深度神经网络的车辆车道偏离视觉检测方法,包括以下步骤:(1)利用车道线分割算法定位和分割出车道线的位置;(2)裁取出图中分割出的车道线,并用分类算法对车道线分类;(3)神经网络模型压缩;(4)车载仪相机标定。本发明提出了一种基于深度神经网络的车辆车道偏离检测方法,结合了基于深度神经网络的车道线语义分割识别和坐标系视角转换算法,部署在行车记录仪上,成本低、鲁棒性强。本发明采用的是轻量的ERFnet-SAD网络,并对模型做相应剪枝量化压缩,在保证精度的同时速度快。
-
公开(公告)号:CN111179307A
公开(公告)日:2020-05-19
申请号:CN201911292419.8
申请日:2019-12-16
Applicant: 浙江工业大学
Abstract: 一种全卷积分类及回归孪生网络结构的视觉目标跟踪方法,包括以下步骤:(1)根据图像中目标的所在位置,在原始训练集中裁剪出目标模板图像和搜索区域图像,裁剪出的图像对构成了训练数据集;(2)搭建全卷积孪生网络提取图像特征;(3)搭建分类回归网络;(4)响应图上的每个像素点都有对应的前景得分和预测的包围框,结合前景得分和包围框的信息,计算每个像素点的总得分,总得分最高的像素点是跟踪目标的中心;(5)使用训练数据集,训练全卷积孪生网络和分类回归网络,获得训练好的全卷积孪生网络和分类回归网络,使用训练好的网络计算待测图像序列中目标的得分图,基于得分图进行目标定位。本发明提升了跟踪的精度和速度。
-
-
-
-
-
-
-
-
-