-
公开(公告)号:CN114463611B
公开(公告)日:2025-05-13
申请号:CN202111557327.5
申请日:2021-12-18
Applicant: 北京工业大学
Abstract: 一种非可控环境下的鲁棒中文车牌检测与校正方法属于图像处理领域。当前绝大多数的车牌检测方法都是采用矩阵框定位,非可控环境下,如果车牌存在严重倾斜或者形变,会导致车牌定位不准确,即定位的车牌区域存在较多的背景或者定位不完整,会对后续的车牌识别造成干扰,影响识别的准确率。本发明提出的中文车牌检测方法通过引入ACON、RBN与可变形卷积,可以提升模型的特征提取能力,改进了检测头并设计了相应的坐标回归公式,能够准确地对任意倾斜的车牌进行定位,在各种复杂的非可控环境下均能获得理想的检测结果。
-
公开(公告)号:CN119832379A
公开(公告)日:2025-04-15
申请号:CN202510096700.3
申请日:2025-01-21
Applicant: 北京工业大学
IPC: G06V10/80 , G06V10/77 , G06V10/82 , G06V20/56 , G06V20/64 , G06N3/045 , G06N3/0464 , G01S7/48 , G01S17/931 , G01S17/86
Abstract: 本发明涉及自动驾驶技术和机器人技术领域,公开了一种跨模态特征融合方法及系统。方法包括:获取车载相机和激光雷达分别采集的原始图像和原始点云数据;基于原始图像进行维度拉升处理以得到第一特征点云,并基于第一特征点云进行压缩映射处理,得到相机模态二维特征;获取原始点云数据对应的第二特征点云,并基于第二特征点云得到激光雷达模态二维特征;根据第一特征点云和第二特征点云生成第三特征点云,并基于第三特征点云进行压缩映射处理,得到混合模态二维特征;基于相机模态二维特征、激光雷达模态二维特征和混合模态二维特征,生成跨模态融合特征。通过本发明的方案,有利于为智能驾驶提供更精确、可靠的环境感知能力。
-
公开(公告)号:CN117058361A
公开(公告)日:2023-11-14
申请号:CN202310330050.5
申请日:2023-03-30
Applicant: 北京工业大学
IPC: G06V10/26 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明提供了一种基于深度学习的雷视融合智能感知方法。本发明设计初衷是与图像分割算法进行配合以实现对交通环境更加准确和鲁棒的感知。考虑到激光雷达数据的采集速度,目前大多数精度较高的点云分割方法在速度方面都有所欠缺。而能匹配激光雷达的数据采集速度的点云分割算法在精度方面却达不到要求,在交通环境的感知应用上捉襟见肘。为了与激光雷达配合使用达到对交通环境进行实时的感知,设计一种既保证效率又兼顾精度的雷视融合智能感知方法仍是目前亟需解决的问题。
-
公开(公告)号:CN110634108B
公开(公告)日:2023-01-20
申请号:CN201910814843.8
申请日:2019-08-30
Applicant: 北京工业大学
IPC: G06T5/00
Abstract: 一种基于元‑循环一致性对抗网络的复合降质网络直播视频增强方法属于数字图像处理领域,本发明对网络直播视频图像中存在曝光不足、运动模糊、低分辨率等复合降质因素的图像进行统一增强。首先,针对本专利利用元‑循环一致性对抗网络,建立了一种端到端的复合降质图像增强方案,并使用非成对的低质‑高质图像样本进行训练;其次,通过元网络的学习提高了网络的泛化能力,可实现在统一的网络中对存在复合降质的网络直播视频图像进行增强的任务,更符合实际应用中的处理需求。
-
公开(公告)号:CN110210551B
公开(公告)日:2021-07-30
申请号:CN201910452144.3
申请日:2019-05-28
Applicant: 北京工业大学
Abstract: 一种基于自适应主体敏感的视觉目标跟踪方法属于计算机视觉技术领域,包括整体流程、离线部分和在线部分。整体流程:设计了目标跟踪的流程,并设计了网络结构;将该网络各阶段特征图调整成自适应尺寸,完成孪生网络端到端跟踪过程;离线部分包括6个步骤:训练样本库生成;前向跟踪训练;反向传播梯度计算;梯度损失项计算;目标模板图像掩膜生成;网络模型训练及模型获取。在线部分包括3个步骤:模型更新;在线跟踪;定位目标区域。模型更新包括前向跟踪、反向传播梯度计算、梯度损失项计算、目标模板图像掩膜生成;在线跟踪包括前向跟踪得到相似性矩阵,计算当前跟踪结果置信度,回归目标区域。该方法能够更好地适应外观变化的目标稳健跟踪。
-
公开(公告)号:CN109840509A
公开(公告)日:2019-06-04
申请号:CN201910119305.7
申请日:2019-02-15
Applicant: 北京工业大学
Abstract: 本发明提供了一种网络直播视频中不良主播的多层次协同识别方法及装置,涉及视频处理的技术领域,包括:从目标视频中提取图像样本、弹幕样本和语音样本;根据图像样本、弹幕样本和语音样本分别计算出图像分类序列、语音分类序列和弹幕分类序列;根据D-S证据理论对图像分类序列、语音分类序列和弹幕分类序列进行融合处理,生成视频分类序列;根据视频分类序列识别出目标视频的行为分类。通过融合图像、语音和弹幕三个识别结果,提高了视频识别的鲁棒性,提高了网络直播视频中主播的不良行为的识别精度。
-
公开(公告)号:CN109615582A
公开(公告)日:2019-04-12
申请号:CN201811453611.6
申请日:2018-11-30
Applicant: 北京工业大学
Abstract: 一种基于属性描述生成对抗网络的人脸图像超分辨率重建方法,属于数字图像/视频信号处理领域。其特征在于:训练阶段:包括训练样本准备、网络结构设计和网络训练三部分;网络结构设计采用生成对抗网络框架,由生成网络和判别网络两部分构成;生成网络包括人脸属性编解码模块和超分辨率重建模块;判别网络包括属性分类模块、对抗模块和感知模块;网络训练过程采用生成对抗网络框架的生成网络和判别网络交替对抗训练的方式进行;重建阶段:LR人脸图像和属性描述信息作为输入,经过训练好的生成网络,实现图像编码、属性添加、图像解码以及图像重建。本发明技术不仅能完成低分辨率人脸图像面部信息的增强,还能提高低分辨率人脸识别的准确性。
-
公开(公告)号:CN108346159A
公开(公告)日:2018-07-31
申请号:CN201810080582.7
申请日:2018-01-28
Applicant: 北京工业大学
Abstract: 本发明公开了一种基于跟踪-学习-检测的视觉目标跟踪方法,属于计算机视觉领域。首先,本发明从深度特征和核相关滤波的角度出发,建立了一种基于跟踪-学习-检测的视觉目标跟踪方法,可完成复杂场景下长时间目标跟踪的任务;其次,本发明针对卷积神经网络的特征图进行了研究和测试,并分析了不同卷积层的特征图对视觉目标跟踪的影响。最后,本发明融入目标检测的思想,可以进行跟踪失败后对目标进行再检测,从而实现对单目标的长时间跟踪。本方法将相关滤波跟踪方法与深度学习相结合,从而提高目标在复杂场景下目标跟踪的鲁棒性。
-
公开(公告)号:CN108320295A
公开(公告)日:2018-07-24
申请号:CN201810135492.3
申请日:2018-02-09
Applicant: 北京工业大学
Abstract: 一种基于自适应阈值时空信息的旧电影斑点噪声检测方法涉及数字图像处理领域,通过对时间域和空间域信息进行全面约束,对老旧电影中的斑点损伤进行检测,检测出的斑点模板图可以清晰反映出斑点所在位置信息。首先对待检测帧的图像进行运动估计,以像素块为单位在前后帧之间进行匹配,对于每一帧图像得到两个运动矢量矩阵,分别记录当前帧图像的每个像素在前、后帧对应位置的运动矢量。然后基于上一步得到的运动估计结果,采用改进的SDI算法和ESROD算法对斑点进行全面检测,并经过自适应调整阈值,将所有可能成为斑点的区域都检测出来。之后进一步对斑点区域进行筛选,使用时空约束条件筛选出精确的斑点位置,得到斑点检测结果。
-
公开(公告)号:CN107977932A
公开(公告)日:2018-05-01
申请号:CN201711464734.5
申请日:2017-12-28
Applicant: 北京工业大学
IPC: G06T3/40
Abstract: 一种基于可鉴别属性约束生成对抗网络的人脸图像超分辨率重建方法属于数字图像/视频信号处理领域,首先设计了人脸细节信息增强的处理流程;然后根据此流程进行网络结构的设计,LR图像通过该网络得到HR图像;最后,HR图像通过人脸识别网络进行人脸验证准确性评估。本发明可完成含有LR人脸图像细节信息的增强,并提升人脸验证的准确性;其次,本发明的生成网络先完成图像高频信息的补偿,再由亚像素卷积完成图像放大,最后级联结构完成图像逐步放大,完成图像细节信息增强;属性约束模块与感知模块、对抗模型协同训练,一起微调生成网络重建图像的性能;最后,本发明将生成网络的重建图像输入人脸验证网络,人脸验证的准确性有所提升。
-
-
-
-
-
-
-
-
-