-
公开(公告)号:CN101783076A
公开(公告)日:2010-07-21
申请号:CN201010105668.4
申请日:2010-02-04
申请人: 西安理工大学
摘要: 本发明公开了一种视频监控模式下的快速车型识别方法,按照以下步骤实施:设置道路监控装置,并将车辆分成轿车、以特殊色彩标识的出租车、面包车、中型车、公交车及大型货车,步骤1、初始化,对视频监控装置进行训练学习;步骤2、提取车辆目标区域的面积及其外接矩形的长和宽,构造相应特征,并将车辆目标粗分类为小型车、中型车、大型车;步骤3、对小型车多个目标分别提取车身的主色调特征识别出出租车,再提取小型车车窗相对位置特征参数,进一步确定面包车或轿车;步骤4、提取车顶亮度特征参数及车顶纹理特征参数,确定大型车是否为公交车。本发明的方法按照分类特征,能够对多种车辆进行快速、准确的识别。
-
公开(公告)号:CN101777186A
公开(公告)日:2010-07-14
申请号:CN201010013590.3
申请日:2010-01-13
申请人: 西安理工大学
摘要: 本发明公开的一种多模态自动更新替换的背景建模方法,首先进行主背景和辅助背景的建模,主背景建模按照以下步骤实施:主背景模型的初始化,对主背景模型进行修正,更新阈值;辅助背景建模按照以下步骤实施:建立候补辅助背景序列,对分类数据进行统计,更新辅助背景模型的阈值。其次进行待更新背景的计算,并根据戴更新背景的出现频度来确定其替换其中的辅助背景。本发明方法采用了一种多模态更新替换的设计思想,采用多种模态构成的矢量来对背景进行建模,通过不断的更新与模态间的替换,完成背景适应于环境光照的变化。本背景建模方法适用于智能监控系统中,采用背景差分法检测运动目标。
-
公开(公告)号:CN100531373C
公开(公告)日:2009-08-19
申请号:CN200710017992.9
申请日:2007-06-05
申请人: 西安理工大学
摘要: 本发明公开的基于双摄像头联动结构的视频运动目标特写跟踪监视方法,通过一个全景监控摄像头对监视区域的目标进行识别,确定出目标的位置、运行速度和方向,锁定跟踪目标之后,将目标信息传给由云台控制转向的特写跟踪摄像头,由特写跟踪摄像头对锁定目标进行特写、放大后跟踪,显示目标的特写画面,从而获取目标更多信息。既可对全景进行监控,又可对可疑目标进行自动判断,并实现特写跟踪的功能。
-
公开(公告)号:CN101364302A
公开(公告)日:2009-02-11
申请号:CN200810151196.9
申请日:2008-09-28
申请人: 西安理工大学
摘要: 本发明公开了一种散焦模糊图像的清晰化处理方法,该方法按照以下步骤实施,首先根据图像的梯度信息计算出边沿宽度的均值、方差,根据该统计数据获得模糊模型的初始参数;然后,将模糊图像按照画面的中心划分为k个同心圆,分解为k+1个子图像,对各子图像分配对应的模糊初始半径,通过迭代的方式寻找最佳的模糊半径,并采用频域逆滤波的方法实现各子图像的清晰化处理;最后,将各子图像相加,合成整幅清晰化图像。本发明的方法克服了现有的基于固定半径圆盘函数建模恢复方法的局限,达到恢复出清晰图像的目的。
-
公开(公告)号:CN101281642A
公开(公告)日:2008-10-08
申请号:CN200810018174.5
申请日:2008-05-12
申请人: 西安理工大学
摘要: 本发明公开了一种基于自适应聚类颜色传递的雾天图像清晰化方法,该方法按照以下步骤实施:采集源图像和目标图像信息,通过颜色空间的转换分别进行解耦合处理;统计出源图像与目标图像的均值与方差,使源图像的统计特性尽可能地向目标图像“靠拢”;将所得到的在Lαβ颜色空间上的校正源图像再由Lαβ颜色空间变换还原到RGB颜色空间,得到一次颜色传递校正结果图;将一次颜色传递校正后的结果图像继续与目标图像进行颜色聚类;进行相似类别的查找与对应;进行二次颜色传递校正;人工调整二次校正的聚类个数,得到最终的校正结果图。本发明的方法实现了对大雾条件下所拍摄的图像进行清晰化处理,能够恢复出源图像中的有效信息。
-
公开(公告)号:CN1711968A
公开(公告)日:2005-12-28
申请号:CN200510042734.7
申请日:2005-05-26
申请人: 西安理工大学
摘要: 本发明公开的CT图像的快速渐进式直接体绘制三维重建方法,首先将由CT设备采集到某器官的二维断层图像数据进行分割、插值,形成各向同性的三维数据体,计算出旋转后目标数据体的大小,将数据体坐标平移,初始化投影数据区和投影模板,对数据体进行旋转赋值和投影处理,最后对投影结果进行增强处理。使用本发明的方法大大减少了三维重建的步骤,提高了三维重建的速度。
-
公开(公告)号:CN118152614A
公开(公告)日:2024-06-07
申请号:CN202410221245.0
申请日:2024-02-28
申请人: 西安理工大学
IPC分类号: G06F16/735 , G06F16/738 , G06F16/75 , G06F40/30 , G06N3/0442 , G06N3/08
摘要: 本发明公开了基于内容的视频核心词生成系统,其特征在于,包括特征提取模块和视频描述模块,特征提取模块采用VGG16_bn结构,视频描述模块采用基于Seq2Seq的网络结构,解决了当前视频上架管理中,由于视频数目种类多导致的管理复杂与管理成本高的技术问题。本发明还公开了基于内容的视频核心词生成方法,包括以下步骤:步骤1,通过特征提取模块提取视频特征;步骤2,将提取到的视频特征信息送入视频描述模块中,生成视频文本描述;步骤3,将生成的视频文本描述送入核心词提取模块,得到初始核心词;步骤4,对初始核心词进行打分排序,进而得到视频的最终核心词,解决了现有技术中因人工审理视频导致审理效率低的技术问题。
-
公开(公告)号:CN114625882B
公开(公告)日:2024-04-16
申请号:CN202210095359.6
申请日:2022-01-26
申请人: 西安理工大学
IPC分类号: G06F16/36 , G06N3/0455 , G06N3/0442 , G06N3/0464 , G06N3/08
摘要: 本发明公开了一种提高图像文本描述独特多样性的网络构建方法,包括构建网络模型图像数据集,提取图像数据集的全局特征gks和抽象场景图节点的区域特征,用编码器对抽象场景图节点区域特征进行编码,得到最终的区域特征#imgabs0#对#imgabs1#取平均值得到平均区域编码特征#imgabs2#将#imgabs3#和gks融合,得到编码阶段输出的全局特征#imgabs4#将全局特征#imgabs5#通过双层解码器解码,得到输出#imgabs6#并将#imgabs7#通过图更新模块更新区域特征,重新计算节点权重,生成下一个单词,以此类推;构建单词精细模块和单词校正模块,使用标准的交叉熵损失训练网络,完成网络构建。本发明构建的网络在保持文本语句准确率的同时更具有独特、多样的描述。
-
公开(公告)号:CN113887568B
公开(公告)日:2024-02-06
申请号:CN202111054945.8
申请日:2021-09-09
申请人: 西安理工大学
IPC分类号: G06V10/75 , G06V10/44 , G06V10/42 , G06V10/46 , G06V10/52 , G06V10/80 , G06V10/82 , G06N3/0464
摘要: 本发明公开了一种各向异性卷积的双目图像立体匹配方法,步骤包括:1)提取左视图和右视图的多尺度特征;2)融合左视图和右视图的多尺度特征;3)构建多尺度代价体;4)对多尺度代价体进行各向异性聚合;5)对各向异性代价体进行多尺度聚合;6)采用变形卷积对多尺度级联聚合代价体进行再次聚合;7)生成视差图,至此,完成左右视图之间的立体匹配,获得了更加准确的视差图。本发明的方法,使用各向异性卷积进行代价聚合,利用各向异性卷积丰富的感受野形状,去契合图像中形状多变的同质区域和视差边界,聚合得到更加准确的匹配代价,以获得更加准确的视差图。
-
公开(公告)号:CN110766608B
公开(公告)日:2023-09-15
申请号:CN201910802644.5
申请日:2019-08-28
申请人: 西安理工大学
IPC分类号: G06T3/40 , G06T5/00 , G06T7/41 , G06V10/762 , G06V10/764
摘要: 本发明公开了一种纹理分类的图像超分辨率重建的方法,步骤包括:步骤1、对彩色图像训练样本进行裁剪,提取区域纹理信息;步骤2、根据样本的纹理信息对样本进行分类;步骤3、分别训练3个卷积网络模型;步骤4、用训练好的模型进行图像的超分辨率重建。本发明的方法,通过在网络前端提取训练样本的纹理信息,根据纹理信息的不同,对样本进行分类,训练不同的网络模型对低分辨率图像进行重建,并对不同模型的结果进行融合,超分辨率图像重建的细节保持效果有明显的提高。
-
-
-
-
-
-
-
-
-