-
公开(公告)号:CN109872341B
公开(公告)日:2020-11-24
申请号:CN201910032981.0
申请日:2019-01-14
Applicant: 中建三局智能技术有限公司 , 华中科技大学
Abstract: 本发明公开了一种基于计算机视觉的高空抛物检测方法与系统,采用ViBe算法作为运动对象的检测手段,并在使用ViBe检测运动对象过程中,加入了相机是否抖动的检测机制,充分考虑了相机晃动或移动而导致画面位置发生偏移的情形,通过在相机抖动时采取当前帧高空抛物监控图像更新背景模型,提高了ViBe检测运动对象的准确率,从而降低高空抛物的误检率。本发明结合匈牙利算法和卡尔曼滤波算法对运动对象进行跟踪,匈牙利算法跟踪使得系统的运行速度有较大提升,卡尔曼滤波算法跟踪大幅度降低了对抛物跟踪的丢失率,保证对抛物的跟踪效果。该方法对于小目标的运动对象有较好的检测效果,并能够适应目标被短暂遮挡或者漏检、背景环境发生缓慢变化等情形。
-
公开(公告)号:CN110033012A
公开(公告)日:2019-07-19
申请号:CN201811620278.3
申请日:2018-12-28
Applicant: 华中科技大学
Abstract: 本发明公开了一种通道特征加权卷积神经网络的生成式目标跟踪方法,该方法包括:构造基于通道特征的加权卷积神经网络模型,对网络模型进行轮流迭代的训练,训练好的基于通道特征的加权卷积神经网络模型中卷积部分作为共享的特征提取子网络,剩下的部分作为分类子网络。进行目标跟踪时,固定特征提取子网络的参数,重置分类子网络的卷积核参数,对分类子网络进行训练,提取初始目标的特征作为初始模板。在跟踪过程中,自适应更新分类子网络并生成重要的历史目标跟踪模板;对属于前景类概率较高的候选样本,计算得到综合的预测值,将预测值最高的样本作为新的跟踪结果。本发明能够有效提高跟踪的预测精度。
-
公开(公告)号:CN102968643B
公开(公告)日:2016-02-24
申请号:CN201210466293.3
申请日:2012-11-16
Applicant: 华中科技大学
IPC: G06K9/62
Abstract: 本发明公开了一种基于李群论的多模态情感识别方法,包括以下步骤:获取视频,并提取视频帧中图像区域的高斯型特征描述子,基于高斯型特征描述子对视频中的图像区域进行跟踪,根据视频子序列构建ARMA模型获取ARMA模型间的距离,根据ARMA模型之间的距离构建核函数,并进行情感表达分类,根据人体、脸部和手部的情感类别概率对人进行情感识别。本发明根据视频中所包含的人体姿态运动信息、手势和脸部表情信息来判断人的情感状态,是一个将视频数据映射到人体运动特征、手势特征和脸部表情特征,再从人体运动特征空间和脸部表情特征映射到状态空间的过程,并提出利用李群论进行多模态情感识别,提高模型进行情感识别的精确性。
-
公开(公告)号:CN102968620B
公开(公告)日:2015-05-20
申请号:CN201210464352.3
申请日:2012-11-16
Applicant: 华中科技大学
Abstract: 本发明公开了一种基于分层高斯混合模型的场景识别方法,包括以下步骤:提取训练图像库中所有图像对应的分层高斯混合模型,并获取分层高斯混合模型的李代数描述子,接收待分类图像,并提取待分类图像的分层高斯混合模型的李代数描述子,用鉴别投影嵌入方法获取待分类图像的分层混合高斯的李代数描述子和训练图像库中所有图像的分层混合高斯的李代数描述子之间的距离,根据得到的距离利用最小中值距离分类器对待分类的图像进行分类,并返回分类结果。本发明优化了图像的分层高斯混合模型的特征表示,从而大大提高了场景识别的性能。
-
公开(公告)号:CN101561868B
公开(公告)日:2011-08-10
申请号:CN200910062130.7
申请日:2009-05-19
Applicant: 华中科技大学
Abstract: 基于高斯特征的人体运动情感识别方法,属于计算机模式识别领域,解决现有情感识别方法的识别率偏低、学习识别速度稍慢的问题。本发明包括训练分类器步骤和情感识别步骤:训练分类器步骤顺序包括训练数据采集子步骤、运动分割子步骤、特征提取子步骤和训练子步骤;情感识别步骤顺序包括待测数据采集子步骤、运动分割子步骤、特征提取子步骤和识别子步骤。本发明采用高斯特征描述人体运动,该特征具有描述能力强、特征维度低、有良好的李群结构和能够有效的分析其空间结构等优势;采用基于李群空间的LogitBoost机器学习方法进行多类情感识别,在机器学习过程中充分利用高斯特征的李群结构,训练与识别效率高,实用性更强。
-
公开(公告)号:CN101625763B
公开(公告)日:2011-06-29
申请号:CN200910061701.5
申请日:2009-04-17
Applicant: 华中科技大学
Abstract: 空间颜色直方图相似度度量方法,属于数字图像处理与分析方法,针对现有度量方法不够准确的问题,进一步提高图像相似度计算的准确性。本发明包括:一.计算像素量比例相似度步骤;二.计算像素位置信息相似度步骤;三.度量空间颜色直方图相似度步骤,按步骤一~二,遍历两个空间颜色直方图s和s′中所有三维立体方块,得到两个空间颜色直方图的相似度。本发明将空间颜色直方图每个三维立体方块内的像素分布近似为高斯分布,其概率密度函数的函数空间构成李群空间,在此基础上提出像素位置信息相似度,结合像素量比例相似度,归纳为本发明的度量方法,比现有方法在跟踪算法中有更好的跟踪效果。
-
公开(公告)号:CN101561881A
公开(公告)日:2009-10-21
申请号:CN200910062131.1
申请日:2009-05-19
Applicant: 华中科技大学
Abstract: 人体非程式化运动的情感识别方法,属于计算机模式识别领域,解决现有同类情感识别方法存在的学习速度较慢、识别率偏低的问题。本发明包括建立隐马尔可夫模型步骤和情感识别步骤;建立隐马尔可夫模型步骤又包括训练数据采集子步骤、运动分割子步骤、特征提取子步骤、训练子步骤,建立多种动作类型各种情感的隐马尔可夫模型;情感识别步骤包括数据采集子步骤、运动分割子步骤、特征提取子步骤、识别子步骤,通过所构建的隐马尔可夫模型对待识别人体运动序列进行情感识别和动作类型识别。本发明能更好地展现运动的内在的规律,不仅可以识别情感,还可以识别运动类型,具有较高的识别率,具有较强的实用性和较广泛的用途。
-
公开(公告)号:CN114565792B
公开(公告)日:2024-07-19
申请号:CN202210189921.1
申请日:2022-02-28
Applicant: 华中科技大学
IPC: G06V10/764 , G06V10/82 , G06V10/94 , G06N3/0495 , G06N3/0464 , G06N3/045 , G06N3/09 , G06N3/063 , G06T1/20 , G06V10/44
Abstract: 本发明公开了一种基于轻量化卷积神经网络的图像分类方法和装置,属于计算机深度学习中图像分类领域。本发明包括:S1:构建轻量化卷积神经网络模型,所述轻量化神经网络模型包括依次连接的:标准卷积层、多个采样拼接单元、全局池化层和全连接层,所述采样拼接单元包括依次连接的:下采样层、多个通用层和拼接层;S2:将待分类图片输入所述轻量化卷积神经网络模型得到分类结果。本发明通过构建低参数量、低计算量且推理速度快的轻量化卷积神经网络模型,再利用轻量化卷积神经网络模型进行图像分类,相较于之前的轻量化卷积神经网络模型,在相近的分类准确率下,大幅减少参数量的同时大幅提高模型的分类速度。
-
公开(公告)号:CN102968643A
公开(公告)日:2013-03-13
申请号:CN201210466293.3
申请日:2012-11-16
Applicant: 华中科技大学
IPC: G06K9/62
Abstract: 本发明公开了一种基于李群论的多模态情感识别方法,包括以下步骤:获取视频,并提取视频帧中图像区域的高斯型特征描述子,基于高斯型特征描述子对视频中的图像区域进行跟踪,根据视频子序列构建ARMA模型获取ARMA模型间的距离,根据ARMA模型之间的距离构建核函数,并进行情感表达分类,根据人体、脸部和手部的情感类别概率对人进行情感识别。本发明根据视频中所包含的人体姿态运动信息、手势和脸部表情信息来判断人的情感状态,是一个将视频数据映射到人体运动特征、手势特征和脸部表情特征,再从人体运动特征空间和脸部表情特征映射到状态空间的过程,并提出利用李群论进行多模态情感识别,提高模型进行情感识别的精确性。
-
公开(公告)号:CN101101752B
公开(公告)日:2010-12-01
申请号:CN200710052795.0
申请日:2007-07-19
Applicant: 华中科技大学
Abstract: 基于视觉特征的单音节语言唇读识别系统,属于计算机智能识别技术,根据视频中人物说话时的唇动变化,识别说话内容,目的在于仅利用视频信息,解决如汉语等单音节语言的唇读识别问题。本发明包括视频解码模块、唇部定位模块、唇动分割模块、特征提取模块、语料库、模型建立模块和唇语识别模块;本发明所采用的语料库内容丰富,易于扩充,本发明只需处理视频图像,不需要音频数据进行辅助识别,能够对avi、wmv、rmvb、mpg等视频文件进行处理,满足无声条件下说话内容识别的要求。本发明的唇动分割部分以单音节为识别目标进行机器智能分割,与定长时间分割和手工分割相比,实用性更强,识别准确率得到极大提高。
-
-
-
-
-
-
-
-
-