一种基于通道特征加权卷积神经网络的生成式目标跟踪方法

    公开(公告)号:CN110033012A

    公开(公告)日:2019-07-19

    申请号:CN201811620278.3

    申请日:2018-12-28

    Abstract: 本发明公开了一种通道特征加权卷积神经网络的生成式目标跟踪方法,该方法包括:构造基于通道特征的加权卷积神经网络模型,对网络模型进行轮流迭代的训练,训练好的基于通道特征的加权卷积神经网络模型中卷积部分作为共享的特征提取子网络,剩下的部分作为分类子网络。进行目标跟踪时,固定特征提取子网络的参数,重置分类子网络的卷积核参数,对分类子网络进行训练,提取初始目标的特征作为初始模板。在跟踪过程中,自适应更新分类子网络并生成重要的历史目标跟踪模板;对属于前景类概率较高的候选样本,计算得到综合的预测值,将预测值最高的样本作为新的跟踪结果。本发明能够有效提高跟踪的预测精度。

    一种基于李群论的多模态情感识别方法

    公开(公告)号:CN102968643B

    公开(公告)日:2016-02-24

    申请号:CN201210466293.3

    申请日:2012-11-16

    Abstract: 本发明公开了一种基于李群论的多模态情感识别方法,包括以下步骤:获取视频,并提取视频帧中图像区域的高斯型特征描述子,基于高斯型特征描述子对视频中的图像区域进行跟踪,根据视频子序列构建ARMA模型获取ARMA模型间的距离,根据ARMA模型之间的距离构建核函数,并进行情感表达分类,根据人体、脸部和手部的情感类别概率对人进行情感识别。本发明根据视频中所包含的人体姿态运动信息、手势和脸部表情信息来判断人的情感状态,是一个将视频数据映射到人体运动特征、手势特征和脸部表情特征,再从人体运动特征空间和脸部表情特征映射到状态空间的过程,并提出利用李群论进行多模态情感识别,提高模型进行情感识别的精确性。

    一种基于分层高斯混合模型的场景识别方法

    公开(公告)号:CN102968620B

    公开(公告)日:2015-05-20

    申请号:CN201210464352.3

    申请日:2012-11-16

    Abstract: 本发明公开了一种基于分层高斯混合模型的场景识别方法,包括以下步骤:提取训练图像库中所有图像对应的分层高斯混合模型,并获取分层高斯混合模型的李代数描述子,接收待分类图像,并提取待分类图像的分层高斯混合模型的李代数描述子,用鉴别投影嵌入方法获取待分类图像的分层混合高斯的李代数描述子和训练图像库中所有图像的分层混合高斯的李代数描述子之间的距离,根据得到的距离利用最小中值距离分类器对待分类的图像进行分类,并返回分类结果。本发明优化了图像的分层高斯混合模型的特征表示,从而大大提高了场景识别的性能。

    基于高斯特征的人体运动情感识别方法

    公开(公告)号:CN101561868B

    公开(公告)日:2011-08-10

    申请号:CN200910062130.7

    申请日:2009-05-19

    Abstract: 基于高斯特征的人体运动情感识别方法,属于计算机模式识别领域,解决现有情感识别方法的识别率偏低、学习识别速度稍慢的问题。本发明包括训练分类器步骤和情感识别步骤:训练分类器步骤顺序包括训练数据采集子步骤、运动分割子步骤、特征提取子步骤和训练子步骤;情感识别步骤顺序包括待测数据采集子步骤、运动分割子步骤、特征提取子步骤和识别子步骤。本发明采用高斯特征描述人体运动,该特征具有描述能力强、特征维度低、有良好的李群结构和能够有效的分析其空间结构等优势;采用基于李群空间的LogitBoost机器学习方法进行多类情感识别,在机器学习过程中充分利用高斯特征的李群结构,训练与识别效率高,实用性更强。

    空间颜色直方图相似度度量方法

    公开(公告)号:CN101625763B

    公开(公告)日:2011-06-29

    申请号:CN200910061701.5

    申请日:2009-04-17

    Abstract: 空间颜色直方图相似度度量方法,属于数字图像处理与分析方法,针对现有度量方法不够准确的问题,进一步提高图像相似度计算的准确性。本发明包括:一.计算像素量比例相似度步骤;二.计算像素位置信息相似度步骤;三.度量空间颜色直方图相似度步骤,按步骤一~二,遍历两个空间颜色直方图s和s′中所有三维立体方块,得到两个空间颜色直方图的相似度。本发明将空间颜色直方图每个三维立体方块内的像素分布近似为高斯分布,其概率密度函数的函数空间构成李群空间,在此基础上提出像素位置信息相似度,结合像素量比例相似度,归纳为本发明的度量方法,比现有方法在跟踪算法中有更好的跟踪效果。

    人体非程式化运动的情感识别方法

    公开(公告)号:CN101561881A

    公开(公告)日:2009-10-21

    申请号:CN200910062131.1

    申请日:2009-05-19

    Abstract: 人体非程式化运动的情感识别方法,属于计算机模式识别领域,解决现有同类情感识别方法存在的学习速度较慢、识别率偏低的问题。本发明包括建立隐马尔可夫模型步骤和情感识别步骤;建立隐马尔可夫模型步骤又包括训练数据采集子步骤、运动分割子步骤、特征提取子步骤、训练子步骤,建立多种动作类型各种情感的隐马尔可夫模型;情感识别步骤包括数据采集子步骤、运动分割子步骤、特征提取子步骤、识别子步骤,通过所构建的隐马尔可夫模型对待识别人体运动序列进行情感识别和动作类型识别。本发明能更好地展现运动的内在的规律,不仅可以识别情感,还可以识别运动类型,具有较高的识别率,具有较强的实用性和较广泛的用途。

    一种基于李群论的多模态情感识别方法

    公开(公告)号:CN102968643A

    公开(公告)日:2013-03-13

    申请号:CN201210466293.3

    申请日:2012-11-16

    Abstract: 本发明公开了一种基于李群论的多模态情感识别方法,包括以下步骤:获取视频,并提取视频帧中图像区域的高斯型特征描述子,基于高斯型特征描述子对视频中的图像区域进行跟踪,根据视频子序列构建ARMA模型获取ARMA模型间的距离,根据ARMA模型之间的距离构建核函数,并进行情感表达分类,根据人体、脸部和手部的情感类别概率对人进行情感识别。本发明根据视频中所包含的人体姿态运动信息、手势和脸部表情信息来判断人的情感状态,是一个将视频数据映射到人体运动特征、手势特征和脸部表情特征,再从人体运动特征空间和脸部表情特征映射到状态空间的过程,并提出利用李群论进行多模态情感识别,提高模型进行情感识别的精确性。

    基于视觉特征的单音节语言唇读识别系统

    公开(公告)号:CN101101752B

    公开(公告)日:2010-12-01

    申请号:CN200710052795.0

    申请日:2007-07-19

    Abstract: 基于视觉特征的单音节语言唇读识别系统,属于计算机智能识别技术,根据视频中人物说话时的唇动变化,识别说话内容,目的在于仅利用视频信息,解决如汉语等单音节语言的唇读识别问题。本发明包括视频解码模块、唇部定位模块、唇动分割模块、特征提取模块、语料库、模型建立模块和唇语识别模块;本发明所采用的语料库内容丰富,易于扩充,本发明只需处理视频图像,不需要音频数据进行辅助识别,能够对avi、wmv、rmvb、mpg等视频文件进行处理,满足无声条件下说话内容识别的要求。本发明的唇动分割部分以单音节为识别目标进行机器智能分割,与定长时间分割和手工分割相比,实用性更强,识别准确率得到极大提高。

Patent Agency Ranking