-
公开(公告)号:CN111052126A
公开(公告)日:2020-04-21
申请号:CN201780094559.7
申请日:2017-09-04
申请人: 华为技术有限公司 , 中国科学院自动化研究所
IPC分类号: G06K9/00
摘要: 一种行人属性识别与定位方法以及卷积神经网络系统,该方法包括:对待检测图像进行多种不同抽象程度的特征提取,获得行人属性的多种第一特征映射图;对多种第一特征映射图进行卷积,得到多种第二特征映射图,并将每种第二特征映射图映射为多个互有重叠的区域bin,分别对每个bin进行最大池化,得到多种高维特征向量;其中,多个互有重叠的bin均匀地覆盖每种第二特征映射图;将多种高维特征向量处理为低维向量,得到所述行人属性的识别结果;进一步可根据多种第二特征映射图和多种高维特征向量,得到行人属性的定位结果。所述方法能够克服视频监控中的不利因素,对行人属性进行更好的识别与定位。
-
公开(公告)号:CN111052126B
公开(公告)日:2024-06-04
申请号:CN201780094559.7
申请日:2017-09-04
申请人: 华为技术有限公司 , 中国科学院自动化研究所
IPC分类号: G06V20/52 , G06V10/774 , G06V10/82 , G06N3/0464
摘要: 一种行人属性识别与定位方法以及卷积神经网络系统,该方法包括:对待检测图像进行多种不同抽象程度的特征提取,获得行人属性的多种第一特征映射图;对多种第一特征映射图进行卷积,得到多种第二特征映射图,并将每种第二特征映射图映射为多个互有重叠的区域bin,分别对每个bin进行最大池化,得到多种高维特征向量;其中,多个互有重叠的bin均匀地覆盖每种第二特征映射图;将多种高维特征向量处理为低维向量,得到所述行人属性的识别结果;进一步可根据多种第二特征映射图和多种高维特征向量,得到行人属性的定位结果。所述方法能够克服视频监控中的不利因素,对行人属性进行更好的识别与定位。
-
公开(公告)号:CN103136540B
公开(公告)日:2015-10-28
申请号:CN201310087343.1
申请日:2013-03-19
申请人: 中国科学院自动化研究所
IPC分类号: G06K9/62
CPC分类号: G06K9/4676 , G06K9/00335 , G06K9/469
摘要: 本发明公开了一种基于隐结构推理的行为识别方法,包括以下步骤:提取训练数据的局部特征并聚类,构建一个码本词袋,利用局部特征的时空分布建立码本之间的共生关系图,结合局部特征在人体上的分布特性推理出共生关系图中的隐结构并将其反馈到共生关系图中得到一个具有多层结构信息的图模型;利用图模型获取训练数据中局部特征的稳定性系数并构建训练数据的特征向量,训练分类器模型;提取未知视频中的局部特征,利用图模型计算其稳定性系数,构建视频的特征向量,用分类器进行分类。该方法通过研究人体结构特征来学习局部特征之间的结构信息,可以更好的对主体的行为进行描述。本方法可以用于公共安全领域,如异常行为检测等;也可用于人机交互。
-
公开(公告)号:CN101334845B
公开(公告)日:2010-12-22
申请号:CN200710117997.9
申请日:2007-06-27
申请人: 中国科学院自动化研究所
IPC分类号: G06K9/62
CPC分类号: G06K9/00785
摘要: 本发明公开一种基于轨迹序列分析和规则归纳的视频行为识别方法,解决人工耗费大的问题,采用将场景中的完整轨迹分割为若干有基本语义的轨迹段,通过轨迹聚类得到若干基本运动模式为原子事件,并用隐马尔科夫模型建模,通过基于最小描述长度准则的规则归纳算法,获取蕴含在轨迹序列中的事件规则,基于事件规则,用扩展的文法分析器对感兴趣事件加以识别。本发明提供完整的视频行为识别框架,在规则归纳过程中考虑视频事件的空时属性,提出了一种多层规则归纳策略,大大提高了规则学习的有效性,推进模式识别在视频行为识别的应用。本发明应用于智能视频监控,自动分析当前监控场景下汽车或行人的运动行为,使计算机协助人或代替人完成监控任务。
-
公开(公告)号:CN117993469A
公开(公告)日:2024-05-07
申请号:CN202410170534.2
申请日:2024-02-06
申请人: 中国科学院自动化研究所
IPC分类号: G06N3/0895 , B60W60/00 , B60W50/00 , G06N3/0455 , G06N3/0464 , G06F18/214 , G06F18/213 , G06F18/25 , G06V20/56 , G06V10/44
摘要: 本发明提供一种越野环境自动驾驶感知模型的训练及自动驾驶感知方法,方法包括:将外源感受性图像、驾驶控制信号和内源感受性数据输入至编码模块中分别进行编码,输出外源性感受图像特征、驾驶控制信号特征和内源性感受特征;将外源性感受图像特征和驾驶控制信号特征输入至融合模块中进行特征融合得到融合特征;基于第一样本对应的融合特征与第一样本同一抽样批次内所有其他样本的内源性感受特征之间的差异,以及第二样本对应的内源性感受特征与第二样本同一抽样批次内所有其他样本的融合特征之间的差异,确定目标损失函数值,基于目标损失函数值对初始自动驾驶感知模型进行参数迭代得到自动驾驶感知模型,从而提高自动驾驶感知的准确性和可靠性。
-
公开(公告)号:CN108683877B
公开(公告)日:2020-04-28
申请号:CN201810296322.3
申请日:2018-03-30
申请人: 中国科学院自动化研究所
IPC分类号: H04N7/18 , H04N21/218 , G06K9/00
摘要: 本发明涉及视频数据的处理领域,提出一种基于Spark的分布式海量视频解析系统,旨在解决海量视频数据追踪、识别行人的问题。该系统中:分布式文件子系统,配置为提供非结构化数据的交互接口;资源管理模块,为上层应用提供统一的资源管理和调度服务;分布式订阅子系统,作为系统的消息中间件,进行消息和数据的传递;数据处理模块,包括多个相互协作视觉处理算法子模块,将获取的视频数据解压缩为多帧图片,并对多帧图片进行行人检测、跟踪、行人属性识别、行人身份再识别等处理任务;前台展示模块,显示视频数据的处理结果并与用户进行交互。本发明实现了在海量的视频数据中高效准确的追踪行人踪迹,识别行人身份信息。
-
公开(公告)号:CN102902981B
公开(公告)日:2016-07-06
申请号:CN201210340160.1
申请日:2012-09-13
申请人: 中国科学院自动化研究所
摘要: 本发明公开了一种基于慢特征分析的暴力视频检测方法,包括以下步骤:对已经标好类的视频进行密集轨迹提取,基于轨迹用慢特征分析方法学习出慢特征函数,通过慢特征函数得到视频段的特征表示,最后对提取的特征进行训练并建模;对新来视频进行特征提取,将提取的特征输入到训练得到的模型,得到视频的类别(暴力视频或非暴力视频)。该方法通过密集轨迹提取构建了有效的特征向量,并通过慢特征分析方法学习出了非常具有区分力的视频特征表示。近几年随着社交网站的发展,大量的视频被上传到互联网供用户下载,其中不乏含有暴力内容的视频,这些内容会对青少年产生不良影响,基于慢特征分析的暴力视频检测方法能有效检测出这些不良内容,对建设健康的互联网环境具有重要作用。
-
公开(公告)号:CN102902981A
公开(公告)日:2013-01-30
申请号:CN201210340160.1
申请日:2012-09-13
申请人: 中国科学院自动化研究所
摘要: 本发明公开了一种基于慢特征分析的暴力视频检测方法,包括以下步骤:对已经标好类的视频进行密集轨迹提取,基于轨迹用慢特征分析方法学习出慢特征函数,通过慢特征函数得到视频段的特征表示,最后对提取的特征进行训练并建模;对新来视频进行特征提取,将提取的特征输入到训练得到的模型,得到视频的类别(暴力视频或非暴力视频)。该方法通过密集轨迹提取构建了有效的特征向量,并通过慢特征分析方法学习出了非常具有区分力的视频特征表示。近几年随着社交网站的发展,大量的视频被上传到互联网供用户下载,其中不乏含有暴力内容的视频,这些内容会对青少年产生不良影响,基于慢特征分析的暴力视频检测方法能有效检测出这些不良内容,对建设健康的互联网环境具有重要作用。
-
公开(公告)号:CN101334845A
公开(公告)日:2008-12-31
申请号:CN200710117997.9
申请日:2007-06-27
申请人: 中国科学院自动化研究所
IPC分类号: G06K9/62
CPC分类号: G06K9/00785
摘要: 本发明公开一种基于轨迹序列分析和规则归纳的视频行为识别方法,解决人工耗费大的问题,采用将场景中的完整轨迹分割为若干有基本语义的轨迹段,通过轨迹聚类得到若干基本运动模式为原子事件,并用隐马尔科夫模型建模,通过基于最小描述长度准则的规则归纳算法,获取蕴含在轨迹序列中的事件规则,基于事件规则,用扩展的文法分析器对感兴趣事件加以识别。本发明提供完整的视频行为识别框架,在规则归纳过程中考虑视频事件的空时属性,提出了一种多层规则归纳策略,大大提高了规则学习的有效性,推进模式识别在视频行为识别的应用。本发明应用于智能视频监控,自动分析当前监控场景下汽车或行人的运动行为,使计算机协助人或代替人完成监控任务。
-
公开(公告)号:CN118334631A
公开(公告)日:2024-07-12
申请号:CN202410420690.X
申请日:2024-04-09
申请人: 中国科学院自动化研究所
IPC分类号: G06V20/59 , G06V20/40 , G06V10/40 , G06V10/764 , G06V10/774 , G06V10/82
摘要: 本发明涉及计算机视觉技术领域,提供一种驾驶行为预测模型构建方法、预测方法、装置、设备和介质,构建方法包括:获取视频样本、原始标签以及初始模型;基于第一模块,对视频样本对应的帧序列进行粗粒度行为特征提取,得到粗粒度行为特征;基于第二模块,对粗粒度行为特征进行方向特征提取,得到方向特征;基于第三模块,对方向特征进行细粒度行为特征提取,得到细粒度行为特征;分别进行粗粒度行为预测、方向预测和细粒度行为预测,得到粗粒度行为预测结果、方向预测结果和细粒度行为预测结果;基于预测结果和原始标签,对初始模型进行参数迭代,得到驾驶行为预测模型。本发明提供的方法、装置、设备和介质,能够提高驾驶行为预测性能。
-
-
-
-
-
-
-
-
-