-
公开(公告)号:CN104268594B
公开(公告)日:2017-12-19
申请号:CN201410493959.3
申请日:2014-09-24
IPC分类号: G06K9/66
CPC分类号: G06K9/00771 , G06K9/6244 , G06K9/6255 , G06K9/6296
摘要: 本发明提供一种视频异常事件检测方法和装置,所述方法包括:提取包含多帧图像的待检测视频流的高层次表示信息,该高层次表示信息中包含所述待检测视频流的时空信息;通过预置的字典,计算用所述字典中的最少数目的基表征所述待检测视频流的高层次表示信息时的重构系数;根据所述重构系数计算重构代价值;当所述重构代价值大于预设阈值时,确定所述待检测视频流中存在异常事件;当所述重构代价值小于或等于预设阈值时,确定所述待检测视频流中不存在异常事件。本发明提供的方法特征表达能力强,能够很好的描述异常事件,提高视频异常事件检测的效率和准确性。
-
公开(公告)号:CN103810505B
公开(公告)日:2017-11-24
申请号:CN201410055852.0
申请日:2014-02-19
申请人: 北京大学
摘要: 本发明公开了一种基于多层描述子的车辆标识方法与系统。其方法包括以下步骤:(1)车辆全局特征提取;(2)车辆奇异区域提取特征提取;(3)多层描述子构造;(4)基于多层描述子的车辆标识,在综合考虑匹配精度与匹配速度的情况下,利用多种匹配策略获得最终车辆标识的结果。本发明并在所述方法的基础上,开发了基于多层特征的车辆标识系统;并且在该系统的基础架构上,还发明了一些具体的车辆标识的系统。本发明的车辆标识方法运用多层描述子对车辆进行描述,并且利用多种匹配策略来保证多层描述子之间的匹配精度与匹配速度,使得该方法能在不同领域的车辆标识运用中取得较好的效果。
-
公开(公告)号:CN106658027A
公开(公告)日:2017-05-10
申请号:CN201611066195.5
申请日:2016-11-28
IPC分类号: H04N19/61 , H04N19/96 , H04N19/19 , H04N19/172
CPC分类号: H04N19/61 , H04N19/172 , H04N19/19 , H04N19/96
摘要: 本发明实施例提供了一种背景帧的码率控制方法和装置。所述方法包括:判定待编码背景帧的不同区域的预测参考价值,所述预测参考价值为预测的在进行帧间预测时待编码背景帧的不同区域对待编码普通帧的参考价值;根据所述预测参考价值,设定所述待编码背景帧的不同区域的重要性级别;根据所述不同区域的重要性级别,调整所述待编码背景帧的不同区域的编码质量。根据所述预测参考价值,设定所述待编码背景帧的不同区域的重要性级别;根据所述不同区域的重要性级别,调整所述待编码背景帧的不同区域的编码质量。本发明通过改变背景帧不同参考价值区域的编码质量,有效解决了视频传输过程中瞬时码率突增问题,并且尽可能保证了背景帧的参考价值。
-
公开(公告)号:CN106485320A
公开(公告)日:2017-03-08
申请号:CN201610905367.7
申请日:2016-10-17
申请人: 北京大学
IPC分类号: G06N3/06
CPC分类号: G06N3/0635
摘要: 本发明提供了一种视网膜神经网络的搭建方法及装置,该方法包括:确定神经节细胞、双极细胞及视感受器细胞中已知绝对分布的细胞亚型、层次分布及水平分布,以及仅知相对分布的细胞的分布;确定神经节细胞、双极细胞及视感受器细胞之间的连接关系;确定水平细胞的分布及连接关系、无长轴突细胞的分布及连接关系以及同类细胞之间的gap连接;将视网膜神经网络划分为多个子网;按照一定的密度分布对每个子网中的细胞进行重新排布。本发明能够根据有限的实际生理数据和连接搭建出符合实际生理特性视网膜神经网络模型,并划分为子网,可用于分布式仿真或视网膜功能分析。
-
公开(公告)号:CN106295598A
公开(公告)日:2017-01-04
申请号:CN201610683471.6
申请日:2016-08-17
申请人: 北京大学
CPC分类号: G06K9/00711 , H04N5/23203 , H04N7/18
摘要: 本发明提供了一种跨摄像头目标跟踪方法及装置,所述方法包括:对任一摄像头的视角范围内的指定目标执行单摄像头目标跟踪;当所述指定目标离开当前摄像头的视角范围后,采用搜索区域切换算法确定当前需要搜索的监控区域;对所述监控区域内的所有摄像头进行视觉搜索,确定与所述指定目标的相似度大于预设阈值的可疑目标;根据所述可疑目标对所述指定目标的运动轨迹进行估计。本发明提高了目标跟踪准确性并降低了所需的计算资源开销。
-
公开(公告)号:CN105740903A
公开(公告)日:2016-07-06
申请号:CN201610066517.X
申请日:2016-01-29
申请人: 北京大学
IPC分类号: G06K9/62
CPC分类号: G06K9/6256
摘要: 本发明公开了一种多属性识别方法及装置,所述方法包括:对预设训练数据进行字典学习,得到包括字典矩阵和系数转化矩阵的属性识别模型;其中,预先训练数据为包含预设种类属性且标注好属性信息的训练数据;获取待识别样本的特征数据;利用所述字典矩阵对所述特征数据进行编码,得到编码系数;利用所述系数转化矩阵将所述编码系数转化为属性向量;利用所述属性向量对所述待识别样本进行多属性识别。本发明所述的多属性识别方法在训练过程中不需要对每个属性进行单独分类训练,且在识别过程中不需要对每个属性进行单独分类识别,而是通过一次识别得到所有的属性识别结果,因而本发明所述的方法在实际应用中会方便很多。
-
公开(公告)号:CN105740422A
公开(公告)日:2016-07-06
申请号:CN201610066163.9
申请日:2016-01-29
申请人: 北京大学
IPC分类号: G06F17/30
摘要: 本发明公开了一种行人检索方法及装置,所述方法包括:对预设训练数据进行多任务字典学习,得到目标字典;所述预设训练数据包括当前场景下的行人图片数据和非当前场景下的行人图片数据;所述非当前场景下的行人图片数据为已标注好行人身份信息的数据;所述当前场景为待检索的行人图片所属的场景;对所述待检索的行人图片进行处理,获取所述待检索的行人图片的特征数据;利用所述目标字典对所述特征数据进行编码,得到目标编码系数;利用所述目标编码系数进行检索匹配,获取与所述待检索的行人图片匹配的图片。本发明在训练过程中不需要当前场景数据集的训练数据必须具有标注信息,因此使得发明在实际应用中更为方便。
-
公开(公告)号:CN103002284B
公开(公告)日:2016-06-08
申请号:CN201210470731.3
申请日:2012-11-20
申请人: 北京大学
IPC分类号: H04N19/179
摘要: 本发明提出了一种基于场景模型自适应更新的视频编解码方法。该方法首先计算出场景图像更新前若干帧,场景图像更新后若干帧,以及场景图像之间的码流大小关系,并以此作为依据来判断在当前位置上是否需要更新场景。然后,对于更新的场景,可以使用已编码的场景图像对其进行预测编码,从而减小场景更新代价。以动态自适用更新的场景为基础,输入的待编码图像可以选择性适用若干场景图像或普通参考图像作为参考图像进行预测编码。对应的,在解码过程中,首先解码场景更新标识,然后根据解码出的场景更新标识对场景图像进行解码,再根据解码出来的场景图像,对视频图像进行解码。
-
公开(公告)号:CN103577829B
公开(公告)日:2016-04-20
申请号:CN201310552751.X
申请日:2013-11-08
摘要: 本发明公开了一种车标定位方法和装置,属于计算机图像处理领域,该方法包括:根据先验知识确定车标所在的大致区域,并提取轮廓图;对轮廓图进行自适应分割,得到最优连通区分割;筛选出分割所得区域中为车标的区域,提取出车标图像。本发明实施例的方法和装置,采用自适应的连通区分割来定位车标,能提高车标定位的准确率。此外,通过定义车标似然度来进一步精定位车标,能更有效提高车标的定位准确率。
-
公开(公告)号:CN102750731B
公开(公告)日:2016-03-23
申请号:CN201210231834.4
申请日:2012-07-05
申请人: 北京大学
IPC分类号: G06T17/00
摘要: 本发明涉及一种基于左右单眼感受野和双目融合的立体视觉显著计算方法,属于计算机视觉技术领域。通过模拟人类立体视觉系统处理过程,首先分别建立左右单眼感受野模型获取对应的特征图,然后融合同特征下左右眼的特征图和不同特征的结果图,并基于中心偏爱和前景偏爱调整像素显著度,最终得到最接近人类立体视觉注意的显著度分布图。本发明创新点在于:加入了“中心偏爱”和“前景偏爱”两种常见现象对人类立体视觉注意的影响,使得整个方法能够更好的符合人类视觉系统处理过程。本发明提供的立体视觉显著计算方法,能够更好的模拟人类立体视觉系统处理过程,并更有效地提取立体图像中感兴趣区域。
-
-
-
-
-
-
-
-
-