-
公开(公告)号:CN108629288A
公开(公告)日:2018-10-09
申请号:CN201810314455.9
申请日:2018-04-09
申请人: 华中科技大学
摘要: 本发明公开了一种手势识别模型训练方法、手势识别方法及系统,其中训练方法包括采集多种场景下的手势图片样本,在手势样本上进行随机裁剪,得到新的手势样本,将手势图片样本和新的手势样本作为样本集;构建Light YOLO网络,利用样本集对Light YOLO网络进行训练,得到第一Light YOLO网络;在第一Light YOLO网络的每一层卷积层后面加一个selective-dropout层,得到第二Light YOLO网络,利用样本集对第二Light YOLO网络进行训练收敛,然后进行通道裁剪,进而得到手势识别模型。本发明提升了网络对分辨率较小的手势的检测性能。使得本发明的手势识别方法准确率高以及实时性好。同时使得本发明系统能直接从图片得到识别结果,可以进行端到端的优化。
-
公开(公告)号:CN105488811A
公开(公告)日:2016-04-13
申请号:CN201510822670.6
申请日:2015-11-23
申请人: 华中科技大学
IPC分类号: G06T7/20
CPC分类号: G06T2207/30241
摘要: 本发明公开了一种基于深度梯度的目标跟踪方法,通过对获取的待跟踪RGB-D视频序列的第一帧进行标定,提取RGB图像的方向梯度直方图特征和深度图像的深度梯度信息;基于上述信息,对当前帧进行目标检测和目标跟踪,并根据检测结果和跟踪结果,进一步得到最终目标框;最后,对下一帧重复前述步骤且在每一帧处理后,对分类器模型进行选择性调整。相应地本发明还公开了一种对应的系统。通过执行本发明中的方法,有效解决了当前目标跟踪方法中存在的在背景与目标颜色接近、光照变化明显、遮挡等导致的跟踪错误或丢失的问题,大大提高了目标跟踪的鲁棒性,同时减少了训练模型的漂移问题,尤其适用于小速率目标跟踪的应用场合。
-
公开(公告)号:CN103577832A
公开(公告)日:2014-02-12
申请号:CN201210268099.4
申请日:2012-07-30
申请人: 华中科技大学
IPC分类号: G06K9/62
摘要: 本发明公开了一种基于时空上下文的人流量统计方法,包括以下步骤:对灰度序列G中的每一帧图像,借助sobel算子及帧间差分法提取膨胀后的运动边缘,在膨胀后的运动边缘处进行基于HOG特征的人头目标检测,从而得到初步检测目标队列head_list,根据空间约束将虚假目标从队列head_list中删除,将head_list中的目标与之前所有帧中检测出来的最终目标进行灰度互相关关联匹配,对统计队列people_list中的目标进行跟踪,对统计队列people_list中的目标位置进行更新,对统计队列people_list中的目标进行统计。由于加入了时间和空间信息,本发明能够在保证高检测率的同时,有效地减少虚假目标的数量,准确性高,能进行实时视频处理,能对图像的几何及光学形变都能保持良好的不变性,故使得本方法鲁棒性好。
-
公开(公告)号:CN101799925B
公开(公告)日:2011-08-24
申请号:CN201010120808.5
申请日:2010-03-05
申请人: 华中科技大学
IPC分类号: G06T7/00
摘要: 本发明公开了一种图像自动分割结果的性能分析方法,本发明通过计算多个手工标注的分割结果之间在像素上的感知一致程度,赋予每个像素不同的权重,感知一致程度越高,像素的对应权重就越高,最后计算出加权后的评价指数,作为待评价的分割结果的最终评价指数。采用本发明方法得到的性能分析指标,由于定义了能够定量的反应出由某种计算机算法所处理的图像自动分割结果与人工标注的分割结果的符合程度,从而,客观的反应出某种计算机图像自动分割算法与人类视觉感知在图像自动分割上的接近程度。
-
公开(公告)号:CN101908139A
公开(公告)日:2010-12-08
申请号:CN201010226010.9
申请日:2010-07-15
申请人: 华中科技大学
摘要: 本发明提出了一种利用学习机用的人脸姿态辅助估计其视线的方法,并借此方法实现了让学习机自动监督用户的某些学习活动的目的。具体为:要求学习机用户在进行需要别人监督但身边又无人监督的学习活动时,用户双眼必须正视学习机,学习机系统针对该用户在学习过程中的视线判断其是否存在作弊行为,并做出相应的处理。该项技术一方面增强了学习机的趣味性,另一方面也消除了大多数家长苦于没有时间监督孩子学习的烦恼。
-
公开(公告)号:CN101814149A
公开(公告)日:2010-08-25
申请号:CN201010166225.6
申请日:2010-05-10
申请人: 华中科技大学
IPC分类号: G06K9/66
摘要: 本发明公开了基于在线学习的自适应级联分类器训练方法,其步骤为:①准备一个含有少量样本的训练样本集,采用级联分类器算法训练一个初始的级联分类器HC(x);②使用HC(x)遍历待检测的图像帧,逐一提取与上述训练样本同样大小的区域计算其特征值集合,从而可用初始的级联分类器对其进行分类,判断是否为目标区域,即完成目标检测;③对检测到的目标采用粒子滤波算法进行跟踪,通过跟踪对目标检测结果进行验证,将错误的检测标注为在线学习的负样本。此外,通过跟踪获取真实目标的不同姿态,从中提取在线学习的正样本;④每获得一个在线学习样本,采用自适应级联分类器算法对初始级联分类器HC(x)进行在线训练和更新,从而逐步提高分类器的目标检测精度。
-
公开(公告)号:CN101794394A
公开(公告)日:2010-08-04
申请号:CN201010111147.X
申请日:2010-02-05
申请人: 华中科技大学
IPC分类号: G06K9/64
摘要: 本发明公开了一种基于邻域上下文的模板匹配方法,对场景图像逐像素点遍历提取与模板图像相同区域范围的搜索子图,对于满足邻域上下文约束的搜索子图,计算其与模板的相关性,依据相关性越大,该搜索子图对应的遍历像素点成为目标点可能性越大的准则选取目标像素点。本发明关键之处在利用了邻域上下文的约束,并不是在所有的位置都计算子图与模板的相关性,而是只在满足邻域上下文约束的位置计算。在目标部件检测中加入该约束,提高了检测的准确性,由于该约束去除了很多位置点,因此还提高了检测速度。
-
公开(公告)号:CN101770583A
公开(公告)日:2010-07-07
申请号:CN201010028992.0
申请日:2010-01-15
申请人: 华中科技大学
IPC分类号: G06K9/64
摘要: 本发明公开了一种基于场景全局特征的模板匹配方法,用于根据目标模板检测图像中同类目标。该方法对场景图像逐像素点遍历提取与模板图像相同区域范围的搜索子图,计算每个搜索子图与模板图像的相关性,依据搜索子图与模板图像的相关性越大,该搜索子图对应的遍历像素点成为目标点可能性越大的准则选取候选目标像素点,在候选目标像素点中确定最终目标点。本发明关键之处在于利用全局特征来度量搜索子图与模板图像的相关性,全局特征是通过把模板和子图的相关性放到场景后计算整个场景的特征得到的,全局特征是整个场景的特征,带有一定的语义信息,使得目标检测的准确性提高。
-
公开(公告)号:CN100587708C
公开(公告)日:2010-02-03
申请号:CN200810046789.9
申请日:2008-01-25
申请人: 华中科技大学
IPC分类号: G06K9/62
摘要: 一种分类器集成方法,包括:(1)初始化训练样本权值;(2)对训练样本进行分类器训练,采用错误程度和泛化能力描述的分类器性能评价准则选出多个最佳子分类器;(3)组合最佳子分类器。本发明采用的分类器性能评价准则能够准确地选出性能好的子分类器,子分类器性能越好,组合得到相同性能的分类器需要的子分类器数量就越少,即训练循环的次数和时间均越少。另外本发明还通过反馈调整组合分类器,进一步增强分类器性能。
-
公开(公告)号:CN114913546B
公开(公告)日:2024-09-13
申请号:CN202210457706.5
申请日:2022-04-27
申请人: 华中科技大学
IPC分类号: G06V40/10 , G06V10/40 , G06V10/82 , G06N3/0455 , G06N3/0499 , G06N3/0464 , G06N3/08
摘要: 本发明公开了一种人物交互关系检测方法及系统,属于计算机视觉技术领域。现有的人物交互关系检测方法需要用一个共享的预测器同时检测人、物体和它们对应的交互关系,会造成实例级和交互关系级在注意力视野上的不一致。为此,本发明提出一种并行推理网络,其同时包含了两个分别针对实例级定位和交互关系级语义理解的独立预测器。前者通过感知实例的末端区域从而聚焦于实例级的定位;后者扩散视野到交互关系区域,从而更好地理解交互关系级语义。并且本发明的实例级预测器的实例级查询向量和关系级预测器的交互关系级查询向量是一一对应的关系,因此它们之间并不需要任何实例与关系的匹配程序,从而大大减轻了计算负担。
-
-
-
-
-
-
-
-
-