-
公开(公告)号:CN106055088B
公开(公告)日:2019-08-09
申请号:CN201610226704.X
申请日:2016-04-13
申请人: 联发科技股份有限公司
IPC分类号: G06F3/01
CPC分类号: G06F21/32 , G06F1/163 , G06F3/005 , G06F3/017 , G06F3/0346 , G06F21/316 , G06K9/00355 , G06K9/6288 , G10L17/08 , G10L2015/223
摘要: 本发明提出一种交互式穿戴式设备的空气书写和手势系统以及装置。在该方法及系统中,穿戴式设备可感测由使用者穿戴的穿戴式设备的移动。穿戴式设备也可确定与一个或多个预定模式对应的移动路径。穿戴式设备可进一步执行一个或多个操作,以响应对应于一个或多个预定模式的至少一个的移动路径的决定。本发明提出的交互式穿戴式设备的空气书写和手势系统,可方便地使用该系统。
-
公开(公告)号:CN103914684B
公开(公告)日:2019-06-28
申请号:CN201310757103.8
申请日:2013-12-25
申请人: 现代自动车株式会社
CPC分类号: G06K9/00355 , G06K9/2027 , G06T5/002 , G06T7/194 , G06T2207/10016 , G06T2207/10048
摘要: 本发明提供利用选择性照明来识别手势的方法和系统,其能够通过有效地移除包括静态干扰光和动态干扰光的不必要图像和噪声来可靠地执行手势识别。识别手势的方法包括,通过控制器,从成像设备获取作为识别目标的手部的图像。静态背景图像和动态背景图像通过控制器从手部图像中移除。方法还包括:通过控制器,通过从已移除动态背景图像的手部图像中提取特征点,从而识别手势。
-
公开(公告)号:CN109637291A
公开(公告)日:2019-04-16
申请号:CN201811615411.6
申请日:2018-12-27
申请人: 深圳市赛亿科技开发有限公司
CPC分类号: G09B21/00 , G06K9/00355
摘要: 本发明公开一种手语翻译方法,包括:S100:获取手语姿势;S200:对手语姿势进行分解;S300:识别手语姿势的含义;S400:将手语姿势翻译成文字或者语音;S500:将翻译后的文字或者语音呈现给对方;S600:接收对方的语音;S700:将对方语音翻译成对应含义的手语姿势;S800:将翻译后的手语姿势呈现给用户。本发明还公开一种手语翻译系统。本发明公开的一种手语翻译方法及系统,具有如下优点:实现手语与语音或者文字的转换,方便聋哑人与正常人的沟通。
-
公开(公告)号:CN109345558A
公开(公告)日:2019-02-15
申请号:CN201811270496.9
申请日:2018-10-29
申请人: 网易(杭州)网络有限公司
CPC分类号: G06T7/194 , G06K9/00355 , G06T2207/10028 , H04N9/3179
摘要: 本发明提供了一种图像处理方法。该方法,包括:获取深度图中的一个或多个轮廓;识别所述轮廓的类型和所述轮廓的运动状态;根据所述轮廓的类型和所述轮廓的运动状态确定出所述深度图的目标前景。使用深度图进行图像处理的方式,避免了RGB视频流中彩色图像引起的图像处理鲁棒性低的问题。同时,使用基于轮廓的图像处理方式替代了基于像素对背景进行更新,能够提高图像识别准确性。从而,用户通过肢体与投影中的画面实现互动时,实现准确识别用户的操作目的的技术效果,为用户带来了更好的交互体验。
-
公开(公告)号:CN109189206A
公开(公告)日:2019-01-11
申请号:CN201810633830.6
申请日:2018-06-20
申请人: 济南大学
CPC分类号: G06F3/017 , G06K9/00355
摘要: 本发明涉及一种三维手势生成方法,包括以下步骤:a.利用Kinect中的人体骨骼信息得到人手的深度坐标;b.获取人手区域的深度图像;c.将步骤b中获取的深度图像按照7:3的比例分为训练集和测试集两部分,并在Caffe框架下用CNN对步骤c-1中的所有训练样本对手腕角度进行训练,得到一个i分类的CNN模型;d.对步骤c-2中分出的每一类训练样本,随机取4/5的样本对手指j个局部状态再次进行CNN训练;e.对每一帧深度图像利用步骤c和步骤d中训练出的二层分类模型得到手腕状态和手指局部状态,这两种状态共同决定了手势状态;f.对手势状态判断并以此来实现对手势的控制。本发明利用二层分类模型对深度图像的手势状态进行分类,最后提出了控制算法以驱动虚拟手的运动。
-
公开(公告)号:CN109063653A
公开(公告)日:2018-12-21
申请号:CN201810888877.7
申请日:2018-08-07
申请人: 北京字节跳动网络技术有限公司
发明人: 吴兴龙
CPC分类号: G06K9/00355 , G06K9/4604 , G06K9/4671 , G06K9/6256
摘要: 本申请实施例公开了图像处理方法和装置。该方法的一具体实施方式包括:获取包含手势的图像的手势边框,其中,该手势边框用于指示图像所包含手势的位置;从该图像中,提取该手势边框所指示的包含手势的局部图像;将该局部图像输入关键点检测模型,以确定该图像所包含手势的手指尖的关键点信息,其中,该关键点信息包括手指尖位置信息。本申请实施例能够检测重要的手指尖的关键点,避免对手势中应用频率很低的关键点进行检测导致的无效检测,提高检测效率。
-
公开(公告)号:CN108932500A
公开(公告)日:2018-12-04
申请号:CN201810745350.9
申请日:2018-07-09
申请人: 广州智能装备研究院有限公司
CPC分类号: G06K9/00355 , G06K9/6256 , G06N3/0454 , G06N3/084
摘要: 本发明公开了一种基于深度神经网络的动态手势识别方法及系统,包括:采集不同手势含义的动态手势视频片段生成训练样本数据集,样本数据包含RGB图像和深度信息;设计基于深度神经网络的动态手势识别网络模型,并利用训练样本对模型进行训练;利用训练好的动态手势识别模型进行动态手势测试与识别;动态手势识别网络模型由特征提取网络、前后帧关联网络以及分类识别网络构成,其中前后帧关联网络用于对每一个手势含义的样本经过特征提取网络得到的特征向量进行前后时间帧的关联映射,并将其合并为每一个手势含义的融合特征向量。本发明,在网络模型中引入了双向LSTM模型来理解连续手势姿态之间的相关性,极大提高了动态手势的识别率。
-
公开(公告)号:CN108805035A
公开(公告)日:2018-11-13
申请号:CN201810495581.9
申请日:2018-05-22
申请人: 深圳市鹰硕技术有限公司
CPC分类号: G06K9/00221 , G06F17/18 , G06K9/00355 , G06Q50/205
摘要: 本公开是关于一种基于手势识别的教学互动方法、装置、电子设备以及存储介质。其中,该方法包括:获取第一视频采集设备采集的视频信号,提取所述视频信号中的面部特征,以及所述面部特征指定相邻区域的手势行为,分析所述手势行为对应的手势特征,并将所述手势特征与预先定义的手势样本进行匹配,得到匹配结果,匹配所述面部特征与学生标识的关联信息,统计根据所述视频信号中的所有面部特征以及手势行为形成的所有关联信息,并生成教学互动信息,调用设备终端的显示接口显示所述教学互动信息。本公开可以通过对学生面部指定相邻区域手势的准确识别生成教学互动信息。
-
公开(公告)号:CN108762124A
公开(公告)日:2018-11-06
申请号:CN201810879550.3
申请日:2018-08-03
申请人: 芜湖酷哇机器人产业技术研究院有限公司 , 安徽酷哇机器人有限公司
CPC分类号: G05B19/04 , A45C5/045 , A45C5/141 , A45C13/001 , A45C13/262 , A45C15/00 , G06K9/00355 , G06K9/6218
摘要: 本发明提供了一种基于视觉的行李箱助力结构及助力方法,包括:视觉传感器:设置于所述行李箱的拉杆的把手内,获取使用者的手部图像;中央处理器:连接所述视觉传感器,根据所述手部图像计算得到姿态参数;运动控制模块:设置于所述行李箱的箱体内,输入端与所述中央处理器连接;动力轮:与所述运动控制模块的输出端连接。本发明通过视觉传感器获取使用者的移动方向和速度,从而直接控制箱体的移动,相较于现有技术,行李箱的移动更加精确可靠。
-
公开(公告)号:CN104284133B
公开(公告)日:2018-09-04
申请号:CN201410262402.9
申请日:2014-06-13
申请人: 阿瓦亚公司
CPC分类号: H04N7/15 , G06K9/00288 , G06K9/00342 , G06K9/00355 , H04N7/147
摘要: 本公开内容涉及用于白板协作的系统和方法。公开了用于在使用非电子方式增强的白板且不使用以电子方式增强的书写和/或指点工具的情况下,在视频会议中协作的方法和工具。实施例可建立正面摄像机以捕获整体视频流,整体视频流被分成至少两个视频馈送——白板馈送和演讲者馈送。正面摄像机可被建立为具有用于捕获白板和演讲者的景深和焦点以及用于优化白板和演讲者的针对每个馈送的特定视频捕捉设置。实施例可根据适当的设置捕获所述两个馈送,并将所述两个馈送传递给其他视频会议成员设备。实施例可添加附加的摄像机以允许附加的优化,诸如消除白板被遮挡区域和/或从视频捕获帧中的多个人中自动地选择演讲者。
-
-
-
-
-
-
-
-
-