-
公开(公告)号:CN102135799A
公开(公告)日:2011-07-27
申请号:CN201110065936.9
申请日:2011-03-11
申请人: 微软公司
CPC分类号: G06F3/011 , A63F2300/10 , A63F2300/1087 , A63F2300/1093 , A63F2300/6045 , A63F2300/8023 , A63F2300/8088 , G06F3/017
摘要: 本发明公开了一种与基于计算机的应用的交互系统和方法。计算系统运行与一个或多个主动参与的用户交互的应用(例如,视频游戏)。传感一组的一个或多个物理特性。该组可包括一个或多个主动参与的用户和/或一个或多个未主动参与应用的实体。计算系统将确定该组(或一个或多个未主动参与应用的实体)执行了预定动作。响应于确定该组(或一个或多个未主从参与基于计算机的应用的实体)执行了预定动作,改变应用的运行时状况。改变运行时状况的示例包括移动对象、改变得分、或改变视频游戏的环境状况。
-
公开(公告)号:CN102129293A
公开(公告)日:2011-07-20
申请号:CN201110024965.0
申请日:2011-01-14
申请人: 微软公司
CPC分类号: A63F13/424 , A63F13/06 , A63F13/10 , A63F13/213 , A63F13/803 , A63F2300/1093 , A63F2300/6045 , A63F2300/6072 , A63F2300/8017 , A63F2300/8023 , G06F3/017 , G06F3/038
摘要: 本发明提供了在运动捕捉系统中跟踪用户组的系统和方法。在运动捕捉系统中,基于一组人的检测到的移动和/或位置来向应用提供单一输入。也可使用来自该组的音频信息来作为输入。应用可经由显示器和音频输出来向该人或组提供实时反馈。例如,组可以基于组中的每一个人的移动来控制化身在虚拟空间中的移动,如在操控或平衡游戏中。为避免应用的不连续或混乱输出,可为被遮挡或部分地在视野外的个人生成遗漏数据。可以设置用于激活新的个人以及停用当前活动的个人的等待时间。该等待时间可以基于个人的首次检出位置或最后检测位置而自适应。
-
-
公开(公告)号:CN102542867B
公开(公告)日:2015-02-25
申请号:CN201110430860.5
申请日:2011-12-20
申请人: 微软公司
发明人: S·拉塔 , D·本内特 , K·盖斯纳 , R·马尔科维奇 , K·兹努达 , R·马西斯 , M·蒙森 , D·吉罗克 , W·P·盖斯 , D·布朗 , C·麦克雷 , D·西摩 , W·A·奥尔森 , M·瑟西
IPC分类号: A63F13/00 , A63F13/213 , A63F13/803 , G06F3/01
CPC分类号: A63F13/428 , A63F13/212 , A63F13/213 , A63F13/57 , A63F13/803 , A63F2300/1087 , A63F2300/1093 , A63F2300/6045 , A63F2300/6607 , A63F2300/8017 , G06F3/017 , G09B9/04
摘要: 本文描述了通过虚拟骨架的驾驶模拟器控制。用通过从所观察的场景中捕捉包括深度信息的深度图像来分析所观察的场景内的人类目标的设备来执行深度图像分析。用包括多个关节的虚拟骨架来对人类目标建模。虚拟骨架被用作用于控制驱动模拟的输入。
-
公开(公告)号:CN102301315B
公开(公告)日:2014-12-24
申请号:CN201080006415.X
申请日:2010-01-12
申请人: 微软公司
CPC分类号: G06F3/011 , A63F13/00 , A63F2300/1012 , A63F2300/1093 , A63F2300/6045 , G06F3/017 , G06F3/033 , G06F3/04883 , G06K9/00342 , G06K9/00389
摘要: 本发明公开了用于姿势识别器系统架构的系统、方法和计算机可读介质。提供了识别器引擎,识别器引擎接收用户运动数据并将该数据提供给多个过滤器。过滤器对应于姿势,过滤器然后可由从姿势识别器接收信息的应用来调谐,使得可以按每应用的水平或单个应用内多次地设置姿势的具体参数—例如投掷姿势的手臂加速度。每个过滤器可向使用该过滤器的应用输出发生了对应的姿势的置信度水平,以及关于用户运动数据的进一步细节。
-
公开(公告)号:CN102129292B
公开(公告)日:2014-05-14
申请号:CN201110024963.1
申请日:2011-01-14
申请人: 微软公司
摘要: 本发明提供了在运动捕捉系统中识别用户意图的系统和方法。用于方便在运动捕捉系统中与应用交互的技术允许个人在没有手动设置的情况下容易地开始交互。深度相机系统跟踪物理空间中的个人,并评估该个人参与应用的意图。可评估诸如位置、姿态、移动和语音数据等因素。可评估深度相机的视野中的绝对位置,以及相对于另一个人的位置。姿态可以包括面向深度相机,指示交互意愿。移动可以包括朝向或远离物理空间中的中央区域移动、走过视野、以及当一般站在一个位置时发生的移动,如四周移动一个人的手臂、摆姿势、或将重量从一只脚移到另一只脚。语音数据可包括音量以及由语音识别检测到的单词。
-
-
-
-
公开(公告)号:CN102542160A
公开(公告)日:2012-07-04
申请号:CN201110430789.0
申请日:2011-12-20
申请人: 微软公司
CPC分类号: G06F3/017 , G06F3/005 , G06F3/011 , G06F3/0304 , G06F3/0346 , G06F3/0485 , G06F3/0486 , G06F2203/04806 , G06T13/40
摘要: 本发明描述了三维虚拟世界的骨架控制。虚拟骨架包括多个关节并提供用三维深度相机观察的人类目标的机器可读表示。虚拟骨架的手关节的相对位置被转换为姿势控制,且响应于该姿势控制来控制三维虚拟世界。
-
-
-
-
-
-
-
-
-