-
-
公开(公告)号:CN102448566B
公开(公告)日:2015-04-22
申请号:CN201080024900.X
申请日:2010-05-29
申请人: 微软公司
CPC分类号: G06F3/017 , A63B2024/0025 , A63F2300/105 , A63F2300/1087 , A63F2300/64 , G06F3/005 , G06F3/011 , G06F3/012 , G06F3/013 , G06F3/014 , G06F3/0346 , G06F3/167 , G09G2340/12 , G10H2220/401
摘要: 公开了用于骨架之外的姿势输入的系统、方法和计算机可读介质。系统的捕捉设备捕捉用户的移动或身体位置。此外,由计算设备接收非用户位置数据,诸如用户的控制器输入、用户穿戴的物品、在用户控制下的道具、或第二用户的移动或身体位置。系统合并用户位置数据和非用户位置数据两者,以确定用户向系统做出的一个或多个输入。
-
公开(公告)号:CN102592045B
公开(公告)日:2015-04-15
申请号:CN201110431394.2
申请日:2011-12-20
申请人: 微软公司
IPC分类号: G06F19/00 , G06F3/01 , A63F13/213 , A63F13/428 , A63F13/837
CPC分类号: A63F13/837 , A63F13/213 , A63F13/428 , A63F13/5255 , A63F2300/1093 , A63F2300/6045 , A63F2300/6607 , A63F2300/8076 , G06F3/017
摘要: 本文描述了通过虚拟骨架的第一人称射击者控制。虚拟骨架包括多个关节并提供用三维深度相机观察的人类目标的机器可读表示。虚拟骨架的手关节的相对位置被转换成姿势瞄准向量控制,且与姿势瞄准向量控制成比例地瞄准虚拟武器。
-
公开(公告)号:CN102413886B
公开(公告)日:2014-10-29
申请号:CN201080020007.X
申请日:2010-04-14
申请人: 微软公司
CPC分类号: G06F3/017 , G06F3/011 , G06K9/00342
摘要: 捕捉设备可以捕捉用户的运动并且显示设备可以显示映射到用户的运动(包括适用于控制的姿势)的模型。用户可能不熟悉映射用户的运动的系统或不知道什么姿势适用于正在执行的应用程序。用户可能不了解或不知道如何执行适用于正在执行的应用程序的姿势。向用户提供表示指导性姿势数据的视觉反馈可教导该用户如何正确地作出姿势。视觉反馈可以用任何数量的合适方式来提供。例如,视觉反馈可以经由重影图像、玩家化身、或骨架表示来提供。该系统可以处理预记录内容或实况内容以显示表示指导性姿势数据的视觉反馈。该反馈可以描绘用户的实际位置与理想姿势位置之间的增量。
-
公开(公告)号:CN103562906A
公开(公告)日:2014-02-05
申请号:CN201280026442.2
申请日:2012-05-31
申请人: 微软公司
CPC分类号: G07F17/3225 , A63F13/21 , A63F13/335 , A63F13/795 , G06Q50/01
摘要: 在特定用户正与多个其他用户的每个进行交互时,该特定用户的情绪响应数据被收集。使用该情绪响应数据,特定用户在与多个其他用户的每个进行交互时的情绪被确定。基于所确定的情绪,多个其他用户的一个或多个被标识以与该特定用户分享在线体验。
-
公开(公告)号:CN102736731A
公开(公告)日:2012-10-17
申请号:CN201110431139.8
申请日:2011-12-20
申请人: 微软公司
IPC分类号: G06F3/01
CPC分类号: H04N5/225 , A63F13/00 , A63F13/20 , A63F13/213 , A63F13/219 , A63F13/428 , A63F13/655 , A63F2300/63 , A63F2300/695
摘要: 本发明涉及智能玩游戏照片捕捉。公开了用于标识、捕捉和呈现在玩采用运动跟踪输入技术的游戏期间出现的动作的高质量照片表示的实现。作为一个示例,公开了一种方法,该方法包括在玩电子游戏期间经由光学接口捕捉捕捉体中的玩家的多个照片。该方法还包括对于多个所捕捉的照片中的每个所捕捉的照片,将基于事件的打分参数与由该所捕捉的照片所描绘的或者与该所捕捉的照片相对应的事件进行比较。该方法还包括至少部分基于与基于事件的打分参数的比较来向多个所捕捉的照片赋予相应的分数。该方法还包括将电子存储介质处的所捕捉的照片与赋予所捕捉的照片的相应分数相关联。
-
公开(公告)号:CN102592045A
公开(公告)日:2012-07-18
申请号:CN201110431394.2
申请日:2011-12-20
申请人: 微软公司
CPC分类号: A63F13/837 , A63F13/213 , A63F13/428 , A63F13/5255 , A63F2300/1093 , A63F2300/6045 , A63F2300/6607 , A63F2300/8076 , G06F3/017
摘要: 本文描述了通过虚拟骨架的第一人称射击者控制。虚拟骨架包括多个关节并提供用三维深度相机观察的人类目标的机器可读表示。虚拟骨架的手关节的相对位置被转换成姿势瞄准向量控制,且与姿势瞄准向量控制成比例地瞄准虚拟武器。
-
公开(公告)号:CN102448566A
公开(公告)日:2012-05-09
申请号:CN201080024900.X
申请日:2010-05-29
申请人: 微软公司
CPC分类号: G06F3/017 , A63B2024/0025 , A63F2300/105 , A63F2300/1087 , A63F2300/64 , G06F3/005 , G06F3/011 , G06F3/012 , G06F3/013 , G06F3/014 , G06F3/0346 , G06F3/167 , G09G2340/12 , G10H2220/401
摘要: 公开了用于骨架之外的姿势输入的系统、方法和计算机可读介质。系统的捕捉设备捕捉用户的移动或身体位置。此外,由计算设备接收非用户位置数据,诸如用户的控制器输入、用户穿戴的物品、在用户控制下的道具、或第二用户的移动或身体位置。系统合并用户位置数据和非用户位置数据两者,以确定用户向系统做出的一个或多个输入。
-
-
公开(公告)号:CN102222338B
公开(公告)日:2014-08-06
申请号:CN201110159935.0
申请日:2011-06-03
申请人: 微软公司
IPC分类号: G06T7/00
CPC分类号: G06T7/0042 , A63F2300/1087 , A63F2300/8029 , G01S3/786 , G06T7/73 , G06T2207/10028 , H04N13/271
摘要: 本发明涉及自动相机深度对准。通过包括从深度相机接收场景的一个或多个所观测的深度图像来提供自动深度相机对准。该方法进一步包括:如果目标的感兴趣点在场景内被找到,则确定所述感兴趣点是否相对于深度相机处于远范围内。该方法进一步包括:如果所述目标的感兴趣点处于远范围内,则用远逻辑操作所述深度相机,或者如果所述目标的感兴趣点未处于远范围内,则用近逻辑操作所述深度相机。
-
-
-
-
-
-
-
-
-