-
公开(公告)号:CN102470274A
公开(公告)日:2012-05-23
申请号:CN201080033128.8
申请日:2010-07-27
申请人: 微软公司
CPC分类号: A63F13/533 , A63F13/213 , A63F13/63 , A63F2300/1093 , A63F2300/5553 , A63F2300/6018 , A63F2300/6045 , A63F2300/69
摘要: 自动生成目标的视觉表示的技术可以减少或消除生成目标的视觉表示所需要的手动输入。例如,具有捕捉设备的系统可在物理空间中检测用户的各个特征,并且基于所检测到的特征从视觉表示特征选项库中作出特征选择。系统可以基于所检测到的特征自动地将选择应用于用户的视觉表示。或者,系统可以作出选择,该选择缩减了用户从中选择特征的选项的数量。系统可以实时地将选择应用于用户,以及实时地对所选择的和被应用到目标的视觉表示的特征进行更新。
-
公开(公告)号:CN102470273B
公开(公告)日:2013-07-24
申请号:CN201080031206.0
申请日:2010-07-06
申请人: 微软公司
CPC分类号: G06T13/80 , A63F13/213 , A63F13/42 , G06F3/011 , G06F3/017
摘要: 使用面部识别和姿势/身体姿态识别技术,系统能够自然地经由用户的视觉表示来传达用户的情绪和态度。这些技术包括:基于可检测特性来定制用户的视觉表示;从该可检测特性来推断用户的性情;以及将指示该性情的属性实时地应用到该视觉表示。这些技术还可包括处理该物理空间中的该用户的特性的变化以及实时地更新该视觉表示。例如,该系统可跟踪用户的面部表情和身体移动来标识性情,然后将指示该性情的属性应用到该视觉表示。因此,用户的诸如化身或幻想角色之类的视觉表示能够实时地反映该用户的表情和心情。
-
公开(公告)号:CN102470273A
公开(公告)日:2012-05-23
申请号:CN201080031206.0
申请日:2010-07-06
申请人: 微软公司
CPC分类号: G06T13/80 , A63F13/213 , A63F13/42 , G06F3/011 , G06F3/017
摘要: 使用面部识别和姿势/身体姿态识别技术,系统能够自然地经由用户的视觉表示来传达用户的情绪和态度。这些技术包括:基于可检测特性来定制用户的视觉表示;从该可检测特性来推断用户的性情;以及将指示该性情的属性实时地应用到该视觉表示。这些技术还可包括处理该物理空间中的该用户的特性的变化以及实时地更新该视觉表示。例如,该系统可跟踪用户的面部表情和身体移动来标识性情,然后将指示该性情的属性应用到该视觉表示。因此,用户的诸如化身或幻想角色之类的视觉表示能够实时地反映该用户的表情和心情。
-
公开(公告)号:CN102470274B
公开(公告)日:2014-10-29
申请号:CN201080033128.8
申请日:2010-07-27
申请人: 微软公司
CPC分类号: A63F13/533 , A63F13/213 , A63F13/63 , A63F2300/1093 , A63F2300/5553 , A63F2300/6018 , A63F2300/6045 , A63F2300/69
摘要: 自动生成目标的视觉表示的技术可以减少或消除生成目标的视觉表示所需要的手动输入。例如,具有捕捉设备的系统可在物理空间中检测用户的各个特征,并且基于所检测到的特征从视觉表示特征选项库中作出特征选择。系统可以基于所检测到的特征自动地将选择应用于用户的视觉表示。或者,系统可以作出选择,该选择缩减了用户从中选择特征的选项的数量。系统可以实时地将选择应用于用户,以及实时地对所选择的和被应用到目标的视觉表示的特征进行更新。
-
-
公开(公告)号:CN102473320B
公开(公告)日:2014-09-10
申请号:CN201080031477.6
申请日:2010-07-12
申请人: 微软公司
CPC分类号: G06T13/40 , A63F13/213 , A63F13/56 , A63F13/58 , A63F13/67 , G01S17/36 , G01S17/89 , G06F3/011 , G06F3/017 , H04N21/4223 , H04N21/44218 , H04N21/4532 , H04N21/4667 , H04N21/4781
摘要: 所捕捉的有关人类的数据可以被分析并应用于用户的视觉表示,使得该视觉表示开始反映该用户的行为特性。例如,系统可以具有捕捉设备,该捕捉设备捕捉关于物理空间中的用户的数据。该系统可以标识出该用户的特性、倾向性、语音模式、行为、姿势等等。该系统可以随时间学习用户的倾向性,并且智能地将动画应用于该用户的化身,使得该化身根据所标识出的用户的行为来作出行为和响应。应用于化身的动画可以是选自预先打包的动画库的动画,或者这些动画可以由用户输入和记录到该化身的化身库中。
-
公开(公告)号:CN102473320A
公开(公告)日:2012-05-23
申请号:CN201080031477.6
申请日:2010-07-12
申请人: 微软公司
CPC分类号: G06T13/40 , A63F13/213 , A63F13/56 , A63F13/58 , A63F13/67 , G01S17/36 , G01S17/89 , G06F3/011 , G06F3/017 , H04N21/4223 , H04N21/44218 , H04N21/4532 , H04N21/4667 , H04N21/4781
摘要: 所捕捉的有关人类的数据可以被分析并应用于用户的视觉表示,使得该视觉表示开始反映该用户的行为特性。例如,系统可以具有捕捉设备,该捕捉设备捕捉关于物理空间中的用户的数据。该系统可以标识出该用户的特性、倾向性、语音模式、行为、姿势等等。该系统可以随时间学习用户的倾向性,并且智能地将动画应用于该用户的化身,使得该化身根据所标识出的用户的行为来作出行为和响应。应用于化身的动画可以是选自预先打包的动画库的动画,或者这些动画可以由用户输入和记录到该化身的化身库中。
-
-
-
-
-
-
-