-
公开(公告)号:CN109885168A
公开(公告)日:2019-06-14
申请号:CN201910138317.4
申请日:2019-02-25
申请人: 山东大学
摘要: 本公开提供了一种基于改进重定向行走的虚拟现实漫游系统及方法,输入虚拟空间平面图,采用基于Voronoi图的骨架图生成算法预先计算虚拟空间中用户可行骨架图;依据虚拟空间中骨架图,利用静态骨架图映射算法,建立虚拟空间中用户可行骨架图与物理空间中用户可行骨架图的映射关系;通过输入模块实时追踪用户在物理空间中的空间位置及方向,依据已建立的虚拟空间与物理空间之间的映射关系,利用位置逆映射算法及曲率增益重定向技术实时计算用户在虚拟空间中相应的空间位置及方向并通过渲染模块生成相应的用户视野画面。
-
公开(公告)号:CN108062796A
公开(公告)日:2018-05-22
申请号:CN201711193225.3
申请日:2017-11-24
申请人: 山东大学
CPC分类号: G06T19/003 , G06F3/011 , G06K9/00671 , G06T7/70 , G06T2207/10024 , G06T2207/20224 , G09B5/02
摘要: 本发明公开了一种基于移动终端的手工制品与虚拟现实体验系统及方法,包括手工制作子系统,被配置为根据模型生成手工制品的展开图,并提供教学视频;位置与物体识别子系统,被配置为识别并输出物理世界中包括手工制品的多个物体的名称与坐标;故事线生成子系统,被配置为编辑模型的出场顺序与台词;场景生成与漫游子系统,被配置为根据物体的名称与坐标,生成相应场景,根据故事线台词,生成相应故事线,使用虚拟现实设备体验生成的虚拟场景与剧情,实现交互。
-
公开(公告)号:CN107506029A
公开(公告)日:2017-12-22
申请号:CN201710676356.0
申请日:2017-08-09
申请人: 山东大学
摘要: 本发明公开了一种提高移动端体验的虚拟场景交互设计系统及其方法,系统包括设计子系统和体验子系统,设计子系统,根据移动设备的性能参数估算移动设备的最大负荷;根据设定的设计布局自动将设计空间进行细化,划分为一系列的小空间,根据移动设备的最大负荷,为每个小空间提供对应的可交互参数,实现虚拟场景在每个小空间的实时渲染;体验子系统,包括若干移动虚拟现实眼镜和动感设备实现虚拟场景的漫游和沉浸感体验;本发明实现了设计与体验相互关联,改变了传统的虚拟场景设计方式,提高了设计的效率和可用性。
-
公开(公告)号:CN105373224B
公开(公告)日:2016-06-22
申请号:CN201510690423.5
申请日:2015-10-22
申请人: 山东大学
IPC分类号: G06F3/01
CPC分类号: G06T19/20 , A63F13/211 , A63F13/212 , A63F13/213 , A63F13/25 , A63F13/5255 , A63F13/63 , A63F13/655 , G06F3/011 , G06F3/012 , G06F3/017 , G06F3/0418 , G06T19/003 , G06T19/006 , G06T2219/024 , G06T2219/2016 , G06T2219/2021 , H04N13/279 , H04N13/344 , H04N13/351 , H04N13/366
摘要: 本发明公开了一种基于普适计算的混合现实游戏系统及方法,该系统允许玩家在任意空闲空间、随时随地设计迷宫布局,通过绘图工具绘制迷宫平面图;利用手机拍照快速建立相应的三维虚拟场景;利用虚拟现实眼镜,通过玩家头部的真实转动即可感受沉浸式体验;利用体感设备对玩家真实姿态的跟踪和识别,实现玩家对虚拟场景的移动输入控制和自然交互。本系统不需要专门的物理空间、昂贵的虚拟现实设备,用户也不需要训练,而且可以在任何时间任何地方游戏。
-
公开(公告)号:CN104394400B
公开(公告)日:2015-12-02
申请号:CN201410752193.6
申请日:2014-12-09
申请人: 山东大学
摘要: 本发明公开了一种基于立体多画显示的隔网对抗性项目虚拟仿真系统及方法,包括网络连接模块、游戏逻辑模块、交互控制模块、物理引擎模块、立体渲染模块和双画投影显示模块;所述网络连接模块,包括服务器子模块和客户端子模块,用于进行网络通信和数据传递;游戏逻辑模块,用于存储游戏规则、角色动画的播放控制和位置映射;交互控制模块,控制虚拟网球游戏场景中各自相应的游戏角色进行移动,拍摄不同视点的立体画面;所述物理引擎模块,用于通过物理引擎高效、逼真地模拟网球反弹、碰撞等物理效果,使得游戏画面更加真实而生动本系统不仅能够实现在同一屏幕显示器上进行多画立体显示,而且能够基于不同视角位置对同一游戏场景进行实时渲染。
-
公开(公告)号:CN104258566B
公开(公告)日:2015-04-08
申请号:CN201410550931.9
申请日:2014-10-16
申请人: 山东大学
IPC分类号: A63F13/426 , A63F13/428 , A63F13/219 , A63F13/32 , H04N13/00 , G02B27/22
摘要: 本发明公开了一种基于多画显示的虚拟射击影院系统与方法,该系统具有简单、方便、易操作、沉浸感强等优点,通过自然生活中的身体姿势及射击游戏经验等自然的交互方式,实现用户通过身体姿势和仿真枪与剧情互动的射击类游戏,玩家作为虚拟主角控制游戏的发展,而且不需要用户额外的学习训练,用户可以利用迈步向前、向后,射击等常见的自然方式与剧情互动。系统实时渲染立体游戏画面;利用网络连接,支持双人协同作战;利用光分式双画原理,使得一块投影大屏幕提供两个用户的独立完整的游戏画面,从而创造出能让用户感受到的更强更自然的沉浸式体验,增强主题影院中游戏的娱乐性、趣味性和真实感。
-
公开(公告)号:CN103533445B
公开(公告)日:2014-07-02
申请号:CN201310517394.3
申请日:2013-10-28
申请人: 山东大学
IPC分类号: H04N21/472 , H04N21/422
摘要: 本发明公开了一种基于主动交互的飞翔影院播放系统,该飞翔影院播放系统具有简单、方便、易操作等优点,不需要用户额外的学习训练,用户可以通过挥手、喊叫等常见的自然方式与剧情互动,创造能让用户感受到的更强更自然的沉浸式体验,增加电影的娱乐性、趣味性和真实感;而且,该系统不需要额外的捕捉设备,可以直接利用影院中的监控红外摄像头和麦克风作为交互捕捉设备,能够充分利用硬件资源,不仅不会给影院带来设备开销,还能增加影院的真实感体验。
-
公开(公告)号:CN109828666B
公开(公告)日:2022-01-25
申请号:CN201910063818.0
申请日:2019-01-23
申请人: 山东大学
IPC分类号: G06F3/01 , G06F3/0481
摘要: 本公开提供了一种基于有形用户界面的混合现实交互系统及方法,包括客户端和服务器,所述客户端部署有混合现实设备,服务器包括手部位置跟踪子模块和数据传输子模块,手部位置跟踪子模块,被配置为使用Kinect骨骼数据进行手部跟踪,在初始化阶段进行Kinect和HoloLens坐标系转换;数据传输子模块,被配置为提供客户端和服务器的信息通讯;客户端包括交互模块,所述交互模块被配置为利用混合现实设备提供教学信息,根据接收的角色选择、路线设计和对话设计信息,在混合现实设备上提供交互场景。
-
-
公开(公告)号:CN113361360A
公开(公告)日:2021-09-07
申请号:CN202110603263.1
申请日:2021-05-31
申请人: 山东大学
摘要: 本公开提供了一种基于深度学习的多人跟踪方法及系统,所述方案利用预先训练的影子特征模型来识别并追踪被遮挡用户的影子,并根据被遮挡用户的影子求解被遮挡用户的位置,同时,在单Kinect设备下,根据捕获的用户信息对未遮挡用户、遮挡用户进行位置计算,实现对多用户位置的实时跟踪。
-
-
-
-
-
-
-
-
-