基于Kinect网络的大规模场景群体用户跟踪系统与方法

    公开(公告)号:CN104474710B

    公开(公告)日:2015-09-02

    申请号:CN201410747738.4

    申请日:2014-12-09

    申请人: 山东大学

    IPC分类号: A63F13/428 A63F13/213

    摘要: 本发明公开了一种基于Kinect网络的大规模场景群体用户跟踪系统与方法,该系统具有简单、方便、易操作等优点。对于大规模场景的群体互动游戏,根据每个Kinect可视范围的有效区域,将大规模场景划分为若干小区域,通过Kinect捕获的用户深度图像信息,对不同区域的用户进行实时跟踪,并对不同Kinect捕获的多用户数据进行关联,完成对用户的实时跟踪和身份确认。方便、易操作、成本较低等优点。Kinect网络的布置不需要精准的测量,每个Kinect只负责捕获各自有效区域的用户即可。每个Kinect可视区域之间不需要重叠,即最大限度节省用户捕获设备的使用数量。

    基于Kinect网络的大规模场景群体用户跟踪系统与方法

    公开(公告)号:CN104474710A

    公开(公告)日:2015-04-01

    申请号:CN201410747738.4

    申请日:2014-12-09

    申请人: 山东大学

    IPC分类号: A63F13/428 A63F13/213

    摘要: 本发明公开了一种基于Kinect网络的大规模场景群体用户跟踪系统与方法,该系统具有简单、方便、易操作等优点。对于大规模场景的群体互动游戏,根据每个Kinect可视范围的有效区域,将大规模场景划分为若干小区域,通过Kinect捕获的用户深度图像信息,对不同区域的用户进行实时跟踪,并对不同Kinect捕获的多用户数据进行关联,完成对用户的实时跟踪和身份确认。方便、易操作、成本较低等优点。Kinect网络的布置不需要精准的测量,每个Kinect只负责捕获各自有效区域的用户即可。每个Kinect可视区域之间不需要重叠,即最大限度节省用户捕获设备的使用数量。

    基于立体多画的多用户聚类与视点计算系统及方法

    公开(公告)号:CN104010179A

    公开(公告)日:2014-08-27

    申请号:CN201410260282.9

    申请日:2014-06-12

    申请人: 山东大学

    IPC分类号: H04N13/00 G06K9/62

    摘要: 本发明公开了一种基于立体多画的多用户聚类与视点计算系统及方法,包括红外捕获模块、位置映射模块和实时聚类模块,其中,红外捕获模块,用于获取用户位置信息,并实时跟踪用户,所述位置映射模块,用于将红外捕获阶段的物理坐标映射到虚拟空间坐标;所述实时聚类模块,根据用户分布特征,对虚拟空间用户进行实时动态聚类,并将聚类块的中心位置作为用户的视点信息,为后续画面渲染提供数据。本发明在观众数目超过系统显示画面数目情况下,位置差别较大观众在同一投影屏幕上看到不同视点的立体画面,而位置相近的观众在同一投影屏幕上可以看到相同视点的立体画面,创造能让用户感受到的更强更自然的沉浸式、真实感体验。

    用于多画立体投影播放系统的快门式液晶眼镜及控制方法

    公开(公告)号:CN108307188B

    公开(公告)日:2020-05-22

    申请号:CN201710667802.1

    申请日:2017-08-07

    申请人: 山东大学

    摘要: 本发明公开了一种用于多画立体投影播放系统的快门式液晶眼镜及控制方法,多画立体眼镜的镜片在对应位面图像投影时段中开启,形成不等占空比的镜片开启时序,同时在多画投影模式下,采用形态检测手段滤除虚假脉冲,以消除多投影仪同时投影图像叠加造成的同步光脉冲干扰及图像毛刺干扰引起的虚假脉冲干扰,提取正确的同步脉冲,保证多画立体眼镜开闭时序与多画投影系统的立体画面时序实现相位同步。本发明保证多画立体眼镜开闭时序与多画投影系统的立体画面时序实现相位同步,从而正确地区分和收看各路独立的立体视频。

    一种多人协同装配系统及方法

    公开(公告)号:CN109901713A

    公开(公告)日:2019-06-18

    申请号:CN201910138295.1

    申请日:2019-02-25

    申请人: 山东大学

    IPC分类号: G06F3/01 G06T19/00 G09B9/00

    摘要: 本公开提供了一种多人协同装配系统及方法,利用外部定位设备实时捕捉多用户的位置和用户手势识别,并作为输入数据;利用得到的数据改变相机渲染参数,实现多视角渲染场景而不引起虚拟成像位置偏移;利用两台投影仪显示多名用户左右眼立体画面,实现多人观看同一投影区域但能观察到不同画面的功能;控制用户信息内容,实现用户的注册和登陆功能;利用动画的形式提供拆解装配过程的学习资料;多用户对虚拟物体的编辑,以及场景对用户操作结果的反馈。

    一种面向7D射击影院的多人自由射击识别系统与方法

    公开(公告)号:CN104759094B

    公开(公告)日:2015-11-25

    申请号:CN201510169930.4

    申请日:2015-04-10

    申请人: 山东大学

    摘要: 本发明公开了一种面向7D射击影院的多人自由射击识别系统与方法,包括网络连接模块、交互控制模块、立体渲染模块、投影显示模块;网络连接模块,用于将红外摄像机捕获的画面通过网络传输到交互控制模块,即将采集到的用户交互信息传输到计算机;交互控制模块,用于分析获取的交互信息,得到用户仿真枪的准星位置、用户是否开枪的信息,完成交互射击任务支持每位用户手持无线仿真枪进行交互射击,且仿真枪上仅有激光发射器,无需额外传感器。该系统利用红外摄像机捕获屏幕图像,并通过分析获取的用户仿真枪的准星位置与开枪信息,完成交互射击任务。没有电源线的约束,使得每位用户都可以充分地任意移动,使用户获得身临其境的感觉,从而增强了用户体验。

    基于移动终端和全息展示的虚拟场景协同建模方法及系统

    公开(公告)号:CN104794752A

    公开(公告)日:2015-07-22

    申请号:CN201510216094.0

    申请日:2015-04-30

    申请人: 山东大学

    IPC分类号: G06T17/00

    摘要: 本发明公开了基于移动终端和全息展示的虚拟场景协同建模方法及系统,搭建全息立体投影设备并与服务器连接;将移动终端与服务器连接在同一个无线局域网内;获得三维虚拟场景的二维平面设计图、规划草图或之前保存的二维平面图,导入系统中;高优先级用户根据导入的场景平面设计图在二维场景绘制单元中绘制或调整虚拟场景墙壁,实时在虚拟环境中生成三维场景;通过多个移动终端的模型添加单元协同添加虚拟场景中的模型;通过自然交互单元,对全息显示的三维虚拟场景进行确认;保存三维场景二维设计图并导出三维场景。提高了布置场景的准确性;并为用户提供基于移动终端与服务器之间通信的协同建模,改善了虚拟场景设计的协作性,提高了生产效率。

    基于立体多画的多用户聚类与视点计算系统及方法

    公开(公告)号:CN104010179B

    公开(公告)日:2015-03-04

    申请号:CN201410260282.9

    申请日:2014-06-12

    申请人: 山东大学

    IPC分类号: H04N13/00 G06K9/62

    摘要: 本发明公开了一种基于立体多画的多用户聚类与视点计算系统及方法,包括红外捕获模块、位置映射模块和实时聚类模块,其中,红外捕获模块,用于获取用户位置信息,并实时跟踪用户,所述位置映射模块,用于将红外捕获阶段的物理坐标映射到虚拟空间坐标;所述实时聚类模块,根据用户分布特征,对虚拟空间用户进行实时动态聚类,并将聚类块的中心位置作为用户的视点信息,为后续画面渲染提供数据。本发明在观众数目超过系统显示画面数目情况下,位置差别较大观众在同一投影屏幕上看到不同视点的立体画面,而位置相近的观众在同一投影屏幕上可以看到相同视点的立体画面,创造能让用户感受到的更强更自然的沉浸式、真实感体验。