-
公开(公告)号:CN106911512B
公开(公告)日:2021-04-16
申请号:CN201710144342.4
申请日:2017-03-10
申请人: 山东大学
IPC分类号: H04L12/24
摘要: 本发明公开了一种在可交换图中基于博弈的链接预测方法及系统,方法采用步骤:(1)获取数据集,将数据集中的元素通过图表示,图由节点集和边集组成;所述节点代表待预测的实体,边代表待预测实体之间的关系,所述数据集的节点和边满足可交换图的要求;(2)采用基于博弈的网络演化模型,过滤所述图中的不符合设定要求的边,以过滤后的图作为训练集;(3)采用训练集对概率图模型进行迭代训练,得到具有最优模型参数的概率图模型;(4)采用(3)中具有最优模型参数的概率图模型进行链接预测,本发明可应用在推荐系统、风险评估、系统规划或社交网络中,实体和实体之间的关系满足可交换图的要求,对实体之间的关系预测的速度快,准确度高。
-
公开(公告)号:CN112118435A
公开(公告)日:2020-12-22
申请号:CN202010772263.X
申请日:2020-08-04
申请人: 山东大学
摘要: 本申请公开了面向异形金属屏幕的多投影融合方法及系统,包括:多台摄像机、多台投影仪、异形金属屏幕、Kinect和服务器;服务器根据从不同拍摄位置拍摄的异形金属屏幕上的投影图像,计算投影仪物理像素坐标与幕布空间坐标之间的映射关系,同时输出阶梯图像;服务器根据阶梯图像和曝光拍摄数据,计算各个投影仪在不同拍摄机位上的亮度修正参数,根据各个投影仪在不同拍摄机位上的亮度修正参数,获取不同机位亮度融合数据图像;Kinect根据投影仪物理像素坐标与幕布空间坐标之间的映射关系,和不同机位亮度融合数据图像,实现最终的图像投影。
-
公开(公告)号:CN111727924A
公开(公告)日:2020-10-02
申请号:CN202010676771.8
申请日:2020-07-14
申请人: 山东大学
摘要: 本公开提供了一种立体显示环境下混合现实鱼缸系统及生成方法,实时获取真鱼位置和用户头部位置;对获取的真鱼位置进行补偿,获得真鱼在Kinect相机空间中的真实位置;利用获得的真鱼位置信息,将其映射到虚拟场景中,在真鱼附近放置虚拟的真鱼标签,并对真鱼和虚拟物体进行实时的碰撞检测,使虚拟物体有效规避真鱼的碰撞,同时检测真鱼是否遮挡虚拟场景,以有效获取场景信息;利用立体显示的成像原理,将虚拟鱼精准地置于鱼缸环境中,将虚拟鱼与鱼缸环境融为一体。本公开实现了MR鱼缸内容的虚实融合,生成的立体画面更生动、真实,为用户提供一种具有真实感的混合现实体验。
-
公开(公告)号:CN111716365A
公开(公告)日:2020-09-29
申请号:CN202010541806.7
申请日:2020-06-15
申请人: 山东大学
摘要: 本公开公开了基于自然行走的沉浸式远程交互系统及方法,包括:机器人、服务器、位置跟踪设备和使用时佩戴在用户头部的头戴式虚拟现实设备;位置跟踪设备和头戴式虚拟现实设备处于同一个物理空间内,机器人和头戴式虚拟现实设备处于不同的物理空间内;根据用户的动作数据远程控制机器人的动作,同时,将机器人的动作通过服务器传输给头戴式虚拟现实设备,进而展示给用户,实现机器人与用户之间的交互。
-
公开(公告)号:CN109885168B
公开(公告)日:2020-05-19
申请号:CN201910138317.4
申请日:2019-02-25
申请人: 山东大学
摘要: 本公开提供了一种基于改进重定向行走的虚拟现实漫游系统及方法,输入虚拟空间平面图,采用基于Voronoi图的骨架图生成算法预先计算虚拟空间中用户可行骨架图;依据虚拟空间中骨架图,利用静态骨架图映射算法,建立虚拟空间中用户可行骨架图与物理空间中用户可行骨架图的映射关系;通过输入模块实时追踪用户在物理空间中的空间位置及方向,依据已建立的虚拟空间与物理空间之间的映射关系,利用位置逆映射算法及曲率增益重定向技术实时计算用户在虚拟空间中相应的空间位置及方向并通过渲染模块生成相应的用户视野画面。
-
公开(公告)号:CN110806803A
公开(公告)日:2020-02-18
申请号:CN201911061261.3
申请日:2019-11-01
申请人: 山东大学
摘要: 本公开提供了、一种基于虚拟现实和多源信息融合的集成式交互系统,包括交互装置、心电监测设备和服务器,交互装置与服务器连接,被配置为提供虚拟场景和交互环境;心电监测设备采集佩戴者的心电数据,并传输给所述服务器;服务器,被配置为提供普通和VR两种环境下的交互式训练游戏、音频和视频的体验模式,提供相应的场景,以进行游戏或观赏,在训练过程中利用心电数据,实现对用户生理状态的实时监测,并形成报告,确定各场景下的用户状态,具有更加直观的视觉体验且具有更高的认知流畅性,可以提升用户的训练效能。
-
公开(公告)号:CN107333122B
公开(公告)日:2019-07-05
申请号:CN201710502102.7
申请日:2017-06-27
申请人: 山东大学
IPC分类号: H04N13/332 , H04N13/363 , H04N13/324 , H04N13/327 , H04N13/243 , G03B35/20
摘要: 本发明公开了一种投影式多画立体显示播放系统及方法,包括多画投影阵列、基于GPU的实时混编‑拼接‑渲染模块与多画面立体眼镜,其中,所述多画投影阵列包括多组投影组合,每组投影组合播放多路独立的立体视频流,基于GPU的实时混编‑拼接‑渲染模块将每组的多路立体视频进行实时渲染、混合编码和校正,将生成的多路立体视频流连接至每组投影组合上进行投影播放,控制所述多画面立体眼镜的液晶镜片开闭时序,使其与多路立体视频流相对应,能够独立收看多路立体视频流,实现多组投影形成多人多画面立体播放。
-
公开(公告)号:CN109885168A
公开(公告)日:2019-06-14
申请号:CN201910138317.4
申请日:2019-02-25
申请人: 山东大学
摘要: 本公开提供了一种基于改进重定向行走的虚拟现实漫游系统及方法,输入虚拟空间平面图,采用基于Voronoi图的骨架图生成算法预先计算虚拟空间中用户可行骨架图;依据虚拟空间中骨架图,利用静态骨架图映射算法,建立虚拟空间中用户可行骨架图与物理空间中用户可行骨架图的映射关系;通过输入模块实时追踪用户在物理空间中的空间位置及方向,依据已建立的虚拟空间与物理空间之间的映射关系,利用位置逆映射算法及曲率增益重定向技术实时计算用户在虚拟空间中相应的空间位置及方向并通过渲染模块生成相应的用户视野画面。
-
公开(公告)号:CN109859078A
公开(公告)日:2019-06-07
申请号:CN201811582549.0
申请日:2018-12-24
申请人: 山东大学
摘要: 本发明公开了一种学生学习行为分析干预方法、装置及系统,该方法包括:接收课堂中实时的学生视频数据和环境数据,进行预处理,提取学生视觉特征和空气成分特征;将学生行为特征和空气成分特征合并为新的特征向量,利用人工神经网络分析和处理进行特征融合,得到实时的特征融合数据,并存储于历史数据库;通过神经元网络算法对历史数据库数据学习训练,进行空气状况与学生状态关联的数据分析,形成正常值模型;结合实时的特征融合数据计算当前空气状况与学生状态的期望值,并与实时的特征融合数据进行比较,判断实时数据为正常数据或异常数据,完成学生学习行为分析,并根据分析结果调整环境数据进行干预。
-
公开(公告)号:CN109298779A
公开(公告)日:2019-02-01
申请号:CN201810909949.1
申请日:2018-08-10
申请人: 济南奥维信息科技有限公司济宁分公司 , 山东大学
摘要: 本发明公开了一种基于虚拟代理交互的虚拟训练系统与方法,本发明允许用户根据自身需求或训练目标选择不同的交互类型、不同情境和不同性格特征的虚拟提问者进行面试训练,能满足多样性的焦虑情境呈现和个性化训练需求;利用3D眼镜和立体投影呈现仿真的虚拟训练环境,通过蓝牙耳机与虚拟提问者直接语音交互来实现自然、沉浸式的面试体验;在面试过程中进行多模态感知,包括动作识别、情感识别和生理状态识别,以此来更好地了解用户的面试状态。本系统不需要昂贵的虚拟现实设备,用户通过多次训练即可有效地降低焦虑,提高交流技能。
-
-
-
-
-
-
-
-
-