-
公开(公告)号:CN113221381B
公开(公告)日:2022-03-08
申请号:CN202110609017.7
申请日:2021-06-01
申请人: 北京理工大学
摘要: 本发明公开一种虚拟现实多视角融合模型的设计方法,包括以下步骤:根据交互任务,采集视角类型,获得主视角、辅助视角以及主视角、辅助视角之间的配置模式和融合方法;根据配置模式和融合方法,构建多视角融合模型,多视角融合模型用于获得主视角图像和辅助视角图像,并将辅助视角图像融合到主视角图像中,获得多视角融合图像。本发明的多视角融合模型设计方法,使用户根据交互任务对用户空间感知与交互精度的不同需求与对辅助视角在信息丰富程度、直观性和用户介入程度三个方面的需求,先后确定主辅视角的配置模式和辅助视角的融合方法,以确定合适的多视角融合模型,为用户提供周围环境的空间信息,保证肢体运动姿态的正确性与交互的自然性。
-
公开(公告)号:CN113331825A
公开(公告)日:2021-09-03
申请号:CN202110600585.0
申请日:2021-05-31
申请人: 北京理工大学
摘要: 本发明提供了一种虚拟现实中RULA实时评价方法,包括,采集动作帧,基于所述动作帧,建立空间坐标系,基于所述空间坐标系,提取关节点坐标,基于所述关节点坐标,获取各肢体向量;基于所述关节点坐标及空间坐标系中坐标轴,获取主矢状面和修正矢状面;基于各肢体向量、主矢状面及修正矢状面,获取各肢体主分值和各肢体修正分值;基于所述各肢体主分值及各肢体修正分值,得到各肢体总分值,基于所述各肢体总分值,通过RULA工作表获取人体姿势的RULA分值。本发明所提供的RULA评价方法做到了人机工效的快速、实时、准确评价。
-
公开(公告)号:CN113269448A
公开(公告)日:2021-08-17
申请号:CN202110601322.1
申请日:2021-05-31
申请人: 北京理工大学
摘要: 本发明公开虚拟现实环境中人机工效的可装配性评价系统及方法,本发明提供的系统包括:运动捕捉装置,图形工作站;所述图形工作站与运动捕捉装置连接;所述运动捕捉装置用于采集真实运动数据;所述图形工作站用于获取所述真实运动数据,基于所述真实运动数据,控制虚拟测试场景中的虚拟测试人体,基于所述虚拟测试人体,获取可装配性评价结果。本发明提供的系统可以准确获取可装配性评价结果,同时不需要人工进行采集及逐帧抓取,极大的减少了时间。
-
公开(公告)号:CN111506199B
公开(公告)日:2021-06-25
申请号:CN202010374817.0
申请日:2020-05-06
申请人: 北京理工大学
摘要: 本发明公开了一种基于Kinect的高精度无标记全身运动追踪系统,系统包括:骨骼节点数据获取单元、坐标转换单元、数据约束处理单元、骨骼数据权重计算单元、位置信息获取单元、运动追踪信息获取单元。通过得到目标骨骼节点数据,得到目标骨骼节点数据的置信度,从而得到数据层权重,根据数据层权重和系统层权重得到权重分配数据观测模型,根据权重分配数据观测模型以及追踪数据二阶预测模型,通过卡尔曼滤波进行数据融合得到骨骼节点数据的位置信息,根据位置信息,得到骨骼节点数据对应的运动追踪信息。本技术方案通过计算目标骨骼节点数据的置信度以及骨骼数据权重,并获取位置信息,进而得到运动追踪信息,提高了人体运动姿态捕捉的精度。
-
公开(公告)号:CN110162179A
公开(公告)日:2019-08-23
申请号:CN201910437592.6
申请日:2019-05-24
申请人: 北京理工大学 , 河北翼凌机械制造总厂
摘要: 本发明公开了一种智能感知虚拟装配系统,本系统采用的虚拟现实仿真硬件设备,配备有一个头戴式显示器、两个手持控制器、两个定位基站,并搭配LeapMotion体感交互设备,来代替原有的手持控制器,使操作更加灵活自由。同时可支持大屏幕和投影设备的接入,为虚拟装配提供第三视角。软件部分包含装配约束智能识别模块、手势识别交互模块、自适应视线辅助交互模块和数据可视化装配辅助模块。本发明的优点在于:利用HTC Vive头戴显示器,结合两个单手控制器及LeapMotion交互设备的相互配合使用,实现零件的抓取及装配操作,从而使虚拟装配的精确度更高,人机交互性更强,同时通过可视化信息显示、多模型电子手册交互界面和多方式人机交互的设计,提高了装配的训练效果。
-
公开(公告)号:CN113331825B
公开(公告)日:2022-01-18
申请号:CN202110600585.0
申请日:2021-05-31
申请人: 北京理工大学
摘要: 本发明提供了一种虚拟现实中RULA实时评价方法,包括,采集动作帧,基于所述动作帧,建立空间坐标系,基于所述空间坐标系,提取关节点坐标,基于所述关节点坐标,获取各肢体向量;基于所述关节点坐标及空间坐标系中坐标轴,获取主矢状面和修正矢状面;基于各肢体向量、主矢状面及修正矢状面,获取各肢体主分值和各肢体修正分值;基于所述各肢体主分值及各肢体修正分值,得到各肢体总分值,基于所述各肢体总分值,通过RULA工作表获取人体姿势的RULA分值。本发明所提供的RULA评价方法做到了人机工效的快速、实时、准确评价。
-
公开(公告)号:CN113221381A
公开(公告)日:2021-08-06
申请号:CN202110609017.7
申请日:2021-06-01
申请人: 北京理工大学
摘要: 本发明公开一种虚拟现实多视角融合模型的设计方法,包括以下步骤:根据交互任务,采集视角类型,获得主视角、辅助视角以及主视角、辅助视角之间的配置模式和融合方法;根据配置模式和融合方法,构建多视角融合模型,多视角融合模型用于获得主视角图像和辅助视角图像,并将辅助视角图像融合到主视角图像中,获得多视角融合图像。本发明的多视角融合模型设计方法,使用户根据交互任务对用户空间感知与交互精度的不同需求与对辅助视角在信息丰富程度、直观性和用户介入程度三个方面的需求,先后确定主辅视角的配置模式和辅助视角的融合方法,以确定合适的多视角融合模型,为用户提供周围环境的空间信息,保证肢体运动姿态的正确性与交互的自然性。
-
公开(公告)号:CN111506199A
公开(公告)日:2020-08-07
申请号:CN202010374817.0
申请日:2020-05-06
申请人: 北京理工大学
摘要: 本发明公开了一种基于Kinect的高精度无标记全身运动追踪系统,系统包括:骨骼节点数据获取单元、坐标转换单元、数据约束处理单元、骨骼数据权重计算单元、位置信息获取单元、运动追踪信息获取单元。通过得到目标骨骼节点数据,得到目标骨骼节点数据的置信度,从而得到数据层权重,根据数据层权重和系统层权重得到权重分配数据观测模型,根据权重分配数据观测模型以及追踪数据二阶预测模型,通过卡尔曼滤波进行数据融合得到骨骼节点数据的位置信息,根据位置信息,得到骨骼节点数据对应的运动追踪信息。本技术方案通过计算目标骨骼节点数据的置信度以及骨骼数据权重,并获取位置信息,进而得到运动追踪信息,提高了人体运动姿态捕捉的精度。
-
-
-
-
-
-
-