基于单目视频的三维游戏交互系统

    公开(公告)号:CN102622509A

    公开(公告)日:2012-08-01

    申请号:CN201210020325.7

    申请日:2012-01-21

    申请人: 天津大学

    发明人: 刘艳 孙战利

    IPC分类号: G06F19/00 G06F3/01

    摘要: 本发明涉及基于视频的运动捕获技术领域,公开了一种基于单目视频的三维游戏交互系统,该系统包括:运动捕获模块,该模块用于处理摄像头的视频输入数据,然后输出三维模型的运动数据,游戏主系统提取运动数据并根据它们来驱动玩家模型,以及,三维引擎模块,作为该系统的主模块,用于处理与3D绘制,并提供与Ogre引擎相关的接口。与现有方法相比,本发明的优势在于:将关键的交互功能由软件实现;一般电脑都配有摄像头,设备简单易得。这样,当玩家想进行交互式电子游戏时,不需购置专门设备,就能体验体感游戏的乐趣。

    基于CUDA架构的针织布料仿真方法

    公开(公告)号:CN102810212A

    公开(公告)日:2012-12-05

    申请号:CN201210180733.9

    申请日:2012-06-04

    申请人: 天津大学

    发明人: 刘艳 程天翔

    IPC分类号: G06T13/80

    摘要: 本发明公开了一种基于CUDA架构的针织布料仿真方法,利用针织节模型实现针织布料的运动仿真,该方法包括步骤:绘制单个针织节模型;建立单个针织节的受力方程;根据受力方程实现单个针织节的形变仿真;扩展到多个针织节的形变,构成针织面料仿真结果。与现有技术相比,本发明充分利用了CUDA架构进行并行计算,大大提高了针织布料仿真的速度。

    一种古建筑信息的可视化方法

    公开(公告)号:CN102708162A

    公开(公告)日:2012-10-03

    申请号:CN201210123805.6

    申请日:2012-04-25

    申请人: 天津大学

    发明人: 刘艳 许博

    IPC分类号: G06F17/30 G06T19/00

    摘要: 本发明公开了一种古建筑信息的可视化方法,将古建筑地图中的数据导入ArcGIS桌面组件中,获取二维虚拟模型;从所述二维虚拟模型中获取粗略高程信息,根据所述粗略高程信息通过ArcScene三维建模形成三维地形,通过3DMAX对所述三维地形添加纹理,导出三维模型;创建地图页面和场景页面,将所述二维虚拟模型导入所述地图页面中;将所述三维模型导入所述场景页面中;在所述地图页面中选择任意区域,通过鹰眼获取相应的数据信息。本方法通过地图页面获取古建筑的地理信息,将地理信息通过图像的方式显示出来,降低了对技术人员的要求;存储的信息具有直观性和空间性。

    一种基于深度神经网络的相机姿态估计方法

    公开(公告)号:CN110490928B

    公开(公告)日:2023-08-15

    申请号:CN201910603891.2

    申请日:2019-07-05

    申请人: 天津大学

    IPC分类号: G06T7/70

    摘要: 本发明公开了一种基于深度神经网络的相机姿态估计方法,步骤如下:1)构建相机姿态估计网络;2)构建无监督训练方案,利用估计的深度图、帧间相对位姿及光流从输入的前后帧图像中分别重建出相应的图像,利用输入图像和重建图像之间的光度误差构建网络的损失函数;3)位姿估计模块与光流估计模块共享特征提取部分,加强特征对于帧间的几何联系;4)输入待训练单视点视频,输出对应帧间相对位姿,通过最优化手段降低损失函数来训练模型,以至网络达到收敛。本发明所提出的模型通过输入单视点视频序列输出对应序列的相机位姿,训练过程以一种端到端无监督的方式进行,通过光流与位姿联合训练,提高位姿估计性能。

    一种基于注意力机制的神经网络的人体动作识别方法

    公开(公告)号:CN110728183A

    公开(公告)日:2020-01-24

    申请号:CN201910846654.9

    申请日:2019-09-09

    申请人: 天津大学

    摘要: 本发明公开了一种基于注意力机制的神经网络的人体动作识别方法,该方法提出了一个端到端的可训练网络,包括深度卷积子网络和注意力子网络,用于从骨架数据中识别人类动作。首先,将骨架序列编码为彩色的时空图并馈入深度卷积子网络中以提取深层次特征,并使用全连接层映射到标签空间中。在注意力子网络中,提取表示关节运动重要程度的手工制作的特征,并通过简单但有效的线性映射来学习注意力权重,其结果也通过全连接层映射到标签空间中。二者的结果通过乘法融合,得到最后的识别准确率。本发明可以最大幅度地自动从数据中提取有效的深层次特征。本发明的网络结构包含两个子网络,两个网络同时以端到端的方式进行联合训练而不需要后处理。

    一种基于深度神经网络的相机姿态估计方法

    公开(公告)号:CN110490928A

    公开(公告)日:2019-11-22

    申请号:CN201910603891.2

    申请日:2019-07-05

    申请人: 天津大学

    IPC分类号: G06T7/70

    摘要: 本发明公开了一种基于深度神经网络的相机姿态估计方法,步骤如下:1)构建相机姿态估计网络;2)构建无监督训练方案,利用估计的深度图、帧间相对位姿及光流从输入的前后帧图像中分别重建出相应的图像,利用输入图像和重建图像之间的光度误差构建网络的损失函数;3)位姿估计模块与光流估计模块共享特征提取部分,加强特征对于帧间的几何联系;4)输入待训练单视点视频,输出对应帧间相对位姿,通过最优化手段降低损失函数来训练模型,以至网络达到收敛。本发明所提出的模型通过输入单视点视频序列输出对应序列的相机位姿,训练过程以一种端到端无监督的方式进行,通过光流与位姿联合训练,提高位姿估计性能。

    利用flash脚本实现的三维骨骼动画控制系统及方法

    公开(公告)号:CN102810210A

    公开(公告)日:2012-12-05

    申请号:CN201210173387.1

    申请日:2012-05-30

    申请人: 天津大学

    发明人: 刘艳 韩智攀

    IPC分类号: G06T13/20

    摘要: 本发明公开了一种利用flash脚本实现的三维骨骼动画控制系统,该系统设置于上层的玩家和游戏开发人员界面与底层的Away3D Flash3D图形引擎和ActionScript3脚本之间的中间层,该系统包括3D开发的场景信息建立和脚本控制系统两部分,其中,所述场景信息建立涉及到了三个核心对象,即质点对象、二维向量和地图网格;所述脚本控制系统,包括脚本文本、脚本解析器、脚本对象、脚本管理器、触发控制器以及指令处理器。与现有技术相比,本发明利用脚本来控制动画,这种控制动画的方法方便快捷,因为这种方法不需要进行任何编程操作,只需要对动画进行命令输入,然后程序运用脚本生成动画。

    一种三维群体动画建模
    9.
    发明公开

    公开(公告)号:CN102768766A

    公开(公告)日:2012-11-07

    申请号:CN201210190654.6

    申请日:2012-06-11

    申请人: 天津大学

    发明人: 刘艳 吕敏

    IPC分类号: G06T17/00

    摘要: 本发明公开了一种三维群体动画建模,包括:实体导入模块、人群生成模块、人群着色模块和视图通信模块,所述实体导入模块用于将生成人群的人体模型及对应的模型数量,自动导入固定文件夹中所有的模型文件;所述人群生成模块根据导入的所述人体模型生成按照用户选择的阵型;所述人群着色模块用于实现人群着色和着色模式的选择;所述视图通信模块实现左右两个视图之间的通信以及全局变量的通信。本发明能够按照用户的需求,快速的建立群体模型,导入不同的3D人群模型,实现人群站位排列,对人群进行群体自动着色和对选中的模型进行单个着色,对生成的场景进行保存,半自动生成人群的几何模型,方便动画制作人员制作动画,节省群体动画的制作时间。

    一种基于注意力机制的神经网络的人体动作识别方法

    公开(公告)号:CN110728183B

    公开(公告)日:2023-09-22

    申请号:CN201910846654.9

    申请日:2019-09-09

    申请人: 天津大学

    摘要: 本发明公开了一种基于注意力机制的神经网络的人体动作识别方法,该方法提出了一个端到端的可训练网络,包括深度卷积子网络和注意力子网络,用于从骨架数据中识别人类动作。首先,将骨架序列编码为彩色的时空图并馈入深度卷积子网络中以提取深层次特征,并使用全连接层映射到标签空间中。在注意力子网络中,提取表示关节运动重要程度的手工制作的特征,并通过简单但有效的线性映射来学习注意力权重,其结果也通过全连接层映射到标签空间中。二者的结果通过乘法融合,得到最后的识别准确率。本发明可以最大幅度地自动从数据中提取有效的深层次特征。本发明的网络结构包含两个子网络,两个网络同时以端到端的方式进行联合训练而不需要后处理。