-
公开(公告)号:CN118037903A
公开(公告)日:2024-05-14
申请号:CN202410089516.1
申请日:2024-01-22
Applicant: 北京邮电大学
IPC: G06T13/40
Abstract: 本发明公开了一种数字人模型规格转换及轻量化驱动方法,包括如下步骤:上传数字人模型,并为数字人模型标记鼻部位置;为模型新建动画控制器Animator,并为其绑定相应动画;切断部分模型骨骼与Hip骨骼联系;对数字人模型进行初始化。本发明通过将待驱动骨骼的坐标系自其模型域转换至其约定的子级骨骼的骨骼域,解决因数字人模型规格差异使针对单一模型研究发明的肢体驱动方法很难复用在不同规格数字人模型驱动中的问题,同时提出了基于动画融合的优化方式,解决了数字人动画驱动与实时姿态数据驱动的冲突,能够在仅驱动头部与半身的情况下,使数字人部分肢体通过实时姿态数据驱动,起到了解决数字人模型漂浮、僵硬的驱动效果优化作用。
-
公开(公告)号:CN116050481A
公开(公告)日:2023-05-02
申请号:CN202211740313.1
申请日:2022-12-29
Applicant: 北京邮电大学
IPC: G06N3/0475 , G06N3/0455 , G06N3/0895 , G06N3/096 , G06F18/25 , G06T11/00
Abstract: 本发明提供了一种基于对比学习的图像生成方法、装置、设备及介质,所述方法包括:将准备好的图文数据对构建为图文数据集,图文数据对为图文之间呈关联关系的图文数据,利用图文数据集对预先基于对比学习构建的图像生成模型进行训练,以得到训练后的图像生成模型,图像生成模型中包含用于对图文特征进行对齐的对齐模块以及用于对图文特征进行融合生成的生成模块,当获取到待处理的文本数据,则利用训练后的图像生成模型生成与待处理文本数据对应的图像。本方法在图文特征融合生成之前,先使用对比学习对图文特征进行对齐,使生成的图像更加具有多样性,且模型简单易于训练,容易落地实施。
-
公开(公告)号:CN110795235B
公开(公告)日:2022-07-19
申请号:CN201910911077.7
申请日:2019-09-25
Applicant: 北京邮电大学
Abstract: 本发明实施例提供一种移动web深度学习协作的方法及系统。该方法包括:通过移动web浏览器加载目标任务,对目标任务进行预处理,并向边缘服务器发送深度学习计算请求;边缘服务器根据深度学习计算请求和当前上下文信息,计算压缩深度神经网络模型需求,并向移动web浏览器返回满足的压缩深度神经网络模型;移动web浏览器接收并执行压缩深度神经网络的前馈过程,得到第一任务计算结果,并将第一层卷积层作为共享层的暂存结果;移动web浏览器计算第一任务计算结果的标准交叉熵,若判断标准交叉熵大于预设阈值,则接收第一任务计算结果。本发明实施例提出的移动Web深度学习协作,有效降低了模型的传输和前馈计算时延。
-
公开(公告)号:CN113810736A
公开(公告)日:2021-12-17
申请号:CN202110985757.0
申请日:2021-08-26
Applicant: 北京邮电大学
IPC: H04N21/234 , H04N19/597
Abstract: 本发明公开了一种AI驱动的实时点云视频传输方法及系统,该方法包括:利用AI生成设备获取视频数据信息,并对该视频数据信息进行处理,得到点云视频数据;对点云视频数据进行分层特征提取,确定点云视频帧中的关键点云特征,并传输该关键点云特征;接收的关键点云特征,并对接收的关键点云特征进行扩展与重构,获得与原始输入点云相似的点云信息,形成视觉效果上的原始点云视频。本发明通过将原始需要传输的点云视频流进行特征提取,只传输部分关键点云特征,最后在接收端进行恢复重建,达到视觉上传输的是原始点云视频的效果,可以显著降低点云视频流的传输量和能耗,避免了传统传输方案中繁琐的多重处理,大大减少了数据传输量。
-
公开(公告)号:CN110232338A
公开(公告)日:2019-09-13
申请号:CN201910458117.7
申请日:2019-05-29
Applicant: 北京邮电大学
IPC: G06K9/00 , G06K9/62 , G06N3/04 , G06N3/08 , G06F16/957
Abstract: 本发明实施例提供一种基于二值神经网络的轻量化Web AR识别方法及系统,所述方法包括:移动Web浏览器加载目标图像并对图像进行预处理,同时向边缘服务器发送目标识别任务请求;接收边缘服务器返回的二值神经网络模型及相关可执行脚本,并执行二值神经网络前馈计算,获得图像识别结果并暂存共享层输出结果,判断图像识别结果的交叉熵是否满足预设阈值,若不满足,将共享层输出结果发送至边缘服务器进行前馈推理。本发明实施例引入二值神经网络加速了网络推理,减少了图像识别加载时延以及设备能量消耗的压力,可充分利用移动终端的计算资源,有效缓解边缘服务器的计算压力,为Web AR应用提供了实时的解决方案。
-
公开(公告)号:CN118823074A
公开(公告)日:2024-10-22
申请号:CN202311055603.7
申请日:2023-08-21
Applicant: 中国移动通信有限公司研究院 , 北京邮电大学 , 中国移动通信集团有限公司
Abstract: 本发明提供了一种位姿估计方法、装置、设备和存储介质,位姿估计方法包括:对第一目标视频帧进行识别得到识别结果;若第一目标视频帧的识别结果指示识别到预设跟踪目标且满足目标条件,根据基于重投影的姿态估计算法和第一目标视频帧生成目标摄像设备的设备位姿,获取第三目标视频帧,根据光流法生成目标摄像设备的设备位姿;根据RANSAC算法确定跟踪结果;若跟踪结果指示跟踪成功,将第一目标视频帧更新为第三目标视频帧返回获取第三目标视频帧的步骤;若跟踪结果指示跟踪失败将第一目标视频帧更新为第三目标视频帧,返回对第一目标视频帧进行识别得到识别结果的步骤。本方案能够减少目标摄像设备的位姿运算时长。
-
公开(公告)号:CN113936120B
公开(公告)日:2024-07-12
申请号:CN202111184543.X
申请日:2021-10-12
Applicant: 北京邮电大学
Abstract: 本发明公开了一种无标记的轻量化Web AR方法及系统,该方法包括:Web终端采集环境图像,实时获取视频流和IMU数据;根据获取的视频流和IMU数据进行位姿估计,其中,所述位姿估计通过系统文件中的视觉惯性里程计算法和轻量级位姿估计来确定,并使用视觉惯性里程计算法求解的路标点更新地图;判断视觉惯性里程计算法得到的位姿是否有效,如果有效,则采用视觉惯性里程计算法得到的位姿更新虚拟世界的相机位姿和场景,否则,采用轻量级位姿估计得到的结果进行更新;根据系统文件中的AR模型,对更新后的虚拟世界的相机位姿和场景进行渲染,并将渲染后的结果输出给视频流,呈现给用户。
-
公开(公告)号:CN118037952A
公开(公告)日:2024-05-14
申请号:CN202410086329.8
申请日:2024-01-22
Applicant: 北京邮电大学
IPC: G06T17/00 , G06N3/045 , G06N3/0464 , G06N3/08
Abstract: 本发明公开一种三维人体重建方法及系统,该方法包括:获取人体姿态数据集和RGBD图像训练数据,基于人体姿态数据集和RGBD图像训练数据,分别构建人体形状网络模型和深度隐式人体表面网络模型;实时获取人体的RGBD图像,将RGBD图像输入到人体形状网络模型和深度隐式人体表面网络模型,得到人体形状模型以及表征全局深度RGBD图像;将表征全局深度RGBD图像投影至三维空间,得到三维点集,并从三维点集中获得采样点集;获取所有采样点的采样点特征,根据采样点特征和人体形状模型,计算采样点的表面占用值;并根据表面占用值,利用等直面提取法从对应采样点中提取人体表面模型,获得三维人体模型。本发明能够较为便捷地获取输入信息并且得到高质量的三维人体模型。
-
公开(公告)号:CN118032001A
公开(公告)日:2024-05-14
申请号:CN202410089910.5
申请日:2024-01-23
Applicant: 北京邮电大学
IPC: G01C22/00 , G06N3/0464 , G06N3/08 , G01C21/16
Abstract: 本发明公开了一种单目视觉惯性里程计方法及系统,该方法包括:获取数据图像以及IMU数据;对数据图像进行特征提取,得到光流特征,并对光流特征进行编码,得到图像特征编码结果;对IMU数据进行数据转换,并对转换后的IMU数据进行积分处理,生成基于IMU的位姿变化量;根据图像特征编码结果和位置变化量,估计出最终位置变化量;并基于最终位置变化量,对具有位移估计部分元和角度估计部分的基于多尺度Transformer的神经网络模型进行训练,得到位姿估计模型;利用位姿估计模型,基于单目相机捕获的实时数据图像和惯性传感器所采集的实时IMU数据,进行最后位姿估计。本发明操作门槛低,计算量少,长距离估计精度高。
-
公开(公告)号:CN116429103A
公开(公告)日:2023-07-14
申请号:CN202211739315.9
申请日:2022-12-30
Applicant: 北京邮电大学
Abstract: 本发明实现了一种端云融合的室内Web AR导航方法及系统,具体工作分为以下几点:(1)本发明引入了基于地图构建的视觉定位方式,相较于其他定位系统,部署简单成本低。(2)本发明依赖三维重建从相机运动中恢复周围环境,构建稀疏点云地图并实现尺度恢复以适配真实环境的坐标系,确保预先构建的地图可用且精度高。(3)本发明采用分层定位方式以实现大规模地图定位,考虑到只依赖视觉定位方式无法满足Web AR导航系统的实时性,引入了行人航位推算以实现短期位姿跟踪。(4)本发明统一云端视觉定位和PDR求解位姿,使得行人运动轨迹平滑。(5)本发明通过将AR导航功能移植至Web端以实现无需部署的跨平台系统。
-
-
-
-
-
-
-
-
-