-
公开(公告)号:CN107888897B
公开(公告)日:2019-11-26
申请号:CN201711057783.7
申请日:2017-11-01
Applicant: 南京师范大学
IPC: H04N13/204 , H04N13/243 , H04N13/293 , G03B35/08
Abstract: 本发明公开了一种视频增强场景的优化方法,所述的方法包括以下步骤:(1)构建摄像机空间索引;(2)快速筛选可见摄像机候选集;(3)判断摄像机可见性。本发明通过将快速筛选和精细剪裁方法相结合,首先对摄像机集合快速筛选,获得可见候选集,然后对可见候选集中的摄像机采用三维光栅化方法精确统计可见像素比,确定是否剪裁摄像机。在确保融合效果的前提下,通过减少参与融合计算的摄像机数量,提高了视频增强场景的显示效率。
-
公开(公告)号:CN115834862B
公开(公告)日:2025-02-11
申请号:CN202211524786.8
申请日:2022-11-30
Applicant: 大连理工大学
IPC: H04N13/293 , H04N13/363 , H04N9/31 , H04N7/18 , G06T15/55 , G06T15/04
Abstract: 本发明属于虚拟现实技术领域,提出一种基于Unity3D的URP三维视频融合方法。本发明包括三维视频融合、更改虚拟相机属性、更改投影视频属性、多投影仪拼接、控制投影穿透、屏蔽视频黑边、调参面板功能。本发明基于Un ity3D引擎,通过模拟监控摄像头投影的方式,利用深度信息使监控画面与3D模型无缝融合,实现虚实结合的效果,并且编写脚本完成视频融合系统的各种具体功能。本发明成本低,可控度高,可跨平台开发,数据无需经过第三方平台,隐私更加安全。同时相较传统方案,开发更加简单,调参更加便捷,为视频融合开发人员提供了可靠的解决方案。
-
公开(公告)号:CN119383329A
公开(公告)日:2025-01-28
申请号:CN202310940339.9
申请日:2023-07-27
Applicant: 腾讯科技(深圳)有限公司
IPC: H04N13/332 , H04N13/293 , H04N13/361 , H04N21/431 , H04N21/2187 , G06F3/0483
Abstract: 本申请公开了一种赛事直播画面的呈现方法、装置、设备及介质,属于增强现实技术领域。所述方法由支持增强现实AR模式的显示设备执行,方法包括:运行显示设备上的赛事直播客户端;在AR模式下,呈现出以现实环境作为画面背景和以至少一个三维赛事直播展示元素作为画面前景的混合画面;其中,现实环境包括显示设备在现实空间中所处的周围环境,三维赛事直播展示元素是与赛事直播内容相关的三维虚拟元素。上述方法提供了一种应用于支持AR模式的显示设备的赛事直播画面。
-
公开(公告)号:CN119094724A
公开(公告)日:2024-12-06
申请号:CN202410996112.0
申请日:2024-07-24
Applicant: 株式会社万代
Inventor: 清宫僚太
IPC: H04N13/261 , H04N13/271 , H04N13/15 , H04N13/296 , H04N13/293 , H04N13/275
Abstract: 提供一种信息处理装置、计算机程序产品以及计算机可读存储介质。在拍摄对象物并使用拍摄得到的对象物的三维模型数据来生成在虚拟空间上配置了三维模型的影像时,能够将所生成的三维模型数据与拍摄对象物的属性信息建立关联来生成与属性信息相应的影像。信息处理装置具备:旋转控制单元,控制设置被摄体的旋转台的动作;扫描控制单元,控制扫描仪的位置和角度,生成被摄体的扫描图像;数据生成单元,根据扫描图像生成三维模型数据;影像生成单元,生成在虚拟空间内配置了基于三维模型数据的三维模型的影像;受理单元,受理与作为扫描对象的被摄体有关的属性信息的输入,其中,影像生成单元以包含与属性信息相应的每个被摄体的演出的方式生成影像。
-
公开(公告)号:CN118694910A
公开(公告)日:2024-09-24
申请号:CN202411187268.0
申请日:2024-08-28
Applicant: 中电信数字城市科技有限公司
IPC: H04N13/293 , H04N13/271 , H04N13/275 , G06T15/04 , G06T15/20
Abstract: 本发明提供了一种用于三维场景的视频融合方法、装置、系统、设备及介质,涉及视频处理的技术领域,该方法包括:获取视频流每帧的图像数据和采集设备的实时参数信息;对所述图像数据进行预处理,得到纹理图像;设置所述视频流在UE客户端显示的三维场景中对应的相机视口,并基于所述经纬度、所述高度和所述旋转角度,确定所述相机视口的缩放值;基于所述相机视口的缩放值,确定UV映射;基于所述UV映射,将所述纹理图像与三维场景融合,从而实现动态视频监控流与三维场景中三维模型的实时交互与融合,提升了可视化效果和用户体验。
-
公开(公告)号:CN117939102B
公开(公告)日:2024-08-02
申请号:CN202410103241.2
申请日:2024-01-25
Applicant: 山东科视文化产业有限公司
IPC: H04N13/279 , H04N13/254 , H04N13/293 , H04N13/296 , H04N13/122
Abstract: 本发明涉及广电虚拟应用技术领域,具体涉及一种基于XR模型实现广电工程应用的数据处理系统;通过与演播室现实摄像机位置一致进行现实场景的视频数据采集,通过模型构建单元将采集到的建筑物数据、环境数据、人员数据、天气数据及声音数据转变为数字模型,再通过AR渲染单元将数字模型渲染为AR渲染模型,由于演播厅人员现场摄像时必然会多个现实摄像机进行不同机位的变换,现实摄像机录下的人物画面与虚拟摄像机输出的AR渲染模型进行相同机位的画面叠加输出XR视频画面,确保了屏幕前观众的视野中画面与人员角度变化的同步性,也解决了不同节目要求下演播厅需求量大的问题,同时为了确保画面的流畅性。
-
公开(公告)号:CN115955554B
公开(公告)日:2024-07-12
申请号:CN202210735628.0
申请日:2022-06-27
Applicant: 浙江传媒学院
IPC: H04N13/275 , H04N13/293 , H04N21/431 , H04N21/4402 , H04N21/488
Abstract: 本发明公开了一种图层化的虚实融合视频制作方法,属于虚实融合领域的具体应用,包括:创建前景、中景、背景等视频图层集合,将复杂的虚实融合任务分解至不同图层独立进行处理与控制,通过素材库将用户定义的素材内容导入不同视频图层进行融合,并实时封装虚实融合后的视频内容,进行直播推流。特别的,针对虚实融合空间的影子生成,本发明提供了一种双目合成成像的视频影子生成方法以实现符合光影空间统一逻辑的融合效果。经验证,本发明在实时虚实融合视频直播上表现良好,为虚实融合视频制作提供了新的方法,可利用本发明进行实时制作富含多图层内容的虚实融合视频,并灵活支持用户的多样化内容表达需求。
-
公开(公告)号:CN113938580B
公开(公告)日:2024-06-04
申请号:CN202111218423.7
申请日:2017-05-22
Applicant: 佳能株式会社
IPC: H04N5/222 , G06T7/194 , G06T15/20 , H04N23/90 , H04N13/117 , H04N13/172 , H04N13/239 , H04N13/243 , H04N13/271 , H04N13/279 , H04N13/282 , H04N13/293
Abstract: 本发明涉及一种信息处理设备及其控制方法和计算机可读存储介质。用于系统的信息处理设备基于通过使用多个照相机从多个方向进行摄像所获得的图像数据来生成虚拟视点图像。所述信息处理设备包括:获得单元,其被配置为获得前景图像和背景图像,所述前景图像是基于用于生成虚拟视点图像的拍摄图像中的包括预定对象的对象区域,以及所述背景图像是基于所述拍摄图像中的与所述对象区域不同的区域,其中所获得的前景图像和所获得的背景图像具有不同的帧频;以及输出单元,其被配置为输出所述获得单元所获得的并且彼此相关联的前景图像和背景图像。
-
公开(公告)号:CN117880481A
公开(公告)日:2024-04-12
申请号:CN202410062295.9
申请日:2024-01-16
Applicant: 广东超元力文化科技有限公司
IPC: H04N13/279 , H04N13/156 , H04N13/293 , H04N13/00
Abstract: 本发明公开了一种扩大VR影片视野角的渲染方法,属于VR影片技术领域。本发明包含以下步骤:建立球体模型、建立球面摄像机,获取第一FOV视角的VR全景视频画面、建立VR显示终端设备、扩大FOV视角、调整VR全景视频的画面中心、导出单帧进行测试调整、获取扩大FOV视角后VR全景视频序列帧和获取扩大FOV视角的VR全景视频。本发明建立所述球面摄像机移动距离与扩大FOV视角关系,将调节FOV视角的渲染压力从VR显示终端设备转向VR视频片源,摆脱VR显示终端设备中播放器不支持调节FOV视角功能的束缚,确保VR全景视频在不同设备上具有良好的观看效果,提高设备的兼容性。
-
公开(公告)号:CN117440142A
公开(公告)日:2024-01-23
申请号:CN202311429316.8
申请日:2023-10-31
Applicant: 深圳市中诺智联科技有限公司
IPC: H04N13/279 , H04N13/361 , H04N13/293 , H04N13/122
Abstract: 本发明公开一种沉浸式多维运动感知方法、系统、终端与介质,所述方法包括:建模虚拟角色的行走动作;根据虚拟角色的行走动作进行实时渲染,生成初始音视频流;在用户开始移动时进行运行方向、角度的适度预测;提取初始音视频流的帧画面,并在对用户的姿态位置感知与预测基础上,通过异步时间扭曲算法对帧画面进行预设程度的拉伸及扭曲操作,生成对应中间帧,从而得到最终音视频流。本发明当场景画面无法保持足够的帧率时,能够通过产生中间帧进行弥补,维持较高的画面刷新率,以便在显示端快速矫正由于用户移动或转动而导致的画面缺失、模糊等现象,避免场景画面显示不足与用户体验不适。
-
-
-
-
-
-
-
-
-