-
公开(公告)号:CN119583783A
公开(公告)日:2025-03-07
申请号:CN202411568700.0
申请日:2024-11-05
Applicant: 北京市农林科学院信息技术研究中心
IPC: H04N13/293 , H04N13/296
Abstract: 本发明提供一种VR系统制作方法和VR系统,应用于虚拟现实技术领域。该方法包括:获取虚拟现实VR全景视频数据,所述VR全景视频数据包括静态对象、动态对象以及动态对象之间的第一交互数据;单独制作用户与所述动态对象之间的第二交互数据,将所述VR全景视频数据与所述第二交互数据进行融合处理,得到全景交互视频数据;将所述全景交互视频数据与硬件设备进行集成处理。
-
公开(公告)号:CN119324978A
公开(公告)日:2025-01-17
申请号:CN202411202850.X
申请日:2024-08-29
Applicant: 北京邮电大学
IPC: H04N13/282 , H04N13/293 , H04N13/156 , H04N13/117 , H04N13/349
Abstract: 本发明提供的提高视点密集度的三维光场显示方法、装置和电子设备,涉及三维显示技术领域。其中,提高视点密集度的三维光场显示方法包括:获取第一方向上的携带编号信息的多个第一单目视图;根据显示面板上各个显示单元在观看平面上沿第一方向的成像位置,以及第一光场视点密度,确定第一光场合成图中每个位置单元所填充的单目视图信息对应的第一单目视图的编号;依据第一光场合成图中每个位置单元所填充的单目视图信息对应的第一单目视图的编号,将多个第一单目视图中的单目视图信息,填充到第一光场合成图中;将第一光场合成图发送到显示平面模块。本发明可以在不改变光场显示设备分辨率的前提下,显著提高三维光场的视点密集度。
-
公开(公告)号:CN118474332A
公开(公告)日:2024-08-09
申请号:CN202410432982.5
申请日:2024-04-10
Applicant: 珠海莫界科技有限公司
IPC: H04N13/332 , H04N13/20 , H04N13/106 , H04N13/293
Abstract: 本申请涉及近眼显示技术领域,提供一种近眼显示设备的控制方法、装置、设备及存储介质,近眼显示设备的控制方法包括:获取近眼显示设备的当前位姿信息;根据当前位姿信息以及预设场景地图,确定近眼显示设备在预设场景地图中的目标位姿信息;当在预设场景地图中,确定目标位姿信息对应的预设视角范围存在遮挡物时,根据目标位姿信息以及预设场景地图,确定被遮挡物遮挡的目标对象;通过近眼显示设备的显示器显示目标对象,以提升近眼显示设备的穿墙透视便捷性以及穿墙透视效果。
-
公开(公告)号:CN117793328A
公开(公告)日:2024-03-29
申请号:CN202410131204.2
申请日:2024-01-30
Applicant: 联想(北京)有限公司
Inventor: 马焱
IPC: H04N13/359 , H04N13/361 , H04N13/302 , H04N13/204 , H04N13/293 , G06V20/40
Abstract: 本申请实施例提供了一种图像处理方法及电子设备,所述图像处理方法包括:确定用户左眼及右眼的视场角,以及用户与屏幕间的距离;基于所述用户左眼及右眼的视场角及用户与所述屏幕间的距离确定所述目标摄像头在所述屏幕上的采样范围、对应用户左眼在屏幕上的第一视场范围及对应用户右眼在屏幕上的第二视场范围,所述采样范围覆盖第一视场范围和第二视场范围;获得所述目标摄像头在所述采样范围内采集得到的第一图像;渲染所述第一图像得到第一渲染图像;基于所述第一视场范围和第二视场范围对所述第一渲染图像进行内容提取,以得到对应第一视场范围的第二渲染图像,和对应第二视场范围的第三渲染图像。
-
公开(公告)号:CN117692610A
公开(公告)日:2024-03-12
申请号:CN202410146776.8
申请日:2024-02-02
Applicant: 建龙西林钢铁有限公司 , 北京建龙重工集团有限公司 , 中钢集团武汉安全环保研究院有限公司 , 华为云计算技术有限公司 , 哈尔滨工业大学
IPC: H04N7/18 , H04N13/275 , H04N13/293 , H04N13/332 , H04N7/14 , G06T19/00 , G06F3/01 , G06F18/22 , G06N5/022 , G06T19/20 , G06T7/33
Abstract: 本发明涉及巡检系统技术领域,具体涉及一种AR车间巡检系统,包括AR端、云端和专家端;AR端包括数据采集模块、构建孪生场景模块、第一人机交互模块和第一数据传输模块;云端包括数据管理模块、应用服务模块、知识库模块和数据分析模块;专家端包括专家模块、第二人机交互模块和第二数据传输模块;本发明通过设置AR端、云端和专家端;AR技术提供了一种直观的方式来展示操作步骤和指南,从而提高了操作的准确性和效率,可以允许专家端“看到”巡检人员所看到的,并提供实时指导。能即时查看分析数据,帮助巡检人员做出更快和更准确的决策,巡检人员能够双手自由操作,减少了操作过程中的复杂性,降低的巡检的专业门槛,获得专家亲临现场的效果。
-
公开(公告)号:CN117528049A
公开(公告)日:2024-02-06
申请号:CN202311547305.X
申请日:2023-11-20
Applicant: 深圳市迪威码半导体有限公司
IPC: H04N13/183 , H04N13/361 , H04N13/293
Abstract: 本发明针对软件实现无线图传叠加OSD会引起较大的时延、硬件实现OSD叠加不能满足多样化界面的一系列问题,提出了一种零延时无线图传OSD叠加显示算法,该方法主要包括如下步骤:视频格式自动识别;视频色彩空间转换;视频上/下采样;无线接收视频和OSD视频同步;识别并提取OSD数据;接收视频上叠加OSD界面。本发明主要是利用软件实现满足需求的精美OSD界面,然后通过一个FPGA对OSD数据和无线接收机接收的视频图像进行处理和叠加,最后显示输出,该发明在保证零延时输出叠加了千变万化的OSD视频图像的前提下,算法实现简单、硬件使用的资源也较少。
-
公开(公告)号:CN116847059A
公开(公告)日:2023-10-03
申请号:CN202210302614.X
申请日:2022-03-24
Applicant: 北京小米移动软件有限公司
Inventor: 包鼎华
IPC: H04N13/296 , H04N13/293 , H04N13/257
Abstract: 本公开是关于一种深度摄像头、深度图像采集装置和多传感器融合系统。深度摄像头包括:深度镜头,所述深度镜头用于生成触发信号,所述触发信号用于指示所述深度镜头执行第一曝光操作,以获取第一图像信息;RGB镜头,所述RGB镜头与所述深度镜头通信连接以接收所述触发信号,所述触发信号用于指示所述RGB镜头执行第二曝光操作,以获取第二图像信息;处理器,所述处理器与所述深度镜头和所述RGB镜头分别通信连接,以接收所述触发信号、所述第一图像信息和所述第二图像信息,所述处理器根据所述接收到所述触发信号的本地时间,记录所述第一图像信息和所述第二图像信息的时间戳。
-
公开(公告)号:CN116708736A
公开(公告)日:2023-09-05
申请号:CN202210177413.1
申请日:2022-02-25
Applicant: 宏碁股份有限公司
IPC: H04N13/106 , H04N13/271 , H04N13/293 , H04N13/30
Abstract: 提供一种立体影像产生装置,处理:取得第1影像的第1深度信息图,第1深度信息图的每一像素点具有对应的深度信息;以第1深度信息图的复数个边缘为基准,距离复数个边缘既定宽度以内的复数个边缘像素点为对象,进行一致化处理,使得处理后的复数个边缘像素点具有相同的深度信息,以建立第2深度信息图;基于第2深度信息图的每一像素点对应的深度信息,来设定第1影像的每一像素点对应的像素偏移量;对第1影像进行像素偏移处理,以产生第2影像;显示立体影像的第1影像以及第2影像。本公开还涉及一种立体影像产生方法。
-
公开(公告)号:CN114885147A
公开(公告)日:2022-08-09
申请号:CN202210812015.2
申请日:2022-07-12
Applicant: 中央广播电视总台
IPC: H04N13/243 , H04N13/293 , H04N13/366 , H04N13/398
Abstract: 本申请实施例提供一种融合制播系统及方法,包括:摄像机跟踪模块获取多个摄像机的位置参数和工作参数;显示渲染模块根据摄像机的位置参数和工作参数确定多个数字场景之间的立体透视关系,根据立体透视关系和数字场景得到三维虚拟场景,将三维虚拟场景发送至显示屏进行呈现;运动捕捉模块获取摄像机录制的视频,基于AI人体运动跟踪技术得到视频中人体的运动参数以进行制作,其中,视频基于显示屏呈现的三维虚拟场景和真实场景融合得到。本申请实施例通过摄像机跟踪模块获取多个摄像机的位置参数,方便多机位协同及切换匹配,采用AI智能动捕技术实现一套系统内多套摄像机同步跟踪及身体动作跟踪,无需佩戴额外的穿戴动作捕捉设备。
-
公开(公告)号:CN114666564A
公开(公告)日:2022-06-24
申请号:CN202210288938.2
申请日:2022-03-23
Applicant: 南京邮电大学
IPC: H04N13/221 , H04N13/293 , H04N13/282 , H04N13/111 , H04N13/156 , H04N13/15 , H04N13/106 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种在多视图立体跨视图损失的基础上利用隐式神经场景表示进行虚拟视点图像合成的方法,适用于计算机视觉领域。本方法包括:获取需产生虚拟视点的图像数据集;对训练图像数据集进行预处理,在预处理阶段基于特征匹配算法Sift对输入的训练图像数据集进行特征点提取和匹配;将获得的训练图像数据和所提取特征点信息经处理后输入多层感知器网络中进行训练;将测试图像数据输入训练好的多层感知器网络,后通过体渲染得到测试的渲染图像;基于训练好的多层感知器网络生成虚拟视点图像。由此通过减少神经网络在训练拟合场景表示时的数据量,及结合图像深度信息进行集中采样,能提高神经场景表示的运算速度与性能,生成高质量虚拟视点图像。
-
-
-
-
-
-
-
-
-