-
公开(公告)号:CN113706696B
公开(公告)日:2023-09-19
申请号:CN202111023516.4
申请日:2021-09-02
申请人: 长春理工大学
IPC分类号: G06T17/00
摘要: 本发明公开一种基于对象视觉显著性的3D几何模型细节层次自适应选择方法。本方法利用帧间连续性,根据前一帧三维场景画面的显著性图计算三维场景几何对象的显著性值,据此作为在绘制下一帧三维场景画面时给三维场景的各个几何对象选择合适的几何模型细节层次的依据。由于给显著性值低的几何对象选择精细程度低的几何模型,减少了在执行光线跟踪时的三维场景几何模型数据量,因此能减小光线求交操作的计算开销,进而加快三维场景画面的绘制速度。
-
公开(公告)号:CN115333621B
公开(公告)日:2023-07-18
申请号:CN202210958112.2
申请日:2022-08-10
申请人: 长春理工大学
IPC分类号: H04B10/11 , H04B10/60 , G06N3/048 , G06N3/08 , G06V10/24 , G06V10/40 , G06V10/62 , G06V10/764 , G06V10/80 , G06V10/82
摘要: 本发明涉及一种分布式框架下融合时空特征的光斑质心预测方法,属于大气信道光信号传输领域。采集光斑信息形成光场强度样本集合,建立分布式框架,形成了包括映射模块和规约模块的光场强度样本处理模型,在映射模块中,利用特征提取方法提取了时间维度特征和空间维度特征,采用数据驱动的建模思想,构建了基于极限学习机的神经网络,形成关于时空特征和目标光斑质心的光参数映射模型;在规约模块中通过加权平均方法,实现光斑质心预测。本发明充分考虑了大数据环境下的光场强度样本信息,通过分布式处理和数据驱动,解决了光斑质心预测方法中物理驱动方式造成的计算困难的瓶颈,为构建不同湍流强度下的光斑质心预测提供了解决方案。
-
公开(公告)号:CN110675482B
公开(公告)日:2023-05-19
申请号:CN201910948328.9
申请日:2019-10-11
申请人: 长春理工大学
摘要: 本发明公开一种虚拟三维场景的球面斐波那契像素点阵全景画面渲染与显示方法。本方法把虚拟全景相机的成像面上的像素阵列表示成球面斐波那契像素点阵,并利用光线跟踪技术渲染全景画面。全景画面的像素点在全景视域球表面上均匀分布,可以保证全景画面所有区域的像素空间分布密度相同,进而使全景画面所有区域具有相同的清晰度。本方法能够正常地把所生成的全景画面的局部区域显示到显示设备上。
-
公开(公告)号:CN115935658A
公开(公告)日:2023-04-07
申请号:CN202211593097.2
申请日:2022-12-14
申请人: 长春理工大学
IPC分类号: G06F30/20 , G06F30/12 , G06T17/00 , G06V10/774 , G06Q10/06 , G06N3/0464 , G06N3/08
摘要: 本发明公开一种计算机渲染生成三维场景画面的混叠失真无参考评估方法。本方法利用深度学习技术,从待评计算机渲染生成三维场景画面图像中提取特征,并把特征转换成质量分数。本方法利用混叠失真模拟技术和FLIP评估模型来构建训练集。本方法能够预测不同像素角密度参数p条件下的混叠失真图像的视觉质量分数,在针对不同观看条件的适应性方面相比于现有方法具有优越性。
-
公开(公告)号:CN115908684A
公开(公告)日:2023-04-04
申请号:CN202211525663.6
申请日:2022-11-30
摘要: 本发明涉及一种视觉感知驱动的自适应三维场景渲染方法、系统及设备,属于虚拟三维场景绘制技术领域。本发明在图像渲染过程中先对待渲染图像进行初始预渲染;然后,采用RC显著性检测方法确定初始预渲染图像的显著性值,通过图像视觉显著性划分区域分别进行滤波重构;最后通过SURE估计像素和真实值的误差进行采样样本划分后,向误差较大区域投射样本进行自适应采样进一步渲染,进而利用人类视觉感知特性降低光线跟踪渲染技术所造成的计算开销。
-
公开(公告)号:CN110728741B
公开(公告)日:2022-08-23
申请号:CN201910948329.3
申请日:2019-10-11
申请人: 长春理工大学
摘要: 本发明公开一种基于多细节层次模型的面光源照射三维场景画面渲染方法。本方法根据正常细节层次三维场景模型计算视点光线和三维场景之间的离视点最近的交点,这可以保证渲染出的三维场景画面中的物体形状的精确性。本方法根据低细节层次三维场景模型来测试光源采样点和可视场景点之间是否存在遮挡,以实现光源可见性测试。低细节层次三维场景模型包含的几何面片数比正常细节层次三维场景模型包含的几何面片数少很多。本方法既可以保证生成的三维场景直接光照画面中的物体形状精确,又能提高画面渲染的速度。
-
公开(公告)号:CN117522936A
公开(公告)日:2024-02-06
申请号:CN202311598593.1
申请日:2023-11-28
申请人: 长春理工大学
摘要: 本发明提供了一种融合多信息辅助和轮廓检测的虚实遮挡处理方法,包括:获取相机信息,并进行相机标定和畸变校正;利用所述相机对真实场景信息进行采集得到真实场景影像;对所述真实数据影像进行分析,得到所述真实场景影像中的真实物体轮廓图;录入虚拟物体信息,并结合所述相机信息,生成虚拟物体深度影像;根据所述真实物体轮廓图和所述虚拟物体深度影像生成遮罩影像;对所述遮罩影像进行优化,并对所述虚拟物体的遮挡关系进行渲染生成结果影像输出,实现了虚拟物体在真实场景中的遮挡关系的输出,处理方法速度快,准确度高。
-
公开(公告)号:CN117274476A
公开(公告)日:2023-12-22
申请号:CN202311289419.9
申请日:2023-10-08
申请人: 长春理工大学
摘要: 本发明公开一种基于超分辨率重建的三维场景渲染加速方法,使用超分辨率重建技术根据低分辨率的间接光照结果重建出高分辨率结果,同时根据像素的直接光照值与间接光照值之比是否小于给定阈值,来决定是否对像素的间接光照结果进行精化,以便确保最终的画面质量。三维场景画面的间接光照的计算开销通常远比直接光照的计算开销大。由于本发明在渲染间接光照时采用低分辨率,因此可以显著减少三维场景画面的总渲染时间。
-
公开(公告)号:CN115761442A
公开(公告)日:2023-03-07
申请号:CN202211463148.X
申请日:2022-11-22
申请人: 长春理工大学
IPC分类号: G06V10/82 , G06V10/80 , G06V10/774 , G06V10/40 , G06V10/20 , G06N3/0455 , G06N3/0464 , G06N3/082 , G06T19/00
摘要: 本发明涉及一种面向AR的目标识别方法及移动端AR系统,涉及移动增强现实与目标检测领域,方法包括获取图片数据集;利用输入模块对所述图片数据集进行预处理,得到预处理后的图片;利用骨干模块对所述预处理后的图片进行特征提取,得到两个有效特征层;依次利用注意力机制模块和颈部模块对两个所述有效特征层进行处理,得到特征融合后的特征层;利用头部模块对所述特征融合后的特征层进行目标检测,得到目标识别结果。本发明在满足实时性的情况下,能够提高目标检测的检测精度和运动跟踪的稳定性,使用场景更加的多样化。
-
公开(公告)号:CN115713587A
公开(公告)日:2023-02-24
申请号:CN202211599997.8
申请日:2022-12-14
申请人: 长春理工大学
摘要: 本发明公开一种基于视觉注意的真实感三维场景全景画面渲染方法。本方法将虚拟三维场景全景画面的全局光照分成直接光照和间接光照两部分进行分别渲染。在本方法中,直接光照渲染采用全分辨率,但间接光照渲染采用低分辨率。由于本方法在渲染间接光照时采用低分辨率,因此可以显著减少渲染时间。另外,由于使用全景画面的显著性检测结果作为引导,精化容易被人眼注意到的部分像素的间接光照结果;因此尽管本方法使用了低分辨率间接光照渲染,仍然能确保人眼最终观看全景画面时的体验质量。
-
-
-
-
-
-
-
-
-