-
公开(公告)号:CN110418125B
公开(公告)日:2021-06-15
申请号:CN201910714931.0
申请日:2019-08-05
申请人: 长春理工大学
IPC分类号: H04N13/128 , H04N13/275 , H04N13/302
摘要: 本发明提供一种用深度信息和场景2D图片实现集成成像显示的元素图像快速生成方法。现有的元素图像生成方法是从场景到元素图像建立多对一映射,存在大量冗余计算。本发明的方法是建立从元素图像到场景的单点映射,元素图像中的每个像素只对应唯一的场景像素,匹配精度高,而且消除了深度阶跃处的空洞。本发明方法的时间复杂度主要受控于元素图像阵列像素总和,元素图像的计算生成速度是其它传统方法的7倍以上,且场景的像素总数越大,本发明方法的速度优势越明显。
-
公开(公告)号:CN110312123B
公开(公告)日:2020-12-08
申请号:CN201910559297.8
申请日:2019-06-28
申请人: 长春理工大学
IPC分类号: H04N13/302 , G02B30/27
摘要: 本发明公开一种利用彩色图像和深度图像生成集成成像系统微图像集合的方法,用于集成成像显示,主要包括整体映射和映射坐标校正两个步骤。本发明的微图像集合生成过程中,对于每个微透镜所对应的物体图像区域,首先根据中心深度进行整体映射;然后判断微图像单元中的映射像素是否需要校正;接下来只需要对真实深度与中心深度差值较大的物体像素重新计算其在微图像单元中的映射坐标,完成校正。本方法可以降低运算量,提高微图像集合的生成速度,有利于实现集成成像的实时采集与显示。
-
公开(公告)号:CN110290373A
公开(公告)日:2019-09-27
申请号:CN201910175043.6
申请日:2019-03-11
申请人: 长春理工大学
IPC分类号: H04N13/111 , H04N13/122
摘要: 本发明公开一种增大视角的集成成像计算重构方法。主要包括相邻微图像的配准、拼接和基于光线追踪的计算重构两个步骤。首先根据集成成像特点,利用相邻微图像之间的相似性,对相邻微图像进行配准、拼接,扩大每个微透镜对应的微图像区域。然后采用基于光线追踪的计算重构方法,从每个微图像中提取出1个对应像素,重构出某个特定视角的图像。本方法因为在传统的计算重构方法之前扩大了每个微透镜对应的微图像区域,因此可以扩大集成成像计算重构的视角范围,有利于实现集成成像的大视角显示。
-
公开(公告)号:CN109327703A
公开(公告)日:2019-02-12
申请号:CN201811349423.9
申请日:2018-11-13
申请人: 长春理工大学
IPC分类号: H04N19/597 , H04N19/176 , H04N19/11 , H04N19/147 , H04N19/132 , H04N13/161
摘要: 本发明涉及一种基于不同采样块的深度图编解码方法,属于三维立体视频编码标准中的深度图编码技术领域。包括边缘检测、宏块分割、帧内预测模式选择、帧内多分辨率宏块模式编码和解码端,将解码出来的码流进行块重构,根据编码规则将重构块进行上采样处理。优点是针对深度图仅包含物体轮廓信息这一特征,提出一种基于不同采样块的深度图编码方法,通过对包含不连续运动场的深度宏块进行自适应几何划分,获得了较好的预测结果,从而提高深度图编码的效率,同时降低深度图编码的复杂度。
-
公开(公告)号:CN107680054A
公开(公告)日:2018-02-09
申请号:CN201710878260.2
申请日:2017-09-26
申请人: 长春理工大学
CPC分类号: G06T5/003 , G06T3/0075 , G06T5/50 , G06T7/13 , G06T7/136 , G06T7/33 , G06T2207/10048 , G06T2207/20028 , G06T2207/20221
摘要: 本发明公开了一种雾霾环境下多源图像融合方法,将可见光图像去雾霾,得到去雾霾图像;进行图像配准;将待融合的图像进行融合,获得视觉效果好的可见光目标且突出了红外目标的图像。经实验证明,提出的方法能够提高可见光目标的清晰度,同时突出被遮挡的红外目标,便于目标识别。
-
公开(公告)号:CN107527332A
公开(公告)日:2017-12-29
申请号:CN201710944257.6
申请日:2017-10-12
申请人: 长春理工大学
摘要: 本发明公开了一种基于改进Retinex的低照度图像色彩保持增强方法,具体按照以下步骤进行:将低照度的滤波输入图I从RGB色彩空间转换到YUV色彩空间,滤波输入图I采用灰度图;利用改进的Retinex方法得到增强图像的反射分量R的Y分量RY,FGF,i;计算增强图像的UV分量;将增强图像从YUV色彩空间转换到RGB色彩空间,对越界像素点进行反馈型增强色彩分量,得到增强的低照度彩色图。将快速引导滤波器、单尺度Retinex和多通道色彩保持增强相融合,增强后图像色彩丰富、亮度及细节增强明显,解决了现有技术中时间成本大,易出现光晕、细节模糊、色彩失真的问题。
-
公开(公告)号:CN104065947A
公开(公告)日:2014-09-24
申请号:CN201410273013.6
申请日:2014-06-18
申请人: 长春理工大学
IPC分类号: H04N13/00
摘要: 本发明公开了一种集成成像系统的深度图获取方法,首先利用计算机重构方法生成不同视点的多幅视图;从中选择N幅具有连续水平视差的视图,以最左一幅视图为参考图像或最右一幅视图为参考图像,分别与其他视图进行立体匹配,得到N-1幅视差图;以参考图像的N-1幅视差图为基础,对每个像素点的N-1个视差值进行正比例函数拟合,拟合的系数即为该像素与最邻近视图的视差值,根据视差与深度的关系式,计算得到参考图像的深度图。本发明简化了深度测量过程,使得立体匹配过程比较容易实现,降低了视图之间在图像边缘区域和深度不连续区域的误匹配,去除由于记录噪声等因素产生的误匹配,提高了深度图的准确度。
-
公开(公告)号:CN118521621A
公开(公告)日:2024-08-20
申请号:CN202410584416.6
申请日:2024-05-11
申请人: 长春理工大学
摘要: 本发明提出了一种基于梯度的多分辨率单目深度估计方法,涉及三维成像及人工智能领域。该方法包输入图像预处理、预测多分辨率深度图和基于梯度的深度图融合。输入图像预处理:获取输入图像的低分辨率图和高分辨率图;预测多分辨率深度图:运用骨干单目深度估计网络对两种分辨率的输入分别预测,输出对应的低分辨率深度图和高分辨率深度图;基于梯度的深度图融合:改进一种基于梯度的合成方法,将上述两张预测输出图有效地融合,生成一个兼具两者优势、更为可信的深度图。该自监督多分辨率深度图融合方法实现了对多源深度信息的有效整合与提升,有助于提高深度估计任务的整体精度与可靠性。
-
公开(公告)号:CN118154618A
公开(公告)日:2024-06-07
申请号:CN202410291235.4
申请日:2024-03-14
申请人: 长春理工大学
IPC分类号: G06T7/10 , G06V10/764 , G06V10/774 , G06N3/04
摘要: 本发明属于超声图像分割技术领域,尤其为一种基于边界增强的递进式引导的乳腺肿瘤图像分割方法,该方法包括以下步骤:S1.选择合适的数据集,然后对数据集进行ROI区域的选择和mask图的处理;S2.准备数据集,对乳腺数据进行预处理,增加对比度,归一化和数据增强,数据集包括训练集加测试集;S3.建立一个用于乳腺分割的2D卷积神经网络。本发明,实现对于线肿瘤图像中对于乳腺肿瘤组织的识别与分割,通过设计一个名为BEPG‑Net的网络,提高网络模型的对于小肿块的识别精度和准确度,提高了对肿瘤边界特征的提取及边界特征的增强,同时兼顾了网络的轻量化,加快了网络的训练速度和识别速度,保证了模型大小的前提下提高了分割的精度。
-
公开(公告)号:CN107527332B
公开(公告)日:2020-07-31
申请号:CN201710944257.6
申请日:2017-10-12
申请人: 长春理工大学
摘要: 本发明公开了一种基于改进Retinex的低照度图像色彩保持增强方法,具体按照以下步骤进行:将低照度的滤波输入图I从RGB色彩空间转换到YUV色彩空间,滤波输入图I采用灰度图;利用改进的Retinex方法得到增强图像的反射分量R的Y分量RY,FGF,i;计算增强图像的UV分量;将增强图像从YUV色彩空间转换到RGB色彩空间,对越界像素点进行反馈型增强色彩分量,得到增强的低照度彩色图。将快速引导滤波器、单尺度Retinex和多通道色彩保持增强相融合,增强后图像色彩丰富、亮度及细节增强明显,解决了现有技术中时间成本大,易出现光晕、细节模糊、色彩失真的问题。
-
-
-
-
-
-
-
-
-