一种基于真实噪场景的噪声评估方法、装置及可存储介质

    公开(公告)号:CN114764803B

    公开(公告)日:2022-09-20

    申请号:CN202210679685.1

    申请日:2022-06-16

    IPC分类号: G06T7/00

    摘要: 本发明公开了一种基于真实噪场景的噪声评估方法、装置及可存储介质,涉及图像处理技术领域,其中方法包括S1:在光线充足的环境下获取多张不同场景的干净图像,同时随机产生高斯噪声图,将所述高斯噪声图加入到所述干净图像中并扩展至与所述干净图像的大小相同,得到第一噪声图像;S2:在所述S1相同的场景下且光线不足的环境下,获取多张带噪声图像,并对所述带噪声图像进行处理,得到噪声均值图像,并对所述噪声均值图像进行处理得到对应的第二噪声图像等步骤;本发明通过对不同场景的噪声进行分类评估,可运用于拍照,摄像相关系统及终端设备。

    基于深度学习的电子防抖方法、系统及存储介质

    公开(公告)号:CN114429191B

    公开(公告)日:2023-03-28

    申请号:CN202210340322.5

    申请日:2022-04-02

    摘要: 本发明公开了一种基于深度学习的电子防抖方法、系统及存储介质,涉及电子防抖技术领域。具体步骤包括如下:获取原始图像;对所述原始图像进行特征点匹配,得到特征点匹配信息;根据所述特征点匹配信息,计算出每个特征点位移向量的水平位移和竖直位移;在所述水平位移和竖直位移的基础上,剔除异常位移向量,得到时域轨迹信息;对所述时域轨迹信息进行轨迹校正,得到平稳轨迹;把所述原始图像分区域翘曲到所述平稳轨迹上,得到稳定图像。本发明可以在无硬件支持的情况下,以低廉的计算成本快速匹配多场景抖动视频进行稳像操作,最大限度保证原视频质量的情况下,给观看者提供更好的视觉体验。

    一种基于深度学习的混合防抖方法及系统

    公开(公告)号:CN115174817A

    公开(公告)日:2022-10-11

    申请号:CN202211077092.4

    申请日:2022-09-05

    IPC分类号: H04N5/232 G06N3/08

    摘要: 本发明公开了一种基于深度学习的混合防抖方法及系统,方法包括:获取相机拍摄的视频,基于所述视频获取连续N帧图像;将连续N帧图像输入双向光流网络,获取双向光流网络的输出结果;获取相机的位姿数据;将所述双向光流网络的输出结果及所述位姿数据输入对齐网络;获取对齐网络的输出结果,将所述对齐网络的输出结果进行翘曲至对应的位姿上,得到当前图像帧的稳像结果,完成防抖操作。本发明实施例使用深度学习端对端的神经网络的方法计算稠密光流,比传统算法更鲁棒,得到的光流结果精度更高,在时域上对于历史上和未来的相机位姿数据进行选择。并在空域上对于位姿数据进行融合矫正,减少了防抖,提高了视频图像质量。

    一种基于深度学习的亲密矩阵视点合成方法、应用及系统

    公开(公告)号:CN115131409B

    公开(公告)日:2023-01-24

    申请号:CN202211030050.5

    申请日:2022-08-26

    摘要: 本发明公开了一种基于深度学习的亲密矩阵视点合成方法、应用及系统,涉及深度学习领域。本发明包括以下步骤:获取相邻两帧的数据对,将相邻两帧的数据对向参考帧对齐,得到边缘图像,并根据有效区域生成掩膜;利用双向光流网络相邻两帧的数据对的光流结果,根据光流结果推断帧间的遮挡区域;将边缘图像、掩膜以及光流结果归一化,输入到亲密矩阵网络;利用亲密矩阵网络和微调光流多次迭代结合合成全帧视点在RGB颜色空间图像。本发明吸取并融合传统算法和深度学习的优势,在日常视差,跑步,快速旋转和人群场景中可以提供优秀的视频稳像效果,并尽最大可能去保持高稳定性,降低截屏比和低扭曲变形的高质量视频。

    一种基于真实噪场景的噪声评估方法、装置及可存储介质

    公开(公告)号:CN114764803A

    公开(公告)日:2022-07-19

    申请号:CN202210679685.1

    申请日:2022-06-16

    IPC分类号: G06T7/00

    摘要: 本发明公开了一种基于真实噪场景的噪声评估方法、装置及可存储介质,涉及图像处理技术领域,其中方法包括S1:在光线充足的环境下获取多张不同场景的干净图像,同时随机产生高斯噪声图,将所述高斯噪声图加入到所述干净图像中并扩展至与所述干净图像的大小相同,得到第一噪声图像;S2:在所述S1相同的场景下且光线不足的环境下,获取多张带噪声图像,并对所述带噪声图像进行处理,得到噪声均值图像,并对所述噪声均值图像进行处理得到对应的第二噪声图像等步骤;本发明通过对不同场景的噪声进行分类评估,可运用于拍照,摄像相关系统及终端设备。

    基于深度学习的电子防抖方法、系统及存储介质

    公开(公告)号:CN114429191A

    公开(公告)日:2022-05-03

    申请号:CN202210340322.5

    申请日:2022-04-02

    摘要: 本发明公开了一种基于深度学习的电子防抖方法、系统及存储介质,涉及电子防抖技术领域。具体步骤包括如下:获取原始图像;对所述原始图像进行特征点匹配,得到特征点匹配信息;根据所述特征点匹配信息,计算出每个特征点位移向量的水平位移和竖直位移;在所述水平位移和竖直位移的基础上,剔除异常位移向量,得到时域轨迹信息;对所述时域轨迹信息进行轨迹校正,得到平稳轨迹;把所述原始图像分区域翘曲到所述平稳轨迹上,得到稳定图像。本发明可以在无硬件支持的情况下,以低廉的计算成本快速匹配多场景抖动视频进行稳像操作,最大限度保证原视频质量的情况下,给观看者提供更好的视觉体验。

    一种暗光图像增强方法
    7.
    发明公开

    公开(公告)号:CN111064904A

    公开(公告)日:2020-04-24

    申请号:CN201911370215.1

    申请日:2019-12-26

    IPC分类号: H04N5/243 H04N5/217 G06T5/00

    摘要: 本发明提供的一种暗光图像增强方法,其包括以下步骤:采集数据集,所述数据集的数据单元包含在具有同一场景设定下的多张短曝光图像和相应的长曝光图像;对所述数据集中的短曝光图像和长曝光图像进行预处理;构建CNN网络模型;对于所述模型进行迭代训练,并在所述迭代训练中更新网络参数使其达到一定的收敛条件完成训练;使用经过训练的所述模型对暗光图像进行增强。能够经过训练得到的模型应用于暗光图像上得到增强图像的方法来对暗光环境的图像进行增强。

    一种基于深度学习的亲密矩阵视点合成方法、应用及系统

    公开(公告)号:CN115131409A

    公开(公告)日:2022-09-30

    申请号:CN202211030050.5

    申请日:2022-08-26

    摘要: 本发明公开了一种基于深度学习的亲密矩阵视点合成方法、应用及系统,涉及深度学习领域。本发明包括以下步骤:获取相邻两帧的数据对,将相邻两帧的数据对向参考帧对齐,得到边缘图像,并根据有效区域生成掩膜;利用双向光流网络相邻两帧的数据对的光流结果,根据光流结果推断帧间的遮挡区域;将边缘图像、掩膜以及光流结果归一化,输入到亲密矩阵网络;利用亲密矩阵网络和微调光流多次迭代结合合成全帧视点在RGB颜色空间图像。本发明吸取并融合传统算法和深度学习的优势,在日常视差,跑步,快速旋转和人群场景中可以提供优秀的视频稳像效果,并尽最大可能去保持高稳定性,降低截屏比和低扭曲变形的高质量视频。