基于盲超分辨率网络的图像重建方法

    公开(公告)号:CN114494015A

    公开(公告)日:2022-05-13

    申请号:CN202210083251.5

    申请日:2022-01-25

    Abstract: 本发明提出了一种基于盲超分辨率网络的图像重建方法,实现步骤为:(1)获取训练样本集和测试样本集;(2)构建基于盲超分辨率网络的图像重建模型O;(3)对盲超分率图像重建网络模型O进行迭代训练;(4)获取图像重建结果。本发明所构建的盲超分辨率图像重建模型,能够根据不同退化图像自适应进行模糊核估计并修正模糊核,使的估计的模糊核更加准确,解决了现有技术中存在的因模糊核估计不准确导致重建图像纹理模糊和结构失真的技术问题,在保证重建图像分辨率前提下,有效提高了重建图像的质量。

    基于盲超分辨率网络的图像重建方法

    公开(公告)号:CN114494015B

    公开(公告)日:2024-07-02

    申请号:CN202210083251.5

    申请日:2022-01-25

    Abstract: 本发明提出了一种基于盲超分辨率网络的图像重建方法,实现步骤为:(1)获取训练样本集和测试样本集;(2)构建基于盲超分辨率网络的图像重建模型O;(3)对盲超分率图像重建网络模型O进行迭代训练;(4)获取图像重建结果。本发明所构建的盲超分辨率图像重建模型,能够根据不同退化图像自适应进行模糊核估计并修正模糊核,使的估计的模糊核更加准确,解决了现有技术中存在的因模糊核估计不准确导致重建图像纹理模糊和结构失真的技术问题,在保证重建图像分辨率前提下,有效提高了重建图像的质量。

    基于渐进式感知和超轻量级网络的图像超分辨率重建方法

    公开(公告)号:CN113096015B

    公开(公告)日:2023-04-28

    申请号:CN202110381620.4

    申请日:2021-04-09

    Abstract: 本发明提出了一种基于渐进式感知和超轻量级网络的图像超分辨率重建方法,解决了现有技术超分后的图像存在的结构畸变和几何失真的现象,实现步骤为:构建低参数密度的内容重建生成网络;构建低参数密度的感知重建生成网络;生成训练集;训练内容重建生成网络;利用内容相关特征训练感知重建生成网络;对自然图像进行超分辨率重建。本发明采用渐进式的重建方式逐步重建出结构清晰的图像,同时由于构建的生成网络的拓扑结构简单、参数量少,易于用于计算资源受限的移动设备及专有芯片中。

    基于无监督多阶段融合网络的遥感图像超分辨率重建方法

    公开(公告)号:CN113538246B

    公开(公告)日:2023-04-07

    申请号:CN202110911768.4

    申请日:2021-08-10

    Abstract: 本发明公开了一种基于无监督多阶段融合的遥感图像超分辨率重建方法,主要解决现有遥感图像超分辨率重建方法鲁棒性差和超分后的遥感图像纹理模糊的问题,其实现步骤为:构建由多阶段融合网络;生成非匹配的训练集;利用构建一致性损失函数对网络依次进行内容一致性、感知内容一致性和感知分布一致性三个阶段的训练;对遥感图像进行超分辨率重建。本发明通过有效利用多阶段融合网络中的多层次特征,使用非匹配的真实遥感图像对网络进行训练,使得该方法具有较强鲁棒性,本发明在保留低分辨率遥感图像上的内容的同时挖掘其底层的感知相似性,以获得更加真实清晰的纹理。

    基于渐进式感知和超轻量级网络的图像超分辨率重建方法

    公开(公告)号:CN113096015A

    公开(公告)日:2021-07-09

    申请号:CN202110381620.4

    申请日:2021-04-09

    Abstract: 本发明提出了一种基于渐进式感知和超轻量级网络的图像超分辨率重建方法,解决了现有技术超分后的图像存在的结构畸变和几何失真的现象,实现步骤为:构建低参数密度的内容重建生成网络;构建低参数密度的感知重建生成网络;生成训练集;训练内容重建生成网络;利用内容相关特征训练感知重建生成网络;对自然图像进行超分辨率重建。本发明采用渐进式的重建方式逐步重建出结构清晰的图像,同时由于构建的生成网络的拓扑结构简单、参数量少,易于用于计算资源受限的移动设备及专有芯片中。

    基于时空联合注意力的视频插帧方法

    公开(公告)号:CN114598833B

    公开(公告)日:2023-02-10

    申请号:CN202210305381.9

    申请日:2022-03-25

    Abstract: 本发明提出了一种基于时空联合注意力的视频插帧方法,实现步骤为:(1)获取训练数据集和数据集;(2)构建基于时空联合注意力的视频插帧网络;(3)对视频插帧网络模型迭代训练;(4)获取视频插帧结果。本发明所构建的基于时空联合注意力的视频插帧模型,利用时空注意力机制去捕获输入帧之间的时空关系,并对复杂运动进行建模,完成了高质量的视频插帧。与现有的大多数网络相比,本算法不使用额外的光流输入,避免了光流估计带来的额外误差,同时使得网络参数量低,有实际应用价值。

    基于时空联合注意力的视频插帧方法

    公开(公告)号:CN114598833A

    公开(公告)日:2022-06-07

    申请号:CN202210305381.9

    申请日:2022-03-25

    Abstract: 本发明提出了一种基于时空联合注意力的视频插帧方法,实现步骤为:(1)获取训练数据集和数据集;(2)构建基于时空联合注意力的视频插帧网络;(3)对视频插帧网络模型迭代训练;(4)获取视频插帧结果。本发明所构建的基于时空联合注意力的视频插帧模型,利用时空注意力机制去捕获输入帧之间的时空关系,并对复杂运动进行建模,完成了高质量的视频插帧。与现有的大多数网络相比,本算法不使用额外的光流输入,避免了光流估计带来的额外误差,同时使得网络参数量低,有实际应用价值。

    基于无监督多阶段融合网络的遥感图像超分辨率重建方法

    公开(公告)号:CN113538246A

    公开(公告)日:2021-10-22

    申请号:CN202110911768.4

    申请日:2021-08-10

    Abstract: 本发明公开了一种基于无监督多阶段融合的遥感图像超分辨率重建方法,主要解决现有遥感图像超分辨率重建方法鲁棒性差和超分后的遥感图像纹理模糊的问题,其实现步骤为:构建由多阶段融合网络;生成非匹配的训练集;利用构建一致性损失函数对网络依次进行内容一致性、感知内容一致性和感知分布一致性三个阶段的训练;对遥感图像进行超分辨率重建。本发明通过有效利用多阶段融合网络中的多层次特征,使用非匹配的真实遥感图像对网络进行训练,使得该方法具有较强鲁棒性,本发明在保留低分辨率遥感图像上的内容的同时挖掘其底层的感知相似性,以获得更加真实清晰的纹理。

Patent Agency Ranking