基于位置指引的多头对齐和融合视频超分辨率方法及系统

    公开(公告)号:CN117221474A

    公开(公告)日:2023-12-12

    申请号:CN202311220015.4

    申请日:2023-09-20

    摘要: 本发明属于视频处理技术领域,提供了基于位置指引的多头对齐和融合视频超分辨率方法及系统。其中,基于位置指引的多头对齐和融合视频超分辨率方法包括获取各个连续原始视频帧的高频增强特征;其中,连续原始视频帧由参考帧和支撑帧构成;基于高频增强特征与子图位置的关系,生成各个原始视频帧对齐到不同子图位置的对齐偏移值;再利用对齐偏移值与对齐特征图的关系,生成各个原始视频帧对齐到不同子图位置的对齐特征图;其中,子图为超分辨率视频帧经下采样得到的不同位置的像素;基于子图位置将所有原始视频帧的对齐特征图中的时域多帧对齐信息、空域多头信息和多通道间信息进行融合,得到融合特征图,再经上采样生成参考帧对应的超分辨率图像。

    基于运动物体位姿估计的自监督深度估计方法及系统

    公开(公告)号:CN117876452A

    公开(公告)日:2024-04-12

    申请号:CN202410181555.4

    申请日:2024-02-18

    摘要: 本发明提出了基于运动物体位姿估计的自监督深度估计方法及系统,包括:通过源帧,重建目标帧提供监督信号,构建自监督单目深度估计网络;使用彩色图像、预训练好的深度图作为自监督深度估计网络的输入,使用预训练好的深度估计网络和相机姿态预测网络处理单目视频,得到每帧所对应的初始深度图及相机位姿;利用已经得到的相机位姿将源帧的彩色图像利用坐标映射映射到目标帧;对深度图进行映射,将其从源帧映射到目标帧;将源帧映射好的彩色图像及深度图像与目标帧的彩色图像和深度图像拼接在一起,送至掩膜学习网络学习运动掩膜;将学习到的运动掩膜点乘拼接特征,送给网络学习得到运动物体的位姿,使用深度映射网络对目标帧的深度图进行增强。

    基于可变卷积帧间像素匹配的深度估计方法及系统

    公开(公告)号:CN117953030A

    公开(公告)日:2024-04-30

    申请号:CN202410101817.1

    申请日:2024-01-24

    摘要: 本发明公开了一种基于可变卷积帧间像素匹配的深度估计方法及系统,属于深度估计技术领域。包括将目标帧图像和源帧图像输入至姿态预测网络,获取相机变化姿态;将目标帧图像和源帧图像拼接后输入帧间偏移量学习网络,获取帧间像素匹配关系;可变卷积网络通过帧间像素匹配关系重建目标帧图像,在重建过程中,以目标帧图像重建误差为监督信号,学习帧间偏移量;根据相机内参、相机变化姿态,通过帧间像素匹配关系将帧间偏移量转换为序列深度信息;将目标帧图像和序列深度信息并行输入深度估计网络,获取目标帧图像对应的深度图。使用可变卷积实现自适应尺度变化下的匹配,提高深度估计的准确性,解决深度估计准确性被尺度变化影响的问题。

    一种轻量化气象灾害检测方法

    公开(公告)号:CN117274243B

    公开(公告)日:2024-01-26

    申请号:CN202311532736.9

    申请日:2023-11-17

    申请人: 山东大学

    摘要: 本发明涉及目标检测技术领域,尤其是提供了一种轻量化气象灾害检测方法。该方法包括搭建目标检测模型的特征提取网络;根据特征提取网络,搭建目标检测模型的检测头;将特征提取网络和检测头进行连接,构建气象灾害检测的目标检测模型;训练构建的目标检测模型,并对训练后的目标检测模型进行封装部署,该方法准确区别了云系目标,加快了对云系目标的识别和定位,从而提高对卫星云图中气象灾害图像检测的准确性。

    无分类偏差的连续语义分割方法及系统

    公开(公告)号:CN117392390A

    公开(公告)日:2024-01-12

    申请号:CN202311398315.1

    申请日:2023-10-25

    申请人: 山东大学

    摘要: 本发明提供了一种无分类偏差的连续语义分割方法及系统,提出了无分类偏见的连续语义分割网络,CWCB通过原型重播来重建类分布,从而在保持存储效率的同时,实现了出色的性能,CWCB结合了原型重播和背景重复,分别校正前景类和背景的比例;通过保存和重播原型而不是原始图像,CWCB将存储成本降低到其他重播基础方法的约1%,且不需要额外的数据;此外,本发明还提出了一个旧类特征维护损失,以保持旧类特征不变,同时保留学习新类的灵活性。

    一种基于压缩感知和生成对抗的鱼类图像生成方法

    公开(公告)号:CN116188259B

    公开(公告)日:2024-07-23

    申请号:CN202211572022.6

    申请日:2022-12-08

    IPC分类号: G06F30/27

    摘要: 本发明涉及一种基于压缩感知和生成对抗的鱼类图像生成方法,属于计算机视觉与深度学习技术领域,步骤包括:步骤1,基于高分辨率鱼类数据集训练压缩感知神经网络,获得低维观测信号和重构映射;步骤2,基于上述低维观测信号训练生成对抗网络,获得低维观测信号的生成器;步骤3,利用上述生成器,向生成器中输入噪声产生新的低维观测信号,利用上述重构映射将生成的低维观测信号重构为生成的高分辨率鱼类图片。本发明中生成器的输入为服从高斯分布的随机噪声,不需要从高维数据集中获得,因此本发明中获得的生成器可以将任意服从高斯分布的噪声生成为高清鱼类图像。且本发明可以生成与原始数据集服从同一分布而更加多样的不同高清鱼类图像。