一种基于Transformer与卷积交互的轻量级图像超分辨率方法

    公开(公告)号:CN116596764B

    公开(公告)日:2023-10-31

    申请号:CN202310871402.8

    申请日:2023-07-17

    申请人: 华侨大学

    摘要: 本发明涉及图像处理技术领域,公开了一种基于Transformer与卷积交互的轻量级图像超分辨率方法,包括以下步骤:S1,构建跨通道Transformer模块与高效局部特征提取模块;S2,构建反转U型网络模块;S3,构建全局特征提炼模块;S4,将反转U型网络模块与全局特征提炼模块组合起来,构建基于Transformer与卷积交互的轻量级超分辨率网络;网络输入低分辨率图像,输出高分辨率的重建图像。本发明使用较少参数与计算量,同时拥有更优的重建效果;通过Transformer与卷积的交互,兼顾图像的全局与局部细节;反转U型网络模块先在编码器阶段将关键信息转移至特征图维度上,再在解码器阶段将关键信息返回至通道维度中,以实现低资源耗费来融合多阶段信息的目的。

    轨迹注意力目标跟踪方法、装置及可读介质

    公开(公告)号:CN116740142A

    公开(公告)日:2023-09-12

    申请号:CN202310741844.0

    申请日:2023-06-21

    申请人: 华侨大学

    摘要: 本发明公开了一种轨迹注意力目标跟踪方法、装置及可读介质,通过特征提取网络分别对历史帧及其前景‑背景掩膜图和查询帧进行特征提取,得到历史特征图、前景‑背景掩膜特征图和查询特征图;空间注意力模块用于结合历史特征图、前景‑背景掩膜特征图和查询特征图匹配目标特征,并利用目标聚焦策略建立空间依赖关系,得到附有空间权重的历史特征图,时序注意力模块用于对时序交互后的时序响应图进行时序信息交互,得到时序交互后的时序响应图,通道融合模块用于对时序交互后的时序响应图与查询特征图进行融合,得到目标响应图;将目标响应图输入头网络预测得到目标的位置和边界框。本发明可避免空间冗余信息的干扰,有效提升辨别能力。

    一种基于Transformer与卷积交互的轻量级图像超分辨率方法

    公开(公告)号:CN116596764A

    公开(公告)日:2023-08-15

    申请号:CN202310871402.8

    申请日:2023-07-17

    申请人: 华侨大学

    摘要: 本发明涉及图像处理技术领域,公开了一种基于Transformer与卷积交互的轻量级图像超分辨率方法,包括以下步骤:S1,构建跨通道Transformer模块与高效局部特征提取模块;S2,构建反转U型网络模块;S3,构建全局特征提炼模块;S4,将反转U型网络模块与全局特征提炼模块组合起来,构建基于Transformer与卷积交互的轻量级超分辨率网络;网络输入低分辨率图像,输出高分辨率的重建图像。本发明使用较少参数与计算量,同时拥有更优的重建效果;通过Transformer与卷积的交互,兼顾图像的全局与局部细节;反转U型网络模块先在编码器阶段将关键信息转移至特征图维度上,再在解码器阶段将关键信息返回至通道维度中,以实现低资源耗费来融合多阶段信息的目的。

    基于交叉注意力机制的图像超分辨率方法及装置

    公开(公告)号:CN117237197B

    公开(公告)日:2024-03-01

    申请号:CN202311475296.8

    申请日:2023-11-08

    申请人: 华侨大学

    摘要: 本发明公开了一种基于交叉注意力机制与Swin‑Transformer的图像超分辨率方法及装置,涉及图像重建领域,该方法包括:获取待重建的低分辨率图像及其对应的梯度图;构建基于交叉注意力机制与Swin‑Transformer的图像超分辨率模型并训练,得到经训练的图像超分辨率模型;将待重建的低分辨率图像输入经训练的图像超分辨率模型,经训练的图像超分辨率模型包括SR分支和梯度分支,SR分支和梯度分支中分别采用浅层特征提取模块提取低分辨率图像及其对应的梯度图的浅层特征,通过全局深层特征提取模块将浅层特征进行融合,得到深层特征,并输入图像重建模块,重建得到高分辨率图像,解决

    基于深层交互注意力机制的目标跟踪方法、装置及可读介质

    公开(公告)号:CN117036416A

    公开(公告)日:2023-11-10

    申请号:CN202311082425.7

    申请日:2023-08-25

    申请人: 华侨大学

    摘要: 本发明公开了一种基于深层交互注意力机制的目标跟踪方法、装置及可读介质,该方法包括:获取视频序列,并分别从视频序列和第一帧中提取当前帧和模板帧;构建目标跟踪模型并训练,目标跟踪模型包括特征提取模块、Sim模块、判别定位模块和通道微调模块;将当前帧和模板帧输入经训练的目标跟踪模型,通过特征提取模块提取若干特征,将若干特征中的其中一个特征和模板帧输入Sim模块,得到前景特征图和前景概率特征图,将若干特征中的其中一个特征和模板帧输入判别定位模块,得到定位特征图,将前景特征图、前景概率特征图和定位特征图进行融合,得到混合特征图,将若干特征中的其余特征与混合特征图输入通道微调模块,得到目标跟踪结果,提高鲁棒性。

    基于交叉注意力机制与Swin-Transformer的图像超分辨率方法及装置

    公开(公告)号:CN117237197A

    公开(公告)日:2023-12-15

    申请号:CN202311475296.8

    申请日:2023-11-08

    申请人: 华侨大学

    摘要: 本发明公开了一种基于交叉注意力机制与Swin‑Transformer的图像超分辨率方法及装置,涉及图像重建领域,该方法包括:获取待重建的低分辨率图像及其对应的梯度图;构建基于交叉注意力机制与Swin‑Transformer的图像超分辨率模型并训练,得到经训练的图像超分辨率模型;将待重建的低分辨率图像输入经训练的图像超分辨率模型,经训练的图像超分辨率模型包括SR分支和梯度分支,SR分支和梯度分支中分别采用浅层特征提取模块提取低分辨率图像及其对应的梯度图的浅层特征,通过全局深层特征提取模块将浅层特征进行融合,得到深层特征,并输入图像重建模块,重建得到高分辨率图像,解决原有经典图像超分辨率模型难以提取全局特征的问题,以提高重建图像的清晰度。

    结合分类加强与细化微调的目标跟踪方法、装置及可读介质

    公开(公告)号:CN116739903A

    公开(公告)日:2023-09-12

    申请号:CN202310793797.4

    申请日:2023-06-30

    申请人: 华侨大学

    摘要: 本发明公开了一种结合分类加强与细化微调的目标跟踪方法、装置及可读介质,构建目标跟踪网络模型并训练,得到经训练的目标跟踪网络模型,将当前帧输入ResNet模块,将ResNet模块的输出特征输入全局感知模块,得到全局感知特征,将全局感知特征与模板帧输入分类加强模块,得到前景特征图和前景概率特征图;在第一分支中,将降维后的全局感知特征与模板帧输入判别相关滤波器,得到定位特征图;在第二分支中,将前景特征图、前景概率特征图和定位特征图融合得到混合特征图,将混合特征图与ResNet模块的部分输出特征输入微调路径模块,得到目标的掩膜,通过拟合掩膜,得到矩形框,细化微调模块根据矩形框提取目标的特征,并与模板帧做逐像素相关,得到目标跟踪框。