全尺度特征细化轻量级图像超分辨率方法及装置

    公开(公告)号:CN117196960B

    公开(公告)日:2024-03-01

    申请号:CN202311475299.1

    申请日:2023-11-08

    申请人: 华侨大学

    摘要: 本发明公开了一种全尺度特征细化轻量级图像超分辨率方法及装置,涉及图像处理领域,该方法包括:构建全尺度特征细化轻量级图像超分辨率模型并训练,得到经训练的全尺度特征细化轻量级图像超分辨率模型,将低分辨率图像输入经训练的全尺度特征细化轻量级图像超分辨率模型,先经过第一卷积层得到第一特征图,第一特征图经过串联的K个特征蒸馏提取模块,每一个特征蒸馏提取模块的输出均传送至第二卷积层,并经过第三卷积层,得到第二特征图,第二特征图与第一特征图相加,得到最终特征图,最终特征图输入上采样模块,重建得到高分辨率图

    基于多尺度注意力相似化蒸馏的无人机检测方法及装置

    公开(公告)号:CN117315516A

    公开(公告)日:2023-12-29

    申请号:CN202311616489.0

    申请日:2023-11-30

    申请人: 华侨大学

    摘要: 本发明公开了一种基于多尺度注意力相似化蒸馏的无人机检测方法及装置,涉及目标检测领域,包括:构建多尺度注意力图生成模块、教师网络及待训练的学生网络,通过多尺度注意力图生成模块分别将教师网络和学生网络的中间层特征映射转换为教师空间注意力信息和学生空间注意力信息,并建立注意力信息相似度优化损失函数,将注意力信息相似度优化损失函数与全局性的后验概率蒸馏函数以及学生网络的无人机目标分类损失函数和目标框回归损失函数结合以建立总损失函数,基于总损失函数对待训练的学生网络进行训练,得到经训练的学生网络;将图像输入经训练的学生网络,得到无人机检测结果,解决现有技术无人机检测准确率低、实时性差的问题。

    基于多任务学习的H.266VVC屏幕内容帧内CU快速划分方法及装置

    公开(公告)号:CN117014610B

    公开(公告)日:2023-12-29

    申请号:CN202311280429.6

    申请日:2023-10-07

    申请人: 华侨大学

    摘要: 本发明公开了一种基于多任务学习的H.266VVC屏幕内容帧内CU快速划分方法及装置,涉及视频编码领域,该方法包括:获取屏幕内容视频,将128×128大小的CTU直接划分为64×64大小的CU;构建多任务学习网络模型,多任务学习网络模型包括主干网络、第一子网络和第二子网络,主干网络用于提取CU特征,将CU特征输入第一子网络和第二子网络,得到CU划分类型和编码模式,可结合编码模式及其预测概率和临近CU的划分类型综合确定预测结果;将64×64大小的CU输入经训练的多任务学习网络模型,得到第一预测结果;若第一预测结果为划分,则进一步划分为4个32×32大小的CU,并输入经训练的多任

    基于多任务学习的H.266VVC屏幕内容帧内CU快速划分方法及装置

    公开(公告)号:CN117014610A

    公开(公告)日:2023-11-07

    申请号:CN202311280429.6

    申请日:2023-10-07

    申请人: 华侨大学

    摘要: 本发明公开了一种基于多任务学习的H.266VVC屏幕内容帧内CU快速划分方法及装置,涉及视频编码领域,该方法包括:获取屏幕内容视频,将128×128大小的CTU直接划分为64×64大小的CU;构建多任务学习网络模型,多任务学习网络模型包括主干网络、第一子网络和第二子网络,主干网络用于提取CU特征,将CU特征输入第一子网络和第二子网络,得到CU划分类型和编码模式,可结合编码模式及其预测概率和临近CU的划分类型综合确定预测结果;将64×64大小的CU输入经训练的多任务学习网络模型,得到第一预测结果;若第一预测结果为划分,则进一步划分为4个32×32大小的CU,并输入经训练的多任务学习网络模型,得到第二预测结果,解决H.266VVC屏幕内容帧内编码复杂度高的问题。

    一种基于Transformer与卷积交互的轻量级图像超分辨率方法

    公开(公告)号:CN116596764B

    公开(公告)日:2023-10-31

    申请号:CN202310871402.8

    申请日:2023-07-17

    申请人: 华侨大学

    摘要: 本发明涉及图像处理技术领域,公开了一种基于Transformer与卷积交互的轻量级图像超分辨率方法,包括以下步骤:S1,构建跨通道Transformer模块与高效局部特征提取模块;S2,构建反转U型网络模块;S3,构建全局特征提炼模块;S4,将反转U型网络模块与全局特征提炼模块组合起来,构建基于Transformer与卷积交互的轻量级超分辨率网络;网络输入低分辨率图像,输出高分辨率的重建图像。本发明使用较少参数与计算量,同时拥有更优的重建效果;通过Transformer与卷积的交互,兼顾图像的全局与局部细节;反转U型网络模块先在编码器阶段将关键信息转移至特征图维度上,再在解码器阶段将关键信息返回至通道维度中,以实现低资源耗费来融合多阶段信息的目的。

    轨迹注意力目标跟踪方法、装置及可读介质

    公开(公告)号:CN116740142A

    公开(公告)日:2023-09-12

    申请号:CN202310741844.0

    申请日:2023-06-21

    申请人: 华侨大学

    摘要: 本发明公开了一种轨迹注意力目标跟踪方法、装置及可读介质,通过特征提取网络分别对历史帧及其前景‑背景掩膜图和查询帧进行特征提取,得到历史特征图、前景‑背景掩膜特征图和查询特征图;空间注意力模块用于结合历史特征图、前景‑背景掩膜特征图和查询特征图匹配目标特征,并利用目标聚焦策略建立空间依赖关系,得到附有空间权重的历史特征图,时序注意力模块用于对时序交互后的时序响应图进行时序信息交互,得到时序交互后的时序响应图,通道融合模块用于对时序交互后的时序响应图与查询特征图进行融合,得到目标响应图;将目标响应图输入头网络预测得到目标的位置和边界框。本发明可避免空间冗余信息的干扰,有效提升辨别能力。

    一种布匹瑕疵检测方法、装置及可读介质

    公开(公告)号:CN116721091A

    公开(公告)日:2023-09-08

    申请号:CN202310744289.7

    申请日:2023-06-21

    申请人: 华侨大学

    摘要: 本发明公开了一种布匹瑕疵检测方法、装置及可读介质,通过获取待检测的布匹图像和模板图像;构建改进的Yolov5s网络并训练,得到布匹瑕疵检测模型,改进的Yolov5s网络包括主干特征提取网络、颈部特征融合网络和头部预测网络,主干特征提取网络采用CSPDarkNet,颈部特征融合网络包括特征过滤金字塔网络和融合卷积块注意力模块的路径聚合网络,在训练过程中采用多类聚焦置信度损失函数代替交叉熵置信度损失函数;将待检测的布匹图像和模板图像输入布匹瑕疵检测模型,得到布匹检测结果。该方法关注实际布匹瑕疵检测中存在的瑕疵种类分布不均、不同瑕疵的检测难易程度不同等问题,通过对冗余背景特征的过滤与关键前景特征的提纯,降低网络复杂度,提高检测精度和效率。