-
公开(公告)号:CN117196960B
公开(公告)日:2024-03-01
申请号:CN202311475299.1
申请日:2023-11-08
申请人: 华侨大学
IPC分类号: G06T3/4053 , G06N3/0455 , G06N3/0464 , G06N3/08 , G06V10/80
摘要: 本发明公开了一种全尺度特征细化轻量级图像超分辨率方法及装置,涉及图像处理领域,该方法包括:构建全尺度特征细化轻量级图像超分辨率模型并训练,得到经训练的全尺度特征细化轻量级图像超分辨率模型,将低分辨率图像输入经训练的全尺度特征细化轻量级图像超分辨率模型,先经过第一卷积层得到第一特征图,第一特征图经过串联的K个特征蒸馏提取模块,每一个特征蒸馏提取模块的输出均传送至第二卷积层,并经过第三卷积层,得到第二特征图,第二特征图与第一特征图相加,得到最终特征图,最终特征图输入上采样模块,重建得到高分辨率图
-
公开(公告)号:CN117422614A
公开(公告)日:2024-01-19
申请号:CN202311745925.4
申请日:2023-12-19
申请人: 华侨大学 , 厦门松霖科技股份有限公司
IPC分类号: G06T3/40 , G06N3/0455 , G06N3/0464 , G06N3/08 , G06V10/42 , G06V10/44
摘要: 本发明公开了一种基于混合特征交互Transformer的单帧图像超分辨率方法及装置,涉及图像处理领域,包括:获取待重建的低分辨率图像;构建基于混合特征交互Transformer的单帧图像超分辨率模型并训练,得到经训练的单帧图像超分辨率模型,单帧图像超分辨率模型包括依次连接的浅层特征提取单元、深层特征提取单元和上采样重建单元,深层特征提取单元包括依次连接的P个混合特征交互Transformer模块;将低分辨率图像输入经训练的单帧图像超分辨率模型,通过浅层特征提取单元提取浅层特征,将浅层特征输入深层特征提取单元提取得到深层特征,将深层特征输入上采样重建单元,重建得到高分辨率重建图像,解决Transformer的SR方法忽略不同维度的特征之间的潜在关联性,影响重建性能的问题。
-
公开(公告)号:CN117315516A
公开(公告)日:2023-12-29
申请号:CN202311616489.0
申请日:2023-11-30
申请人: 华侨大学
IPC分类号: G06V20/17 , G06N3/042 , G06N3/045 , G06N3/08 , G06T7/00 , G06V10/74 , G06V10/764 , G06V10/80 , G06V10/82
摘要: 本发明公开了一种基于多尺度注意力相似化蒸馏的无人机检测方法及装置,涉及目标检测领域,包括:构建多尺度注意力图生成模块、教师网络及待训练的学生网络,通过多尺度注意力图生成模块分别将教师网络和学生网络的中间层特征映射转换为教师空间注意力信息和学生空间注意力信息,并建立注意力信息相似度优化损失函数,将注意力信息相似度优化损失函数与全局性的后验概率蒸馏函数以及学生网络的无人机目标分类损失函数和目标框回归损失函数结合以建立总损失函数,基于总损失函数对待训练的学生网络进行训练,得到经训练的学生网络;将图像输入经训练的学生网络,得到无人机检测结果,解决现有技术无人机检测准确率低、实时性差的问题。
-
公开(公告)号:CN117014610B
公开(公告)日:2023-12-29
申请号:CN202311280429.6
申请日:2023-10-07
申请人: 华侨大学
IPC分类号: H04N19/119 , H04N19/103 , H04N19/96
摘要: 本发明公开了一种基于多任务学习的H.266VVC屏幕内容帧内CU快速划分方法及装置,涉及视频编码领域,该方法包括:获取屏幕内容视频,将128×128大小的CTU直接划分为64×64大小的CU;构建多任务学习网络模型,多任务学习网络模型包括主干网络、第一子网络和第二子网络,主干网络用于提取CU特征,将CU特征输入第一子网络和第二子网络,得到CU划分类型和编码模式,可结合编码模式及其预测概率和临近CU的划分类型综合确定预测结果;将64×64大小的CU输入经训练的多任务学习网络模型,得到第一预测结果;若第一预测结果为划分,则进一步划分为4个32×32大小的CU,并输入经训练的多任
-
公开(公告)号:CN117036911A
公开(公告)日:2023-11-10
申请号:CN202311301590.7
申请日:2023-10-10
申请人: 华侨大学 , 星宸科技股份有限公司 , 厦门瑞为信息技术有限公司
IPC分类号: G06V10/82 , G06N3/0464 , G06N3/08 , G06V10/74
摘要: 本发明公开了一种基于神经架构搜索的车辆再辨识轻量化方法及系统,涉及计算机视觉与机器学习技术领域,方法包括:S1,构建网络模型,给定硬件约束以生成对应的架构生成器,利用测试集训练架构生成器;S2,将硬件约束输入到架构生成器,得到多个轻量化神经网络架构模型;S3,采集车辆再辨识数据并进行数据增强;S4,利用车辆再辨识数据集对轻量化神经网络架构模型进行训练及验证,选择效果最好的作为轻量化车辆再辨识网络;S5,基于轻量化车辆再辨识网络进行车辆再辨识。本发明利用神经架构搜索自适应地依据硬件约束进行神经网络的搭建,得到兼具效率与性能的轻量化网络,可以在大规模的神经网络设计中减轻人工设计和调试的负担。
-
公开(公告)号:CN117014610A
公开(公告)日:2023-11-07
申请号:CN202311280429.6
申请日:2023-10-07
申请人: 华侨大学
IPC分类号: H04N19/119 , H04N19/103 , H04N19/96
摘要: 本发明公开了一种基于多任务学习的H.266VVC屏幕内容帧内CU快速划分方法及装置,涉及视频编码领域,该方法包括:获取屏幕内容视频,将128×128大小的CTU直接划分为64×64大小的CU;构建多任务学习网络模型,多任务学习网络模型包括主干网络、第一子网络和第二子网络,主干网络用于提取CU特征,将CU特征输入第一子网络和第二子网络,得到CU划分类型和编码模式,可结合编码模式及其预测概率和临近CU的划分类型综合确定预测结果;将64×64大小的CU输入经训练的多任务学习网络模型,得到第一预测结果;若第一预测结果为划分,则进一步划分为4个32×32大小的CU,并输入经训练的多任务学习网络模型,得到第二预测结果,解决H.266VVC屏幕内容帧内编码复杂度高的问题。
-
公开(公告)号:CN116612445B
公开(公告)日:2023-10-31
申请号:CN202310891062.5
申请日:2023-07-20
申请人: 华侨大学
IPC分类号: G06V20/54 , G06V10/762 , G06V10/74 , G06V10/764 , G06V10/774 , G06V10/778 , G06V10/82 , G06N3/088
摘要: 本发明公开了一种基于自适应聚类和困难样本加权的无监督车辆再辨识方法,首先,利用当前聚类参数计算最合适的半径值,提升聚类伪标签对车辆样本噪声的鲁棒性;其次,记忆模块记录所有车辆样本特征向量,利用距离作为车辆样本困难程度加权依据,改善模型对困难车辆样本关注力不足的问题;最后,利用加权困难车辆样本结合对比学习方法训练车辆再辨识模型。本发明可广泛应用于智慧交通和智慧安防中的智能视频监控系统。
-
公开(公告)号:CN116596764B
公开(公告)日:2023-10-31
申请号:CN202310871402.8
申请日:2023-07-17
申请人: 华侨大学
IPC分类号: G06T3/40 , G06N3/0455 , G06N3/0464 , G06N3/08 , G06V10/42 , G06V10/44
摘要: 本发明涉及图像处理技术领域,公开了一种基于Transformer与卷积交互的轻量级图像超分辨率方法,包括以下步骤:S1,构建跨通道Transformer模块与高效局部特征提取模块;S2,构建反转U型网络模块;S3,构建全局特征提炼模块;S4,将反转U型网络模块与全局特征提炼模块组合起来,构建基于Transformer与卷积交互的轻量级超分辨率网络;网络输入低分辨率图像,输出高分辨率的重建图像。本发明使用较少参数与计算量,同时拥有更优的重建效果;通过Transformer与卷积的交互,兼顾图像的全局与局部细节;反转U型网络模块先在编码器阶段将关键信息转移至特征图维度上,再在解码器阶段将关键信息返回至通道维度中,以实现低资源耗费来融合多阶段信息的目的。
-
公开(公告)号:CN116740142A
公开(公告)日:2023-09-12
申请号:CN202310741844.0
申请日:2023-06-21
申请人: 华侨大学
摘要: 本发明公开了一种轨迹注意力目标跟踪方法、装置及可读介质,通过特征提取网络分别对历史帧及其前景‑背景掩膜图和查询帧进行特征提取,得到历史特征图、前景‑背景掩膜特征图和查询特征图;空间注意力模块用于结合历史特征图、前景‑背景掩膜特征图和查询特征图匹配目标特征,并利用目标聚焦策略建立空间依赖关系,得到附有空间权重的历史特征图,时序注意力模块用于对时序交互后的时序响应图进行时序信息交互,得到时序交互后的时序响应图,通道融合模块用于对时序交互后的时序响应图与查询特征图进行融合,得到目标响应图;将目标响应图输入头网络预测得到目标的位置和边界框。本发明可避免空间冗余信息的干扰,有效提升辨别能力。
-
公开(公告)号:CN116721091A
公开(公告)日:2023-09-08
申请号:CN202310744289.7
申请日:2023-06-21
申请人: 华侨大学
摘要: 本发明公开了一种布匹瑕疵检测方法、装置及可读介质,通过获取待检测的布匹图像和模板图像;构建改进的Yolov5s网络并训练,得到布匹瑕疵检测模型,改进的Yolov5s网络包括主干特征提取网络、颈部特征融合网络和头部预测网络,主干特征提取网络采用CSPDarkNet,颈部特征融合网络包括特征过滤金字塔网络和融合卷积块注意力模块的路径聚合网络,在训练过程中采用多类聚焦置信度损失函数代替交叉熵置信度损失函数;将待检测的布匹图像和模板图像输入布匹瑕疵检测模型,得到布匹检测结果。该方法关注实际布匹瑕疵检测中存在的瑕疵种类分布不均、不同瑕疵的检测难易程度不同等问题,通过对冗余背景特征的过滤与关键前景特征的提纯,降低网络复杂度,提高检测精度和效率。
-
-
-
-
-
-
-
-
-