-
公开(公告)号:CN114331935B
公开(公告)日:2025-02-18
申请号:CN202111567915.7
申请日:2021-12-22
Abstract: 本发明公开了一种图像融合方法,基于两个融合图像分别寻求两组图像中的最相似两个像素群组;对两个像素群组执行提升哈尔变换,获得两个系数矩阵;选取两个系数矩阵中绝对值大的系数作为融合后的高频变换系数,两个系数矩阵的均值作为融合后的低频变换系数;融合后的高频变换系数和融合后的低频变换系数结合后得到融合后的变换系数;基于融合后的变换系数生成融合后的图像。本公开融合后的图像可以提取到两张互补图像中有效的纹理信息,分辨率较其他方法的融合结果高,主观视觉质量非常理想,同时图像融合结果在客观评价上也普遍优于现有的图像融合方法。
-
公开(公告)号:CN119339262A
公开(公告)日:2025-01-21
申请号:CN202411295148.2
申请日:2024-09-15
Applicant: 桂林理工大学
Abstract: 本发明公开了一种基于多尺度特征信息提取的无人机航拍图像目标检测方法,属于无人机图像目标检测领域,所述方法包括:对无人机航拍图像数据集进行预处理;构建基于多尺度特征信息提取的无人机航拍图像目标检测模型,所述目标检测模型包括多尺度特征提取主干网络和双向特征融合网络,所述主干网络由多尺度特征提取模块COFM和C2f模块组成,所述双向特征融合网络包括添加了大尺度检测头的特征融合结构DiFPN;通过训练好的模型对无人机图像进行检测。本发明可以对场景复杂和变化尺度较大的无人机航拍图像进行精确检测。
-
公开(公告)号:CN118692034A
公开(公告)日:2024-09-24
申请号:CN202410930769.7
申请日:2024-07-12
Applicant: 桂林理工大学
IPC: G06V20/54 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种基于多尺度特征融合的车辆识别方法,所述的车辆识别方法在多尺度特征融合方法的基础上搭建网络模型,首先通过主干网络提取不同尺度的特征,然后通过基于动态上采样的多尺度特征融合方法,将深层网络的特征图上采样到与浅层网络的特征图大小一致,再通过CA注意力得到特征权重,浅层网络乘以特征权重后与深层特征进行融合,每次融合两个特征图,所得新特征图继续与下层特征重复融合过程,直至迭代结束,融合后的特征图经过卷积后再形成检测头;本发明在一阶段目标检测算法YOLOv8上进行改进,将浅层网络特征与深层网络特征进行融合,最大程度上避免浅层特征图信息的丢失,在进行车辆识别任务时,提高检测精度。
-
公开(公告)号:CN118196493A
公开(公告)日:2024-06-14
申请号:CN202410301704.6
申请日:2024-03-16
Applicant: 桂林理工大学
IPC: G06V10/764 , G06V10/762 , G06V10/774 , G06V10/82 , G06T3/4007 , G06V10/74 , G06N3/0464 , G06N3/08 , G06Q10/0639 , G06Q50/20 , G06N5/02
Abstract: 一种基于知识蒸馏的不平衡图像分类方法,该方法分别设计了自适应课程学习策略和基于k‑means和余弦相似性的两阶段知识增强策略。首先获取不平衡图像数据集,预训练教师模型并计算训练集中各样本的知识量。然后使用交叉熵损失函数结合教师模型的软标签预先训练一轮学生模型,作为第一阶段的训练。接着利用样本的知识量和上一轮学生模型对样本的置信度对样本综合评分,并依据此评分对学生模型进行自适应课程学习,后续的每一阶段均重复上述过程。在训练过程中,利用k‑means对每一批次内的样本进行簇的划分,然后对各个簇内的样本集合使用mixup进行线性插值,以实现样本的知识增强。此方法有效提升学生模型对尾部类识别能力以及学生模型对困难知识的理解问题。
-
公开(公告)号:CN116668144A
公开(公告)日:2023-08-29
申请号:CN202310679574.5
申请日:2023-06-09
Applicant: 桂林理工大学
Abstract: 本发明公开了一种用于获取并加密绑定安卓设备信息的方法,其特征在于,通过提取用户安卓设备的多个静态硬件信息,包括硬件厂商、设备序列号、基带版本、MAC地址、SDK版本号以及移动设备识别码(MEID),并使用MD5加密算法对这些数据进行加密,加密后的数据将同其它数据上传至服务器。该方法通过加密用户设备信息保护了用户的隐私,同时又能够标识用户设备。
-
公开(公告)号:CN116612029A
公开(公告)日:2023-08-18
申请号:CN202310580960.9
申请日:2023-05-22
Applicant: 桂林理工大学
IPC: G06T5/00 , H04N23/951 , G06N3/0442 , G06N3/0464
Abstract: 本发明公开了一种基于时空特征融合和双向循环神经网络的视频去模糊方法,包括以下步骤S1:对模糊视频分成基本序列单元;S2:建视频去模糊模型包括前向单元、反向单元和时空特征融合重建模块;S3:计算输入的模糊视频和其对应清晰视频图像L1损失,反向传播训练去模糊模型;S4:输入模糊的视频到训练好的去模糊模型中,输出并保存生成的重建清晰视频。本发明提供一种基于循环神经网路框架构,对视频帧之间的时间序列特征进行双向建模;时空特征融合重建模块捕获相邻帧和当前帧的时间依赖关系,融合有效信息对当前帧进行重建。通过该方法,可以提高模型对相邻帧信息的利用效率,增强对输入视频特征表达和重构能力,提高视频的清晰度。
-
公开(公告)号:CN113327227B
公开(公告)日:2022-11-11
申请号:CN202110503290.1
申请日:2021-05-10
Applicant: 桂林理工大学
Abstract: 本发明公开了一种基于MobilenetV3的快速小麦头检测方法。通过收集并处理Kaggle竞赛网站上公布的小麦头图片和相关标签文件获得全球小麦头检测数据集(GWHD)。以YOLOv3网络为基础,使用MobilenetV3_large代替Darknet53作为主干网络,并将自底向上的信息通道和注意力机制引入检测分支,形成Wheat‑YOLO网络。利用K‑means++算法对目标候选框重新聚类,同时根据数据集中目标分布情况对候选框进行线性缩放,将得到的锚框应用到各尺度网络层,并在GWHD数据集上进行训练和检测。本发明在检测精度提高的情况下极大的提升了网络的检测速度,为真实场景下的小麦头检测提供了良好的解决方案。
-
公开(公告)号:CN115035066A
公开(公告)日:2022-09-09
申请号:CN202210677029.8
申请日:2022-06-15
Applicant: 桂林理工大学
IPC: G06T7/00 , G06T7/60 , G06V10/26 , G06V10/28 , G06V10/30 , G06V10/774 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于深度学习的链条形变检测方法,本发明首先利用安装在平台上的高清摄像头组,采集足够数量的链条图像训练集,训练一个基于深度卷积神经网络的语义分割模型。其次,当需要检测链条形变时,将实时拍摄的链条影像输入到训练好的语义分割模型中,分割出链条部分。最后,利用中心扩张算法来测量链条的尺寸信息。本发明可以有效检测出发生形变的某一节链条,对其进行定位,并记录其形变的大小。本发明具有准确度高,响应速度快的特点。
-
公开(公告)号:CN113837249A
公开(公告)日:2021-12-24
申请号:CN202111046552.2
申请日:2021-09-07
Applicant: 桂林理工大学
IPC: G06K9/62
Abstract: 本发明公开一种以邻域熵为查询策略的三支决策主动学习方法。该方法包括:使用已标记数据集训练分类器;再将训练后的分类器对测试集进行分类并记录其分类结果;计算所有未标记数据的邻域熵,并根据邻域熵值的大小将未标记数据分为正域、边界域和负域;分别对不同区域的数据进行处理;选择部分最有价值的未标记数据,再交由人类专家或注解器标记;标记后加入已标记数据集并用于分类器的下一次训练;循环迭代执行以上过程,直到达到预设条件或期望的评估标准停止学习。本发明可以选择少量最有价值的数据并进行标记,避免了选择冗余数据和对分类性能贡献不大的数据,同时能够减少对大量未标记数据进行标记所需的代价。
-
公开(公告)号:CN113408099A
公开(公告)日:2021-09-17
申请号:CN202110503605.2
申请日:2021-05-10
Applicant: 桂林理工大学
IPC: G06F30/20 , G06F111/04
Abstract: 本发明公开了一种改进目标级联与克里格模型组合的多学科设计优化方法。本发明利用惩罚函数最小化目标变量和响应变量之间的不一致性。通过设置一致性偏差最大值来保证整个系统在求解到相对最优解的时候及时停止迭代,提高整体优化的效率。具体的优化模型采用内外循环的嵌套模型,在内环中,利用增广拉格朗日函数设定固定的惩罚权值来对子问题进行优化求解;在外环中,权值更新采用乘子交替方向法通过内环的信息进行更新。此外,基于克里格模型的较高的逼近精度和鲁棒性,将近似模型引用到算法优化中,对于子问题的每一次分析优化后都采用近似模型进行评估。
-
-
-
-
-
-
-
-
-