基于全对焦图像合成的无监督焦点堆栈深度估计方法

    公开(公告)号:CN116823914B

    公开(公告)日:2024-01-09

    申请号:CN202311101094.7

    申请日:2023-08-30

    发明人: 黄章进 周萌

    摘要: 本发明公开了一种基于全对焦图像合成的无监督焦点堆栈深度估计方法,1、包括:S1、利用基于图像金字塔和基于焦点测量算子进行全对焦图像计算,得到对应的全对焦图像,将得到的全对焦图像进行融合并作为监督信息;S2、通过三维感知模块对焦点堆栈进行高频噪声过滤和初步特征提取;S3、将三维极化自注意力机制引入焦点堆栈中,将输入特征图分为通道极化特征图和空间极化特征图;S4、采用分层深度概率预测模块定位焦点堆栈最大清晰度所在的层次,并输出对应的概率值,确定最佳清晰度所在的层次,获得全对焦图像。本发明在深度预测方面表现出相对高的准确性和良好的泛化性能,适用于

    团雾监测装置、团雾监测系统及团雾监测方法

    公开(公告)号:CN117055135A

    公开(公告)日:2023-11-14

    申请号:CN202310983794.7

    申请日:2023-08-04

    IPC分类号: G01W1/00

    摘要: 本公开提供了一种团雾监测装置、团雾监测系统及团雾监测方法,可以应用于安全监测技术领域。装置包括:底座;外壳,设置于底座上,形成监测内腔,包括:图像信息获取子模块,设置于外壳的外部顶端,用于获取环境图像信息;滤网,设置于外壳的侧壁,用于交换监测内腔的气体与外部环境的气体;团雾监测模块,设置于监测内腔内的底座上,团雾监测模块包括:光信息获取子模块,获取监测光信息和参考光信息,监测光信息表征监测内腔内的气体信息;数据处理子模块,根据监测光信息和参考光信息,得到团雾浓度信息,根据环境图像信息,得到团雾图像信息,以及根据团雾浓度信息和团雾图像信息,得到团雾监测结果。

    基于半监督学习的小麦赤霉病孢子检测方法

    公开(公告)号:CN116821698A

    公开(公告)日:2023-09-29

    申请号:CN202311108676.8

    申请日:2023-08-31

    发明人: 黄章进 原瑾

    摘要: 本发明公开了一种基于半监督学习的小麦赤霉病孢子检测方法,包括:S1、将小麦赤霉病孢子样本数据经过数据增强分别输入到学生模型和教师模型,学生模型与教师模型之间互相学习;S2、在伪标签生成阶段引入动态自适应阈值,根据训练阶段过程中模型的损失来自动计算伪标签分配时使用的高阈值;S3、在训练阶段引入域感知损失来缓解有标记孢子样本数据和无标记孢子样本数据之间的差异;S4、输出有标记孢子样本数据的边界框位置、有标记孢子样本数据的类别、有标记孢子样本数据的置信度得分以及无标记孢子样本数据的伪标签。本发明可以使得无标记孢子样本数据在训练中逐渐发挥作用,提高模型的泛化能力和性能。

    一种动物头部姿态估计方法及系统

    公开(公告)号:CN110569719B

    公开(公告)日:2022-05-17

    申请号:CN201910698158.3

    申请日:2019-07-30

    摘要: 一种动物头部姿态估计方法及系统,方法包括:对动物图片进行目标检测处理,标记出动物图片上动物头部的第一检测框;根据第一检测框标记出动物头部的第二检测框,并记录第二检测框位置坐标,其中,第二检测框包含动物的整个头部;在第二检测框限定范围内,对动物头部进行特征提取,得到动物头部对应的多个关键点位置坐标;根据第二检测框位置坐标及多个关键点位置坐标,得到动物头部的姿态。该方法及系统在头部区域而不是整张图片上做姿态估计,可以有效的减少计算量和输入信息冗余,提高了斑马鱼头部姿态估计的准确率和速度。

    一种基于高斯泼溅并融合可学习基函数的新视角合成方法

    公开(公告)号:CN118505541B

    公开(公告)日:2024-10-25

    申请号:CN202410961505.8

    申请日:2024-07-18

    摘要: 本发明公开了一种基于高斯泼溅并融合可学习基函数的新视角合成方法,包括:S1、构建场景数据集,获取场景点云数据;S2、将场景点云数据作为改进高斯泼溅模型输入,利用渐进式模型训练方法对改进高斯泼溅模型进行训练,完成改进高斯泼溅模型参数的优化;S3、根据高斯核重要性评价指标对改进高斯泼溅模型进行修剪,通过重新优化获得更紧凑的改进高斯泼溅模型并保存;S4、得到可学习基函数信息图;S5、根据优化后改进高斯泼溅模型和烘焙后的可学习基函数信息图,完成新视角合成且能够实现高帧率的实时渲染。本发明对颜色信息重新建模,引入轻量级的多层感知器来扩展球谐函数并提出渐进式模型训练方法,更准确地模拟复杂视觉效果。

    一种基于对比学习的小样本图像分类方法

    公开(公告)号:CN118097315A

    公开(公告)日:2024-05-28

    申请号:CN202410512624.5

    申请日:2024-04-26

    发明人: 黄章进 严雪文

    摘要: 本发明公开了一种基于对比学习的小样本图像分类方法,包括S1、构建基类数据集和新类数据集;S2、在基类数据集上提取多个N‑way K‑shot元任务用于网络训练,将每个元任务分为有标签的支持集和有标签的问询集,并将有标签的支持集和有标签的问询集作为网络输入,输出为混合损失,并反向传播损失调整网络参数;S3、在新类数据集上提取多个N‑way K‑shot元任务用于网络测试,将每个元任务分为有标签的支持集和无标签的问询集输入网络,输出网络对问询集的分类结果。本发明同时将全局与局部对比损失作为训练的辅助目标,使特征网络从实例汇总获得更丰富的信息。

    基于点云图注意力网络的类别级6D物体位姿估计方法

    公开(公告)号:CN117132650A

    公开(公告)日:2023-11-28

    申请号:CN202311083936.0

    申请日:2023-08-25

    发明人: 黄章进 邹露

    摘要: 本发明公开了一种基于点云图注意力网络的类别级6D物体位姿估计方法,包括:S1、对输入的RGB‑D图像数据进行预处理,提取物体在深度相机下的观测点云;S2、使用点云图注意力网络从观测点云中提取多尺度的局部到全局的物体结构特征;S3、利用形状先验适应机制和类别形状先验点云重建物体的3D点云模型并回归出物体规范化的NOCS坐标;S4、通过Umeyama算法计算重建的NOCS坐标与观测点云之间的相似变换,获得物体的姿态和尺寸信息。在NOCS‑REAL数据集上进行的实验证明,本发明提出的方案优于现有技术,取得了更好的结果。

    基于Transformer并融合以观测为中心运动特征的多目标跟踪系统

    公开(公告)号:CN116883458A

    公开(公告)日:2023-10-13

    申请号:CN202311139793.0

    申请日:2023-09-06

    发明人: 黄章进 高壮壮

    摘要: 本发明公开了一种基于Transformer并融合以观测为中心运动特征的多目标跟踪系统,包括数据关联模块,用于计算目标轨迹和检测目标之间的相似度,根据相似度利用策略进行匹配;编码器‑解码器模块,用于接收连续两帧图像作为输入,得到当前帧k中的检测目标和置信度;Kalman滤波模块,根据历史检测目标位置信息对下一帧中检测目标位置进行预测;虚拟轨迹模块,利用过去若干帧中已建立的轨迹的检测框,计算得到目标轨迹的速度和方向信息,建立虚拟轨迹;运动补偿模块,在KF完成位置预测之前进行相机运动补偿,KF预测阶段使用校正后的状态向量和协方差矩阵。本发明可以更好地建模复杂体育场景中球员的运动特征,提高跟踪的准确性和鲁棒性。

    一种用于3D打印技术的壳模型构造方法

    公开(公告)号:CN110142970B

    公开(公告)日:2020-10-27

    申请号:CN201910437163.9

    申请日:2019-05-23

    IPC分类号: B29C64/386 B33Y50/00

    摘要: 一种用于3D打印技术的壳模型构造方法,包括:S1,获取待打印模型及其外表面参数R;S2,获得待打印模型的壳模型i;S3,若壳模型i的最大应力大于打印材料的屈服强度约束,则增加预设厚度的厚度,并执行步骤S2;否则,执行步骤S4;S4,计算壳模型i所有顶点的外扩距离,得到壳模型i+1,并判断外扩距离是否为0;若壳模型i所有顶点的外扩距离均为0,则壳模型i为最终结果壳模型;否则,计算壳模型i+1的应力分布,并执行步骤S5;S5,若壳模型i+1的最大应力大于打印材料的屈服强度约束,则壳模型i即为结果壳模型;否则,对壳模型i+1的顶点进行外扩,将i置为i+1,并执行步骤S4。构造出具有极小体积的非均匀厚度壳模型,大幅降低打印成本。

    基于图卷积双流形状先验自适应类别级物体姿态估计方法

    公开(公告)号:CN116958958B

    公开(公告)日:2024-10-25

    申请号:CN202310963602.6

    申请日:2023-07-31

    发明人: 黄章进 邹露

    摘要: 本发明公开了一种基于图卷积双流形状先验自适应类别级物体姿态估计方法,包括:S1、输入物体RGB‑D图像数据和物体三维CAD模型集合数据;S2、获取物体类别级形状先验点云;S3、获取物体在深度相机下的下采样前点云;S4、多尺度图卷积网络提取多尺度姿态感知物体特征;S5、多层感知机网络提取多尺度形状感知物体特征;S6、对多尺度姿态感知物体特征和多尺度形状感知物体特征进行信息传递与特征融合,得到物体描述符;S7、从特征融合获得变形场和对应关系矩阵;S8、根据变形场、对应关系矩阵以及物体类别级形状先验点云重构物体标准化坐标表示,实现物体姿态估计。本发明更高效和准确,解决了类别级物体姿态估计中姿态感知不足的问题。