一种基于自适应类属性模糊度感知的目标检测方法

    公开(公告)号:CN117746086A

    公开(公告)日:2024-03-22

    申请号:CN202211110601.9

    申请日:2022-09-13

    IPC分类号: G06V10/764 G06V10/774

    摘要: 本发明公开了一种基于自适应类属性模糊度感知的目标检测方法,包括以下步骤:步骤1、定义ACBA值,感知目标类属正负样本的属性模糊度;步骤2、基于交叉熵损失和ACBA值构建置信度损失ACBA Loss,抑制低置信度信息,并设计聚焦参数平衡正负样本的置信度信息:步骤3、通过惩罚因子、约束因子改进ACBA值得到I_ACBA,补偿置信度信息并平衡损失中类属性模糊度的贡献占比;步骤4、在YOLO V4、RetinaNet与Faster RCNN框架上引入改进的I_ACBA Loss损失搭建目标检测框架,并与聚焦损失和交叉熵置信度损失进行对比分析。本发明提出的I_ACBA Loss结合三种框架搭建的算法模型,可有效抑制低置信度信息,缓解高置信度样本的信息淹没问题,从而提升模型的检测精度。

    一种基于椭圆特征金字塔的烟草甲虫识别方法

    公开(公告)号:CN113808122B

    公开(公告)日:2024-03-12

    申请号:CN202111130292.7

    申请日:2021-09-26

    摘要: 本发明公开了一种基于椭圆特征金字塔的烟草甲虫识别方法,包括如下步骤:搭建Faster R‑CNN网络;搭建由Resnet50作为骨干网络的特征金字塔网络,作为Faster R‑CNN的特征提取网络;结合椭圆表达式构建椭圆特征提取模块,并嵌入到由Resnet50作为骨干网络的特征金字塔网络中形成椭圆特征金字塔网络;在烟草甲虫数据集上以椭圆特征金字塔网络进行烟草甲虫识别检测。本发明以FPN网络作为Faster R‑CNN的特征提取网络,使用多层次特征图,以解决单一层次特征图不能同时获取小目标检测所需要的细节和语义特征信息的问题。在FPN网络中加入了椭圆特征提取模块,显著提高烟草甲虫的检测精度。本发明针对卷烟厂中的烟草甲虫进行检测,提高了检测精度,更具实用性。

    一种复杂场景下高精度烟草甲虫检测方法

    公开(公告)号:CN113239825A

    公开(公告)日:2021-08-10

    申请号:CN202110545421.2

    申请日:2021-05-19

    摘要: 本发明公开一种复杂场景下高精度烟草甲虫检测方法,包括构建拟合复杂环境和多分布场景的烟草甲虫数据集;搭建结合多尺度可变形卷积和双重注意力的DCA模块;搭建基于DCA模块的特征金字塔网络,以及由特征提取网络Resnet50、特征金字塔网络DCA‑FPN和目标检测框架FasterR‑CNN构成的复杂场景烟草甲虫小目标检测网络;在自建数据集上对提出的网络模型进行训练和测试。本发明使用多尺度可变形卷积能够拟合多场景下烟草甲虫空间几何形变特征,获取烟草甲虫的多种形状和姿态等有效特征,针对性地减少了复杂环境的背景内容或前景区域的无效信息的影响。还利用双重注意力DCA模块进行冗余特征的消除,实现局部跨通道和空间的信息交互,提高烟草甲虫检测在复杂场境下的分类性能。

    一种基于椭圆特征金字塔的烟草甲虫识别方法

    公开(公告)号:CN113808122A

    公开(公告)日:2021-12-17

    申请号:CN202111130292.7

    申请日:2021-09-26

    摘要: 本发明公开了一种基于椭圆特征金字塔的烟草甲虫识别方法,包括如下步骤:搭建Faster R‑CNN网络;搭建由Resnet50作为骨干网络的特征金字塔网络,作为Faster R‑CNN的特征提取网络;结合椭圆表达式构建椭圆特征提取模块,并嵌入到由Resnet50作为骨干网络的特征金字塔网络中形成椭圆特征金字塔网络;在烟草甲虫数据集上以椭圆特征金字塔网络进行烟草甲虫识别检测。本发明以FPN网络作为Faster R‑CNN的特征提取网络,使用多层次特征图,以解决单一层次特征图不能同时获取小目标检测所需要的细节和语义特征信息的问题。在FPN网络中加入了椭圆特征提取模块,显著提高烟草甲虫的检测精度。本发明针对卷烟厂中的烟草甲虫进行检测,提高了检测精度,更具实用性。

    一种细节保持图像去噪方法

    公开(公告)号:CN110390646B

    公开(公告)日:2023-10-17

    申请号:CN201910503633.7

    申请日:2019-06-12

    IPC分类号: G06T5/00

    摘要: 本发明提出一种细节保持图像去噪方法。针对去噪后的图像由于大量缺失细节信息造成的模糊视觉效果和伪影现象,提出一种细节保持卷积神经网络(DRCNN)去噪模型。本方法包括如下步骤:步骤1,分析一个最小化问题并构建去噪数学模型;步骤2,搭建DRCNN的产生模块(GM)和细节保持模块(DRM);步骤3,利用GM学习图像的噪声,并与噪声图像减相减获得中间特征图(IFM);步骤4,利用DRM学习IFM所损失的细节信息,并与IFM相加获得去噪后的图像;步骤5,将实验结果与目前先进的图像去噪方法作比较分析。实验结果表明,DNCNN既能有效保持图像细节信息,表现出突出的视觉效果,同时还具有很强的泛化能力,可扩展到超声和激光图像等真实图像去噪任务中。