图像、激光雷达和4D毫米波多模态融合的3D目标检测方法

    公开(公告)号:CN116935173A

    公开(公告)日:2023-10-24

    申请号:CN202310631912.8

    申请日:2023-05-31

    摘要: 本发明涉及图像处理技术领域,尤其涉及图像、激光雷达和4D毫米波多模态融合的3D目标检测方法。本发明包括以下步骤:S1:采用图像特征提取模块提取图像的高层语义信息;S2:经过语义分割模块将图像特征映射到点云空间中去;S3:使用多模态融合模块、2D骨干网和RPN检测头完成最终的检测任务。本发明通过多模态融合更好的利用各自传感器的优势,将点云信息和图像信息进行互补融合进一步提升3D目标检测方法的性能,以获得更准确、更全面和鲁棒的行驶环境信息;将包含丰富语义信息的图像特征映射到点云空间,增强了点云的语义特征,有效去除了点云空间中的噪声对检测任务的影响。

    通过截断比例最大化提高通用对抗攻击迁移性的方法

    公开(公告)号:CN116797908A

    公开(公告)日:2023-09-22

    申请号:CN202310745425.4

    申请日:2023-06-25

    摘要: 本发明涉及一种通过截断比例最大化提高通用对抗攻击迁移性的方法,包括如下步骤:通过课程优化方法生成人工图像,将人工图像与随机初始化的扰动图片进行线性叠加后作为输入数据;将输入数据输入到标准的CNN模型中进行训练;提取CNN模型中所选多个层的输出值,将所有输出值进行人工激活;计算目标损失函数,根据损失值更新扰动值,每次更新扰动值之后都会对扰动图片进行裁剪,当训练UAP的迭代次数达到最大迭代次数T或者用代理数据验证的欺骗率达到收敛阈值Fmax时认为UAP收敛。本发明只算来自低级卷积的正激活和负激活的大小。实验结果验证本发明方法对不同CNN模型的无数据通用攻击具有更好的迁移性。

    一种自动驾驶场景下基于卷积关联网络的行人目标跟踪方法

    公开(公告)号:CN111652903B

    公开(公告)日:2023-09-08

    申请号:CN202010439299.6

    申请日:2020-05-22

    IPC分类号: G06T7/207

    摘要: 本发明涉及一种自动驾驶场景下基于卷积关联网络的行人目标跟踪方法,通过利用卷积关联网络与轻量级目标检测网络共享特征,来捕获目标间的关联性,从而实现目标跟踪,具体包括以下步骤:A1‑1、获取一个一阶段目标检测模型,然后一共经过5次下采样,在最后三个尺度的特征图上进行预测,除了第一次下采样时采用普通卷积模块,后面四次下采样均采用多尺度下采样模块中设计到的模型均更换成可分离卷积模块,并将模型在最后三次下采样的特征图上做目标框预测,最终构成轻量级行人目标检测网络;A2‑1、预测目标关联矩阵,得到目标关联矩阵;A3‑1、然后通过卷积关联网络设计行人目标跟踪策略,最终获得行人关联的目标跟踪结果。本发明在跟踪精度与速度上都能良好地适应自动驾驶场景。

    一种堆叠注意力机制编解码单元的图像超分辨率重建方法

    公开(公告)号:CN111681166B

    公开(公告)日:2023-04-18

    申请号:CN202010490621.8

    申请日:2020-06-02

    IPC分类号: G06T3/40 G06T5/00

    摘要: 本发明涉及一种堆叠注意力机制编解码单元的图像超分辨率重建方法,具体包括以下步骤:通过将编解码单元作为网络基本单元,由下采样部分、上采样部分和特征融合部分组成;在上下采样的部分中融入通道注意力机制作为改进后的编解码单元来作为改进网络单元,其中向下采样由残差卷积块组成,向上采样由反卷积完成,特征融合是通过通道拼接和通道注意力机制来完成;最终将相同改进后的编解码结构堆叠在一起,组成整体网络的主体部分,使不同编解码结构之间的特征得到更好的融合,经过亚像素卷积层进行上采样,最终得到HR图像。本发明由于编解码结构在图像恢复中的成功表现,可以有效去除图像的噪声,实现对噪声图像进行超分辨率重建。

    一种联合像素与超像素的交互式图像分割方法

    公开(公告)号:CN106981068A

    公开(公告)日:2017-07-25

    申请号:CN201710217696.7

    申请日:2017-04-05

    IPC分类号: G06T7/11 G06T7/194

    摘要: 本发明提供一种联合像素与超像素的交互式图像分割方法,包括步骤S1、采用MeanShift算法对输入图像进行预分割,提取超像素,并采用颜色直方图对每个超像素进行建模以表示超像素的颜色分布;S2、根据用户输入的交互信息,以超像素为节点建立图模型,采用最大流最小割算法完成超像素级分割;S3、在超像素级分割结果的基础上,采用形态学操作在目标边缘构造一个窄带区域;S4、在构造好的窄带上为前景和背景区域分别建立相应的前景和背景模型,并对窄带区域以像素点为节点建立图模型,再采用最大流最小割算法完成像素级分割。本发明通过将像素信息和超像素信息有机结合来提高执行效率,并在尽量少的用户交互条件下获得更为准确的分割结果。

    基于多帧验证Re-ID的无监督多目标跟踪模型的训练成型方法

    公开(公告)号:CN118658101A

    公开(公告)日:2024-09-17

    申请号:CN202410811314.3

    申请日:2024-06-21

    摘要: 本发明公开了基于多帧验证Re‑ID的无监督多目标跟踪模型的训练成型方法,涉及计算机视觉技术领域。本发明基于对比学习和多帧验证策略训练模型的特征表达能力,即训练无监督Re‑ID模块,同时引入动态遮挡估计以便模型更加准确地处理遮挡情况,然后将无监督Re‑ID模块和动态遮挡估计模块结合到一个基于JDE范式地在线多目标框架FairMOT中,进而规避了传统JDE范式难以实现实时跟踪、遮蔽不便于跟踪问题的同时,进一步避免了传统JDE范式的实时性低,且检测分支和嵌入分支存在竞争的问题,进而提高了整体多目标跟踪下的速度和精度。

    一种面向机器视觉感知的暗光图像识别方法

    公开(公告)号:CN117765328A

    公开(公告)日:2024-03-26

    申请号:CN202311806317.X

    申请日:2023-12-26

    摘要: 本发明涉及一种面向机器视觉感知的暗光图像识别方法,该方法包括获取若干暗光图像作为训练样本;构建和训练端到端暗光联合检测网络MVP‑YOLO;MVP‑YOLO包括暗光增强模型MVP‑Net和检测模块YOLOv3,所述MVP‑Net由逆映射网络和DOISP构成,在DOISP中,两个子模块DO‑AWB和DO‑CCMA来模拟ISP中的矫正流程;采用训练样本训练MVP‑YOLO,直至损失不再下降得到训练好的MVP‑YOLO,一张暗光图像输入训练好的MVP‑YOLO输出即是标记有预测框的图像。经过实验验证MVP‑YOLO与现有其他的低光增强检测方法相比,可以识别出更多在低光环境下的类别和物体。

    一种基于自监督循环一致性的肝脏超声图像目标跟踪方法

    公开(公告)号:CN116721070A

    公开(公告)日:2023-09-08

    申请号:CN202310631851.5

    申请日:2023-05-31

    摘要: 本发明涉及图像处理技术领域,尤其涉及一种基于自监督循环一致性的肝脏超声图像目标跟踪方法。本发明包括以下步骤:S1:通过在深度特征空间中进行目标匹配,从超声图像序列中采样相邻两帧图像F1和F2,然后分别通过具有相同参数θ的CNN网络提取图像F1和F2的特征表示;S2:进行当前帧到其他帧的前向跟踪;S3:进行从其他帧到当前帧的后向验证;S4:以前向跟踪和后向验证两者之间的差异作为损失函数。本发明的方法无需使用大量标注数据,只需要利用未标注的数据进行训练,可以有效地解决数据标注不足和数据分布差异的问题。

    一种基于小数据集的图像方法
    10.
    发明公开

    公开(公告)号:CN116597228A

    公开(公告)日:2023-08-15

    申请号:CN202310631505.7

    申请日:2023-05-31

    摘要: 本发明涉及一种基于小数据集的图像方法,包括如下步骤:获取现有小数据集,将小数据集中的每张图像作为一个训练样本;构建和训练网络模型FocalViT,对于Transformer模块的输入层:用全局平均池化令牌替换分类令牌作为分类头的输入;将Transformer模块的自注意力模块修改为焦点注意力模块;将训练样本输入FocalViT,并根据损失函数值反更新FocalViT的参数,当损失函数值不再变化时,得到训练好的FocalViT;对于一张图片将其输入训练好的FocalViT中,即输出分类结果。该方法不依赖大量有标签的数据集,减少人工标注成本,并且在小数据集上分类准确率高。