-
公开(公告)号:CN116503920A
公开(公告)日:2023-07-28
申请号:CN202211099478.5
申请日:2022-09-07
申请人: 苏州微光电子融合技术研究院有限公司
IPC分类号: G06V40/16 , G06V40/12 , G06V10/82 , G06V10/80 , G06V10/774 , G06V10/764
摘要: 本发明公开了自然场景下融合YOLOV5的口罩实时检测算法,包括:在YOLOV5主干网络结构中设置的特征提取模块以及推理模块;所述特征提取模块采用双分支结构,包括用于提取局部特征的局部特征提取分支,以及用于提取全局特征的全局特征提取分支,获取全局特征与局部特征融合后的特征;所述推理模块包括Flatten层、位置编码器、多头注意力结构层、线性层以及Rearrange层,本发明利用全局特征分支提取全局信息并指导局部特征提取,并借鉴transformer编码的思想提出一种推理模块(ReasoningBlock,RB),以提取图像各区域间的语义关系,获取更为丰富的特征信息,从而达到提高面部口罩区域检测精度的目的。
-
公开(公告)号:CN116958641A
公开(公告)日:2023-10-27
申请号:CN202310601710.9
申请日:2023-05-26
申请人: 苏州微光电子融合技术研究院有限公司
IPC分类号: G06V10/764 , G06V10/77 , G06V10/80 , G06V10/82 , G06V10/44 , G06V10/52 , G06N3/0464 , G06N3/0475 , G06N3/045 , G06N3/094
摘要: 本发明提供了一种基于生成对抗网络的RGB‑D显著性检测架构,包括:生成器:生成器以RGB和深度信息为输入,利用Res2Net模块对其分别进行多尺度特征提取,并在上采样过程中逐步融合浅层信息,最大范围内生成以假乱真的图像;判别器:最大范围将生成器生成的图片与真实图片区分开,并通过不断的对抗学习使得生成器生成的图片接近真实图片。通过改进了生成对抗网络的生成器网络,以彩色和深度图为输入,采用相同的多尺度特征提取块Res2Net提取多尺度特征,通过逐步上采样的方式融合浅层细节信息,与常用的相加与拼接不同的是,采用点乘来获取RGB‑D共显著性特征,然后利用通道注意力思想进行特征融合,从而获得显著图。
-
公开(公告)号:CN116258891A
公开(公告)日:2023-06-13
申请号:CN202211656047.4
申请日:2022-12-22
申请人: 苏州微光电子融合技术研究院有限公司
IPC分类号: G06V10/764 , G06V10/80 , G06V10/24 , G06V10/40 , G06V10/77 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/048 , G06N3/08
摘要: 本发明公开了一种融合MobileNetV2的logo检测方法,通过分析YOLOv5主干网络与颈部网络之间的连接方式发现,YOLOv5的主干网络分别在输入图像的8倍、16倍、32倍下采样的卷积层处与颈部网络的连接,然后进行一系列上采样和下采样操作融合这三个卷积层输出的特征图,输出三个特征图给头部预测网络使用。MobileNetV2网络结构中也会对输入图像进行8倍、16倍、32倍下釆样,该网络也可以输出三种不同倍数的下釆样特征图。由此,根据YOLOv5主干网络与颈部网络之间的连接方式,将MobileNetV2中三种下采样特征图输入到YOLOv5的颈部网络,从而实现网络的轻量化。
-
公开(公告)号:CN116310668A
公开(公告)日:2023-06-23
申请号:CN202211088752.9
申请日:2022-09-07
申请人: 苏州微光电子融合技术研究院有限公司
IPC分类号: G06V10/80 , G06V10/82 , G06V10/764 , G06V10/42 , G06V10/44
摘要: 本发明公开了基于双流密集超分辨率的显著性目标检测算法,包括:融合空间膨胀卷积金字塔模型,从而确保网络有足够的感受野捕获不同大小的目标物特征;通过密集超分辨率模块保持高分辨率表示,并以并行方式连接各子网络,实现子网络间的信息交互和多尺度特征融合;采用双分支结构的特征提取模块,利用全局特征提取分支提取全局信息,并指导局部特征提取,本发明解决了传统基于RGB图像对显著目标空间信息提取不充分的问题,通过融合RGB和深度信息以获取更为完备的显著目标检测结果,此外,通过密集超分辨率模块被设计用于解决传统采样操作导致图像模糊问题,其主要采用并行网络和密集连接方式融合多尺度特征。
-
-
-