基于Transformer和对抗学习的跨模态行人重识别方法

    公开(公告)号:CN118736485A

    公开(公告)日:2024-10-01

    申请号:CN202410781684.7

    申请日:2024-06-18

    Abstract: 一种基于Transformer和对抗学习的跨模态行人重识别方法,首先使用模态特定特征提取器分别从可见光图像和红外图像中提取特征。然后,通过跨模态特征对齐模块对提取得到的模态特定特征进行调整,以减少模态内和模态间的特征差异。接着,使用权重共享的共享特征提取器提取模态共享特征,并采用多尺度特征融合方法,利用Transformer通过注意力机制将模态共享特征的上下文信息补充到模态特定特征中,以弥补模态特定特征在全局语义上的不足。在对抗学习过程中,交替训练分类器和特征提取器,从而更好地提取模态不变特征。本发明有效减少了可见光和红外图像之间的模态差异,显著提升了跨模态行人重识别的精度和鲁棒性,适用于安防监控、智能交通等领域。

    一种基于改进YOLOX的交通监控视频车辆检测方法、系统及设备

    公开(公告)号:CN116682074A

    公开(公告)日:2023-09-01

    申请号:CN202310628016.6

    申请日:2023-05-30

    Abstract: 一种基于改进YOLOX的交通监控视频车辆检测方法、系统及设备,方法为:收集实验数据并将交通监控视频分成图像序列,对输入图像预处理,得到数据增强后图像;对输入图像提取特征,用MobileViT模块增强特征并输出,提高模型鲁棒性和精度;对输出的特征图,经解耦输出网络,生成车辆分类、回归和置信度预测结果,计算损失值,用Varifocal Loss作为YOLOX的置信度损失函数,解决无锚框检测器训练中前景类和背景类之间极度不平衡问题;测试阶段,将测试视频分成图像序列,输入已收敛的上述网络模型,生成测试结果;其系统及设备利用基于改进YOLOX的交通监控视频对车辆进行检测;本发明有效缓解了在交通监控视频下车辆目标尺度变化大、车辆遮挡和光照变化导致的检测精度降低的问题。

    一种基于小样本学习的茶叶病虫害分类方法、系统、设备及介质

    公开(公告)号:CN116129196A

    公开(公告)日:2023-05-16

    申请号:CN202310196584.3

    申请日:2023-03-03

    Abstract: 一种基于小样本学习的茶叶病虫害分类方法、系统、设备及介质,其方法是:首先制作茶叶病虫害样本数据集,通过特征解耦的方法将茶叶病虫害数据集图像中的弱相关特征和强相关特征进行解耦,然后在强相关特征提取过程中添加注意力机制模块,让茶叶病虫害分类模型在学习过程中聚焦于强相关特征信息,最后将处理后的特征向量转换成类高斯分布,依次通过Sinkhorn映射、迭代类中心估计、均衡类中心更新、最终决策,来迭代寻找类中心的最大后验概率估计;其系统、设备及介质用于按小样本的茶叶病虫害分类方法进行茶叶病虫害分类;本发明克服了传统的深度学习算法需要庞大的数据集来支撑,图像样本采集困难等问题,采用小样本学习的方法实现了茶叶病虫害分类,在已有的数据集上达到高效高精度判别。

    基于多级沙漏结构的单幅图像去雾模型构建及去雾方法

    公开(公告)号:CN110349093B

    公开(公告)日:2022-11-29

    申请号:CN201910499551.X

    申请日:2019-06-11

    Abstract: 本发明公开了一种基于多级沙漏结构的单幅图像去雾模型构建及去雾方法,通过设计了去雾模型中的传输图估计网络,利用多个级联的传输图估计模块,将传输图信息分解为全局信息和局部信息,通过多级级联的方式,使得后面的沙漏单元可以更好地融合区域中的细节与整体降质情况之间的关系,对上一级沙漏结构输出的结果进行优化,以准确估计远景的相对距离已经各个景物在原图像中的准确位置,逐步消除因不同尺度特征融合而造成的特征图重影,不连续的现象,自适应地处理不同程度雾霾图像,提高了传输图估计的准确度,从而提高了图像去雾的准确率。

    一种视频手势分类方法
    8.
    发明公开

    公开(公告)号:CN109271840A

    公开(公告)日:2019-01-25

    申请号:CN201810826221.2

    申请日:2018-07-25

    Abstract: 本发明涉及一种视频手势分类方法。所涉及的方法包括:对同一对象集的可见光视频和深度视频进行归一化处理;计算可见光视频中每一帧图像的显著性,得到显著性视频;分别利用归一化后的可见光视频、深度视频、显著性视频对三维卷积神经网络进行训练,所述三维卷积神经网络包括:依次设置的输入层、18个卷积层、全局平均池化层和全连接层;对得到的可见光视频、深度视频和显著性视频的空域维度的全局平均池化层的特征进行特征融合得到融合特征,根据得到的融合特征进行视频手势分类。本发明所针对的问题是基于视频的大规模手势识别,其类别数据和视频数据量都远大于现有发明。本发明能够对视频进行实时识别,更具可信度和实用性。

    一种含噪图像边缘检测方法

    公开(公告)号:CN103914829B

    公开(公告)日:2017-01-11

    申请号:CN201410030062.7

    申请日:2014-01-22

    Abstract: 本发明公开了一种含噪图像边缘检测方法:步骤1,输入含噪图像;步骤2,改进小波模极大值边缘检测算子,得到水平方向的和竖直方向的改进后的边缘检测算子;步骤3,计算含噪图像在水平和垂直方向的偏导数;步骤4,计算图像梯度的幅度值矩阵和角度矩阵;步骤5,确定边缘点,得到边缘图像;步骤6,边缘图像融合,得到融合后的图像;步骤7,确定最佳边缘,得到最终的边缘图像;步骤8,输出最终边缘图像。本发明的方法将shear变换和传统边缘检测算子相结合以进行图像边缘检测,最终得到的去噪后图像即能有效地抑制噪声,又能检测出更完整连续的图像边缘。

    基于不规则三角网的LiDAR点云数据边缘检测方法

    公开(公告)号:CN103729846B

    公开(公告)日:2017-01-11

    申请号:CN201310732429.5

    申请日:2013-12-23

    Abstract: 本发明公开了一种基于不规则三角网的LiDAR点云数据边缘检测方法:读取目标区域原始LiDAR点云数据;剔除粗差噪声点;将剔除粗差噪声后的LiDAR点云数据进行Delaunay三角剖分;计算不规则三角网中每个空间三角形的形变量并保存;计算三角形的形变量阈值;将得到的形变量大于形变量阈值的空间三角形标记为边缘三角形;计算狭长三角形;比较各三角形的狭长度Li和狭长度阈值;确定边缘点,得到LiDAR点云数据的边缘图像。本发明的方法利用三角剖分过程中三角形的形状变化进行具有高程突变的边缘点检测,利用狭长三角形进行数据空白区域的边缘点检测,实现了在原始数据中进行边缘检测保留LiDAR点云数据更多的信息。

Patent Agency Ranking