基于多尺度联合学习的无交叠视域摄像头之间的低分辨率行人匹配方法

    公开(公告)号:CN105404871B

    公开(公告)日:2019-01-11

    申请号:CN201510831221.8

    申请日:2015-11-25

    申请人: 中山大学

    IPC分类号: G06K9/00 G06K9/62

    摘要: 本发明公开了一种基于多尺度联合学习的无交叠视域摄像头之间的低分辨率行人匹配方法,包括以下步骤:(1)从原始的行人训练数据中分别生成多个不同尺度的行人训练数据;(2)提出不同尺度上同一行人差异最小化准则;(3)建立多尺度联合学习模型;(4)实现不同摄像头间低分辨率行人的匹配。本发明采用多个不同的图像尺度来有效地保持低分辨率行人的表观信息,进一步利用不同尺度上同一行人差异最小化准则来传递行人在不同分辨率下的判别信息,在此基础上建立多尺度联合学习模型,学习每个尺度的最优距离度量。本发明的方法相比于直接将行人图像缩放到单一尺度建模的现有行人匹配方法,能够获得更高的不同摄像头之间低分辨行人的匹配准确率。

    基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法

    公开(公告)号:CN105447465A

    公开(公告)日:2016-03-30

    申请号:CN201510831148.4

    申请日:2015-11-25

    申请人: 中山大学

    IPC分类号: G06K9/00

    摘要: 本发明公开了一种基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法,包括以下步骤:(1)建立行人局部匹配模型;(2)建立行人整体匹配模型;(3)融合局部模型和整体模型实现不完整行人的匹配。本发明在允许不对行人进行手动规整对齐的情况下,建立行人局部匹配模型和整体匹配模型,最后融合两种模型的匹配度信息,从而实现不完整行人匹配。本发明允许不对行人进行手动规整对齐,从而保持不完整行人的原始信息。同时,本发明对行人局部信息和全局信息进行融合匹配,实现优势互补,相比于直接将行人手动对齐到相同尺度建模的现有行人匹配方法,能够显著地提升不同摄像头之间不完整行人的匹配准确率。

    基于多尺度联合学习的无交叠视域摄像头之间的低分辨率行人匹配方法

    公开(公告)号:CN105404871A

    公开(公告)日:2016-03-16

    申请号:CN201510831221.8

    申请日:2015-11-25

    申请人: 中山大学

    IPC分类号: G06K9/00 G06K9/62

    CPC分类号: G06K9/00369 G06K9/6201

    摘要: 本发明公开了一种基于多尺度联合学习的无交叠视域摄像头之间的低分辨率行人匹配方法,包括以下步骤:(1)从原始的行人训练数据中分别生成多个不同尺度的行人训练数据;(2)提出不同尺度上同一行人差异最小化准则;(3)建立多尺度联合学习模型;(4)实现不同摄像头间低分辨率行人的匹配。本发明采用多个不同的图像尺度来有效地保持低分辨率行人的表观信息,进一步利用不同尺度上同一行人差异最小化准则来传递行人在不同分辨率下的判别信息,在此基础上建立多尺度联合学习模型,学习每个尺度的最优距离度量。本发明的方法相比于直接将行人图像缩放到单一尺度建模的现有行人匹配方法,能够获得更高的不同摄像头之间低分辨行人的匹配准确率。

    一种面向无感场景的人脸识别方法

    公开(公告)号:CN111738059B

    公开(公告)日:2024-03-29

    申请号:CN202010378421.3

    申请日:2020-05-07

    申请人: 中山大学

    摘要: 本发明提供一种面向无感场景的人脸识别方法,该方法先通过对百万数量级的高质量的人脸识别数据的训练,得到人脸高维特征表述的方式,在实际场景中,再通过对上传人脸照片质量可量化的评估,结合高维特征向量和底库中其他特征向量的相似度,以及灵活动态调整参数阈值的方式,识别其真实身份,提高无感场景下的人脸识别率;本方法通过对抓拍照片的质量评估,结合高维度特征向量相似度的阈值设置等技术,可以在无感场景下大幅度提高人脸识别的准确率。

    一种基于人脸高维特征的性别预测方法

    公开(公告)号:CN111753641B

    公开(公告)日:2023-07-18

    申请号:CN202010378403.5

    申请日:2020-05-07

    申请人: 中山大学

    摘要: 本发明提供一种基于人脸高维特征的性别预测方法,该方法基于ResNet100层的CNN网络结构的人脸识别模型衍生出的性别预测方法,首先通过对百万数量级人脸识别数据的训练,得到人脸高维特征表述的方式,再通过十万张标注性别的人脸照片,利用一个浅层的网络,训练出可以通过人脸照片就可以判断出性别的模型;本发明完全复用了人脸识别过程中的高维特征的计算结果,只需要很小的计算量就可以得到性别的预测结果,同时还可以保持非常高的预测精度。

    一种基于人脸高维特征的性别预测方法

    公开(公告)号:CN111753641A

    公开(公告)日:2020-10-09

    申请号:CN202010378403.5

    申请日:2020-05-07

    申请人: 中山大学

    IPC分类号: G06K9/00 G06N3/04 G06N3/08

    摘要: 本发明提供一种基于人脸高维特征的性别预测方法,该方法基于ResNet100层的CNN网络结构的人脸识别模型衍生出的性别预测方法,首先通过对百万数量级人脸识别数据的训练,得到人脸高维特征表述的方式,再通过十万张标注性别的人脸照片,利用一个浅层的网络,训练出可以通过人脸照片就可以判断出性别的模型;本发明完全复用了人脸识别过程中的高维特征的计算结果,只需要很小的计算量就可以得到性别的预测结果,同时还可以保持非常高的预测精度。

    一种面向无感场景的人脸识别方法

    公开(公告)号:CN111738059A

    公开(公告)日:2020-10-02

    申请号:CN202010378421.3

    申请日:2020-05-07

    申请人: 中山大学

    摘要: 本发明提供一种面向无感场景的人脸识别方法,该方法先通过对百万数量级的高质量的人脸识别数据的训练,得到人脸高维特征表述的方式,在实际场景中,再通过对上传人脸照片质量可量化的评估,结合高维特征向量和底库中其他特征向量的相似度,以及灵活动态调整参数阈值的方式,识别其真实身份,提高无感场景下的人脸识别率;本方法通过对抓拍照片的质量评估,结合高维度特征向量相似度的阈值设置等技术,可以在无感场景下大幅度提高人脸识别的准确率。

    基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法

    公开(公告)号:CN105447465B

    公开(公告)日:2020-02-07

    申请号:CN201510831148.4

    申请日:2015-11-25

    申请人: 中山大学

    IPC分类号: G06K9/00

    摘要: 本发明公开了一种基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法,包括以下步骤:(1)建立行人局部匹配模型;(2)建立行人整体匹配模型;(3)融合局部模型和整体模型实现不完整行人的匹配。本发明在允许不对行人进行手动规整对齐的情况下,建立行人局部匹配模型和整体匹配模型,最后融合两种模型的匹配度信息,从而实现不完整行人匹配。本发明允许不对行人进行手动规整对齐,从而保持不完整行人的原始信息。同时,本发明对行人局部信息和全局信息进行融合匹配,实现优势互补,相比于直接将行人手动对齐到相同尺度建模的现有行人匹配方法,能够显著地提升不同摄像头之间不完整行人的匹配准确率。