自适应建模域特征的域泛化行人重识别方法

    公开(公告)号:CN115661923A

    公开(公告)日:2023-01-31

    申请号:CN202211281152.4

    申请日:2022-10-19

    Applicant: 浙江大学

    Abstract: 本发明公开了一种自适应建模域特征的域泛化行人重识别方法,用于在给定多个不同域数据训练的情况下,消除不同域的冲突,对行人建模良好的特征表达,用于检索和匹配任务。该方法具体包括如下步骤:建立用于提取彩色图像的主干深度神经网络;建立子特征嵌入网络;建立域样本自适应的子特征组合模块;建立静态域通用特征提取模块;建立域样本自适应特征与域通用特征融合模块;基于前述模型结构进行预测模型训练,并得到最终的训练好的神经网络模型。本发明适用于多域数据训练测试下的行人重识别,面对各类复杂情况具有较佳的效果和鲁棒性。

    一种面向复杂场景细粒度属性驱动的步态数据集合成方法

    公开(公告)号:CN112766057B

    公开(公告)日:2022-05-13

    申请号:CN202011614389.0

    申请日:2020-12-30

    Abstract: 本发明公开了一种面向复杂场景细粒度属性驱动的步态数据集合成方法,并且使用此方法生成了一组可以有效提升步态识别性能的虚拟步态数据集。具体包括以下步骤:生成多属性的行人3D模型;获取用于绑定的行人步态动作;将步态动作绑定到生成的3D模型上,获得行走的3D行人模型;在3D引擎中搭建多角度步态数据捕获场景;采集步态剪影图数据和细粒度标签,并进行数据预处理;使用主流步态识别框架预训练检验生成的虚拟数据集的效果。本发明用于生成虚拟的行人步态数据集,生成的数据具有高质量,多视角,多属性等特点,主流算法使用本数据集进行预训练很好的提升了识别性能与鲁棒性。

    基于扩散模型的位置可控的文生视频方法

    公开(公告)号:CN118411650A

    公开(公告)日:2024-07-30

    申请号:CN202410588296.7

    申请日:2024-05-13

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于扩散模型的位置可控的文生视频方法,该方法具体步骤如下:获取任意的训练数据集;设计文生视频模型的整体框架,利用时空位置感知层使文生视频模型拥有定位感知能力和时序感知能力;定义优化目标,在给定训练数据集上训练文生视频模型,不断迭代,训练好文生视频模型后,进行推理,生成对应的视频。本发明将位置信息和时序信息通过即插即用的方式插入到文生视频模型中,高效地实现位置可控的文生视频任务。本发明可以生成位置可控的时序连续的视频,并且可以在众多开源的文生图模型上有良好的效果。

    一种基于样本自适应表征的步态识别方法

    公开(公告)号:CN115661922A

    公开(公告)日:2023-01-31

    申请号:CN202211281099.8

    申请日:2022-10-19

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于样本自适应表征的步态识别方法,通过在步态识别中引入元知识来达到样本自适应的目的,从而可以让模型对广泛存在的如角度,条件的复杂场景有更好的感知能力。该方法具体步骤如下:获取步态数据;定义优化目标;使用元超网络学习元知识;利用元知识对空间、时间、通道三个维度进行注意力机制;利用元知识对时间信息进行特征整合;迭代训练。本发明适用于复杂场景下的步态识别,利用元知识对多样的内外部条件具有较好的效果和泛化能力。

    一种面向复杂场景细粒度属性驱动的步态数据集合成方法

    公开(公告)号:CN112766057A

    公开(公告)日:2021-05-07

    申请号:CN202011614389.0

    申请日:2020-12-30

    Abstract: 本发明公开了一种面向复杂场景细粒度属性驱动的步态数据集合成方法,并且使用此方法生成了一组可以有效提升步态识别性能的虚拟步态数据集。具体包括以下步骤:生成多属性的行人3D模型;获取用于绑定的行人步态动作;将步态动作绑定到生成的3D模型上,获得行走的3D行人模型;在3D引擎中搭建多角度步态数据捕获场景;采集步态剪影图数据和细粒度标签,并进行数据预处理;使用主流步态识别框架预训练检验生成的虚拟数据集的效果。本发明用于生成虚拟的行人步态数据集,生成的数据具有高质量,多视角,多属性等特点,主流算法使用本数据集进行预训练很好的提升了识别性能与鲁棒性。

Patent Agency Ranking