一种基于知识指导-战术感知的智能体学习方法

    公开(公告)号:CN108629422A

    公开(公告)日:2018-10-09

    申请号:CN201810444476.2

    申请日:2018-05-10

    Applicant: 浙江大学

    Inventor: 李玺 胡玥 李钧涛

    Abstract: 本发明公开了一种基于知识指导-战术感知的智能体学习方法,用于在双方对战游戏的环境下,通过两个阶段的训练,利用人类的知识训练出一个以特定战术策略作战的智能体。具体包括如下步骤:1)对游戏画面和智能体的状态进行编码,构成状态特征;2)通过人为编写脚本的方式构建一个具有特定作战策略的脚本;3)智能体与脚本作战,收集对手的状态和动作数据进行第一阶段训练;4)训练后的智能体与电脑内置AI作战,通过强化学习的方式进行第二阶段训练;5)使用上述学习框架训练智能体以特定战术参与作战。本发明适用于微操环境下的双方作战模式的智能体训练,面对各种微操作战场景具有较好的胜率。

    一种基于人体区域对齐化特征表达学习的行人再识别方法

    公开(公告)号:CN108345837A

    公开(公告)日:2018-07-31

    申请号:CN201810046080.2

    申请日:2018-01-17

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于人体区域对齐化特征表达学习的行人再识别方法。方法具体为:获取用于训练行人再识别的图像数据集,并定义算法目标;在仅借助行人身份号标注的情况下,自动学习符合语义内容的人体关键区域;根据这些关键区域使用深度卷积神经网络模型提取相应的深度特征;融合各自区域提取的特征作为最终的人体区域对齐化特征表达;计算行人图像之间的特征表达之间相似度,从而达到识别不同行人的目的;最后在实际的行人搜索应用中,对数据库中图像线下提取特征表达并存储,在行人搜索时在线进行相似度计算。本发明用于图像或视频数据中的行人特征表达学习,针对监控场景下的行人再识别问题能够达到效果鲁棒、准确度高、运行速度快等特点。

    一种基于主题模型的跨模态检索方法

    公开(公告)号:CN104317837B

    公开(公告)日:2017-06-23

    申请号:CN201410532057.6

    申请日:2014-10-10

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于主题模型的跨模态检索方法。它包括如下步骤:1)对数据库中各种类型模态数据提取特征和记录标签;2)基于主题的跨模态检索图模型的建立;3)采用坍缩吉布斯采样方法求解基于主题的跨模态检索图模型;4)用户提交一种类型模态的数据,并提取特征后,利用跨模态检索模型返回与之相关的另外一种类型模态数据;5)利用跨模态数据的真实对应信息和标签信息,对跨模态检索模型同时从对应性和区别性两方面来进行评价。本发明引入跨模态主题和不同模态主题增强概念,并且利用了标签信息,既增强了主题建模的可解释性和灵活性,而且具有很好的可扩展性和判别性。

    一种基于多模态隐性耦合表达的跨媒体排序方法

    公开(公告)号:CN104346450A

    公开(公告)日:2015-02-11

    申请号:CN201410593006.4

    申请日:2014-10-29

    Applicant: 浙江大学

    CPC classification number: G06F16/43

    Abstract: 本发明公开了一种基于多模态隐性耦合表达的跨媒体排序方法。包括如下步骤:1)将文本检索图像的排序样本或图像检索文本的排序样本构建为训练样本;2)对构建得到的训练样本进行基于隐性耦合表达的跨媒体排序学习,得到跨媒体数据的隐性耦合表达挖掘模型以及跨媒体排序模型;3)构建查询文档和候选文档之间的隐性耦合表达;4)基于隐性耦合表达,使用学习得到的跨媒体排序模型进行跨媒体检索。本发明在排序模型中引入了多模态数据的隐性耦合表达,相比一般的多模态数据隐性表达具有更强判别性。由于同时训练了隐性表达挖掘模型和排序模型,它在图像检索文本或文本检索图像中所取得性能较传统的跨媒体排序模型方法更好。

    一种基于主题模型的跨模态检索方法

    公开(公告)号:CN104317837A

    公开(公告)日:2015-01-28

    申请号:CN201410532057.6

    申请日:2014-10-10

    Applicant: 浙江大学

    CPC classification number: G06F16/95

    Abstract: 本发明公开了一种基于主题模型的跨模态检索方法。它包括如下步骤:1)对数据库中各种类型模态数据提取特征和记录标签;2)基于主题的跨模态检索图模型的建立;3)采用坍缩吉布斯采样方法求解基于主题的跨模态检索图模型;4)用户提交一种类型模态的数据,并提取特征后,利用跨模态检索模型返回与之相关的另外一种类型模态数据;5)利用跨模态数据的真实对应信息和标签信息,对跨模态检索模型同时从对应性和区别性两方面来进行评价。本发明引入跨模态主题和不同模态主题增强概念,并且利用了标签信息,既增强了主题建模的可解释性和灵活性,而且具有很好的可扩展性和判别性。

    一种基于关系型的动态路由网络学习方法

    公开(公告)号:CN113887723B

    公开(公告)日:2025-04-08

    申请号:CN202111171434.4

    申请日:2021-10-08

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于关系型的动态路由网络学习方法,用于在分类、分割等多种任务中对相应网络预测算法进行加速。具体包括如下步骤:获取用于训练该任务的图像数据集;建立基于路由选择的基础网络模型;建立模型中选择路径的关系型路由模型;建立样本间路径的关系模型;基于前述建模结果训练预测模型;使用所述学习框架的对现有网络进行加速。本发明基于关系型的动态路由网络学习方法,相比于现有的动态网络学习方法,在现有的ResNet,DenseNet等模型下,可完成的运行速度极大的提升,具有良好的应用价值。

    一种统一时空融合的环视鸟瞰图感知方法

    公开(公告)号:CN115115713B

    公开(公告)日:2025-01-03

    申请号:CN202210843438.0

    申请日:2022-07-18

    Applicant: 浙江大学

    Inventor: 李玺 秦泽群

    Abstract: 本发明公开了一种统一时空融合的环视鸟瞰图感知方法,用于自动驾驶系统中的视觉感知。具体包括如下步骤:获取用于训练神经网络的图像数据集,定义算法目标;建立虚拟视角模型;基础骨干网络环视图像特征提取;建立时序特征队列;统一的时空融合建模融合特征;头部网络输出预测结果。本发明相比于现有技术中的其他感知模型,能够有效地同时融合环视图像的空间关系,同时能够融合不同时刻环视图像的时序关系,通过更好地融合不同时序步取得了更好的感知效果和更快的感知速度。

    适用于路端自动驾驶场景的多任务学习方法、系统及设备

    公开(公告)号:CN118429921A

    公开(公告)日:2024-08-02

    申请号:CN202410449181.X

    申请日:2024-04-15

    Applicant: 浙江大学

    Inventor: 詹水根 李玺

    Abstract: 本发明公开了一种适用于路端自动驾驶场景的多任务学习方法、系统及设备,用于在路端交通场景下同时完成多个视觉感知任务,包含以下步骤:路端数据采集和标注,得到用于训练和测试的多任务数据集,使用批次混合训练策略生成训练数据集,为每个任务构建对应的损失项进行多任务学习模型训练,该模型包含编码器和对应每个任务的解码器,编码器用于对输入图像进行编码,提取多尺度特征,解码器用于预测路端视觉感知任务的结果。最后将训练好的多任务学习模型部署到路端交通场景进行实际应用。本发明解决了多任务学习在路端交通场景下应用的困难,并通过多任务学习提高了路端自动驾驶场景下视觉感知任务的速度和性能,能有效促进车路协同技术的发展。

    一种交互式3D人体姿态估计方法
    80.
    发明公开

    公开(公告)号:CN118212695A

    公开(公告)日:2024-06-18

    申请号:CN202410468569.4

    申请日:2024-04-18

    Applicant: 浙江大学

    Inventor: 李玺 周松燃

    Abstract: 本发明公开了一种交互式3D人体姿态估计方法,是一种交互式人工智能应用,用于大幅降低对于3D人体姿态任务的标注人力和设备成本。主要包含如下步骤:使用已有的2D人体姿态预测网络获取人体关键点的2D坐标;由高斯噪声采样生成噪声序列,并与2D坐标一起作为输入。利用3D人体姿态预测网络的扩散过程初步预测出人体关键点的3D坐标,人工修正少量关键点的3D坐标,将修正后的坐标再次输入到3D人体姿态预测网络中进行推理,最终预测出人体关键点的3D坐标。本发明将人工干预融合到了3D人体姿态预测网络中,使用少量的人工干预大幅度提高模型的人体姿态估计准确度,可以为未知数据的标注节省大量的人力和设备成本,为3D人体姿态估计的发展做出一定贡献。

Patent Agency Ranking