基于相似度对比的目标检测方法及其装置

    公开(公告)号:CN115631352A

    公开(公告)日:2023-01-20

    申请号:CN202211174426.X

    申请日:2022-09-26

    Abstract: 本发明公开了一种基于相似度对比的目标检测方法及其装置,涉及图片处理技术领域,包括:基于目标图片样本,生成候选框;基于候选框,进行目标特征提取,构建待选特征数据库;基于已有的图片样本,进行目标特征提取,构建标准特征数据库;从待选特征数据库中,获取置信度最高的候选框,将该候选框与标准特征数据库进行相似度对比,得到分数最高的标准特征数据库图片,并记录其类别信息;将分数最高的标准特征数据库图片与待选特征数据库进行相似度对比,得到分数最高的待选特征数据库图片,并记录其位置信息;将类别信息和位置信息映射到目标图片样本,得到待检测目标的检测结果。本申请能够提高目标定位的准确率,提高目标检测的效果。

    一种轻量化目标检测方法
    5.
    发明公开

    公开(公告)号:CN117635923A

    公开(公告)日:2024-03-01

    申请号:CN202311667405.6

    申请日:2023-12-06

    Abstract: 本发明公开了一种轻量化目标检测方法,包括:获取待检测视频;根据待检测视频获取模板补丁;模板补丁为待检测目标在待检测视频中第一次出现时待检测目标的区域;特征提取网络通过空洞卷积生成模版补丁的模板特征图,以及从待检测视频的当前视频帧中截取搜索补丁作为当前搜索补丁,生成当前搜索补丁的搜索特征图,将模板特征图和搜索特征图互相关,得到当前互相关结果;分类分支网络根据当前互相关结果生成分类特征图;回归分支网络根据当前互相关结果生成多个偏差坐标图,根据分类特征图和偏差坐标图生成多个针对待检测目标的预测框,并从多个预测框中筛选出最佳预测框,作为当前视频帧的检测框,直至遍历完待检测视频的每个视频帧时完成检测。

    一种多头自注意力机制融合的时空卷积脑电解码方法

    公开(公告)号:CN117131356A

    公开(公告)日:2023-11-28

    申请号:CN202310889486.8

    申请日:2023-07-19

    Abstract: 本发明公开了一种多头自注意力机制融合的时空卷积脑电解码方法,包括:采集脑电信号;将脑电信号输入脑电解码网络,以使脑电解码网络中的第一时空特征提取模块和第二时空特征提取模块依次对脑电信号进行处理,第一\二时空特征提取模块用于提取输入数据的频谱特征,并基于频谱特征提取时间特征后,利用多头自注意力机制提取空间‑时间特征;对第二时空特征提取模块输出的空间‑时间特征进行分类,得到脑电信号的分类结果。本发明能够准确表征脑电信号,可分离卷积层有效地解耦了脑电任务和脑电信号之间的时间相关关系,在此基础上利用多头自注意力机制关注大脑的空间激活模式,提取互补的空间表征信息,有利于实现脑电信号的准确分类。

    基于深度学习和脑电信号的驾驶员专注度检测方法

    公开(公告)号:CN114224340B

    公开(公告)日:2023-06-30

    申请号:CN202111284441.5

    申请日:2021-11-01

    Abstract: 本发明公开了一种基于深度学习和脑电信号的驾驶员专注度检测方法,本发明的实现步骤包括:生成训练集;构建驾驶员专注度检测网络;利用生成的训练集对驾驶员专注度检测网络进行训练;采集驾驶员脑电信号;利用训练好的驾驶员专注度网络对驾驶员专注度进行检测。本发明采用空间域特征提取单元以及两个特征强化单元结构,能够充分提取并利用驾驶员专注度脑电信号特征,对驾驶员专注度的检测时效性和准确率有较好的平衡效果。本发明可为驾驶员模拟飞行训练提供数据参考。

    基于双目事件相机的深度信息测量方法

    公开(公告)号:CN113222945A

    公开(公告)日:2021-08-06

    申请号:CN202110543405.X

    申请日:2021-05-19

    Abstract: 本发明公开了一种基于双目事件相机的深度信息测量方法,主要解决现有方法难以测量出准确、稠密的场景深度信息的问题。其实现方案为:构建基于双目事件相机的视差计算网络;通过从数据集中获取事件流和视差真值矩阵,对事件流进行归纳表示、注意力聚合和双目匹配,得到视差矩阵并最小化其与视差真值矩阵的差异,实现对视差计算网络的训练;搭建由双目相机组、场景和计算机组成的深度信息测量系统;用训练好的视差计算网络和搭建的深度信息测量系统,测量实际场景的深度信息。本发明能有效提取事件流的时空信息和聚合特征,使得对噪声更加鲁棒,测出的稠密深度信息更加准确,可应用于工业监控、医学科学、人机交互、虚拟现实、现实增强和自动驾驶。

    基于双目事件相机的深度信息测量方法

    公开(公告)号:CN113222945B

    公开(公告)日:2024-02-09

    申请号:CN202110543405.X

    申请日:2021-05-19

    Abstract: 本发明公开了一种基于双目事件相机的深度信息测量方法,主要解决现有方法难以测量出准确、稠密的场景深度信息的问题。其实现方案为:构建基于双目事件相机的视差计算网络;通过从数据集中获取事件流和视差真值矩阵,对事件流进行归纳表示、注意力聚合和双目匹配,得到视差矩阵并最小化其与视差真值矩阵的差异,实现对视差计算网络的训练;搭建由双目相机组、场景和计算机组成的深度信息测量系统;用训练好的视差计算网络和搭建的深度信息测量系统,测量实际场景的深度信息。本发明能有效提取事件流的时空信息和聚合特征,使得对噪声更加鲁棒,测出的稠密深度信息更加准确,可应用于工业监控、医学科学、人机交互、虚拟现实、现实增强和自动驾驶。

Patent Agency Ranking