-
公开(公告)号:CN119538095A
公开(公告)日:2025-02-28
申请号:CN202411602789.8
申请日:2024-11-11
Applicant: 西安电子科技大学
IPC: G06F18/2415 , A61B5/369 , A61B5/372 , A61B5/00 , G06F18/213 , G06N3/045 , G06N3/042 , G06N3/0464 , G06N5/045
Abstract: 本发明公开了一种基于时空渐进注意力模型的快速序列视觉呈现脑电分类方法,包括:获取待分类脑电数据;将待分类脑电数据输入至训练好的时空渐进注意力模型进行处理,得到待分类脑电数据的类别;其中,训练好的时空渐进注意力模型以采集并处理后的预设数据作为训练数据集,以提取脑电数据空间特征和时间特征为目的,对初始的时空渐进注意力模型进行训练后得到。脑电数据通过采集被试者在以快速序列视觉呈现的方式观看图像序列得到,图像序列包括红外小目标图像和非目标图像。本发明能够最大限度的利用电极和时间片段的有用信息,同时尽可能减少不相关的信息。
-
公开(公告)号:CN115631352A
公开(公告)日:2023-01-20
申请号:CN202211174426.X
申请日:2022-09-26
Applicant: 西安电子科技大学
Abstract: 本发明公开了一种基于相似度对比的目标检测方法及其装置,涉及图片处理技术领域,包括:基于目标图片样本,生成候选框;基于候选框,进行目标特征提取,构建待选特征数据库;基于已有的图片样本,进行目标特征提取,构建标准特征数据库;从待选特征数据库中,获取置信度最高的候选框,将该候选框与标准特征数据库进行相似度对比,得到分数最高的标准特征数据库图片,并记录其类别信息;将分数最高的标准特征数据库图片与待选特征数据库进行相似度对比,得到分数最高的待选特征数据库图片,并记录其位置信息;将类别信息和位置信息映射到目标图片样本,得到待检测目标的检测结果。本申请能够提高目标定位的准确率,提高目标检测的效果。
-
公开(公告)号:CN114118176A
公开(公告)日:2022-03-01
申请号:CN202210001444.1
申请日:2022-01-04
Applicant: 西安电子科技大学
Abstract: 本申请属于信号处理技术领域,涉及一种脑电信号的分类方法,具体提供了一种基于解耦表示学习的连续快速视觉演示脑电信号分类方法,该方法包括如下步骤:S1,脑电信号的获取及预处理;S2,解耦表示学习网络的构建;S3,对构建的解耦表示学习网络进行训练;S4,对训练后的解耦表示学习网络进行测试;S5,对测试后的解耦表示学习网络进行微调;S6,对微调后的解耦表示学习网络进行实时检测。本发明将学习过程解耦为表示学习过程和分类器学习过程,避免分类器对表示学习过程产生影响,解决了连续快速视觉演示分类中存在的类别不平衡问题导致分类准确率低的问题,从而提高脑电信号的分类准确率。
-
公开(公告)号:CN119557824A
公开(公告)日:2025-03-04
申请号:CN202411593187.0
申请日:2024-11-08
Applicant: 西安电子科技大学
Abstract: 本发明涉及一种多尺度关系学习的跨域脑电情绪识别方法及装置,包括:将脑电图信号输入多尺度关系学习网络,利用多尺度关系学习网络中依次连接的多尺度分离模块、连接关系学习模块和多尺度融合模块,得到融合情绪特征;其中,融合情绪特征包括多个源域的信息;将融合情绪特征输入通用特征归纳网络,利用通用特征归纳网络中的狄利克雷先验网络排除个性化情绪特征对情绪识别的干扰,得到情绪识别结果。上述技术方案利用多尺度关系学习网络捕获情绪特征,能够学习更加符合脑神经科学的脑连接关系,综合考虑多个源域的情绪信息,并对融合情绪特征进行归纳,排除个性化情绪干扰,提高了泛化能力。
-
公开(公告)号:CN117635923A
公开(公告)日:2024-03-01
申请号:CN202311667405.6
申请日:2023-12-06
Applicant: 西安电子科技大学
IPC: G06V10/25 , G06V10/44 , G06V20/40 , G06V10/764 , G06V10/766 , G06V10/22 , G06N3/0464 , G06V10/82
Abstract: 本发明公开了一种轻量化目标检测方法,包括:获取待检测视频;根据待检测视频获取模板补丁;模板补丁为待检测目标在待检测视频中第一次出现时待检测目标的区域;特征提取网络通过空洞卷积生成模版补丁的模板特征图,以及从待检测视频的当前视频帧中截取搜索补丁作为当前搜索补丁,生成当前搜索补丁的搜索特征图,将模板特征图和搜索特征图互相关,得到当前互相关结果;分类分支网络根据当前互相关结果生成分类特征图;回归分支网络根据当前互相关结果生成多个偏差坐标图,根据分类特征图和偏差坐标图生成多个针对待检测目标的预测框,并从多个预测框中筛选出最佳预测框,作为当前视频帧的检测框,直至遍历完待检测视频的每个视频帧时完成检测。
-
公开(公告)号:CN117131356A
公开(公告)日:2023-11-28
申请号:CN202310889486.8
申请日:2023-07-19
Applicant: 西安电子科技大学
IPC: G06F18/213 , G06F18/241 , G06N3/0464 , G06N3/048 , G06N3/08 , G06F123/02
Abstract: 本发明公开了一种多头自注意力机制融合的时空卷积脑电解码方法,包括:采集脑电信号;将脑电信号输入脑电解码网络,以使脑电解码网络中的第一时空特征提取模块和第二时空特征提取模块依次对脑电信号进行处理,第一\二时空特征提取模块用于提取输入数据的频谱特征,并基于频谱特征提取时间特征后,利用多头自注意力机制提取空间‑时间特征;对第二时空特征提取模块输出的空间‑时间特征进行分类,得到脑电信号的分类结果。本发明能够准确表征脑电信号,可分离卷积层有效地解耦了脑电任务和脑电信号之间的时间相关关系,在此基础上利用多头自注意力机制关注大脑的空间激活模式,提取互补的空间表征信息,有利于实现脑电信号的准确分类。
-
公开(公告)号:CN114224340B
公开(公告)日:2023-06-30
申请号:CN202111284441.5
申请日:2021-11-01
Applicant: 西安电子科技大学
Abstract: 本发明公开了一种基于深度学习和脑电信号的驾驶员专注度检测方法,本发明的实现步骤包括:生成训练集;构建驾驶员专注度检测网络;利用生成的训练集对驾驶员专注度检测网络进行训练;采集驾驶员脑电信号;利用训练好的驾驶员专注度网络对驾驶员专注度进行检测。本发明采用空间域特征提取单元以及两个特征强化单元结构,能够充分提取并利用驾驶员专注度脑电信号特征,对驾驶员专注度的检测时效性和准确率有较好的平衡效果。本发明可为驾驶员模拟飞行训练提供数据参考。
-
公开(公告)号:CN113222945A
公开(公告)日:2021-08-06
申请号:CN202110543405.X
申请日:2021-05-19
Applicant: 西安电子科技大学
Abstract: 本发明公开了一种基于双目事件相机的深度信息测量方法,主要解决现有方法难以测量出准确、稠密的场景深度信息的问题。其实现方案为:构建基于双目事件相机的视差计算网络;通过从数据集中获取事件流和视差真值矩阵,对事件流进行归纳表示、注意力聚合和双目匹配,得到视差矩阵并最小化其与视差真值矩阵的差异,实现对视差计算网络的训练;搭建由双目相机组、场景和计算机组成的深度信息测量系统;用训练好的视差计算网络和搭建的深度信息测量系统,测量实际场景的深度信息。本发明能有效提取事件流的时空信息和聚合特征,使得对噪声更加鲁棒,测出的稠密深度信息更加准确,可应用于工业监控、医学科学、人机交互、虚拟现实、现实增强和自动驾驶。
-
公开(公告)号:CN119498849A
公开(公告)日:2025-02-25
申请号:CN202411577096.8
申请日:2024-11-06
Applicant: 西安电子科技大学
IPC: A61B5/16 , A61B5/369 , A61B5/372 , A61B5/00 , G06F18/241 , G06N3/0455 , G06N3/0895 , G06F18/22 , G06F18/25 , G06N3/084
Abstract: 本发明提供的基于脑激活区多视角对比学习的情绪识别方法,包括:获取待识别脑电情绪信号;对待识别脑电情绪信号进行时空变换,得到待识别时空信号;将待识别时空信号输入预训练双路解耦多视角模型,得到情绪识别结果;通过在最终双路解耦多视角编码器中设置用于提取时间特征和空间特征的两路编码器,可以充分挖掘和利用待识别时空信号中的多维信息,实现了对应时空特征的解耦;通过将时空信号样本按照脑区的激活程度划分得到高激活区域和低激活区域,可以根据脑区的不同激活程度执行针对性的数据增强策略,在此基础上利用数据增强后的样本训练得到预训练双路解耦多视角模型,提高了预训练双路解耦多视角模型对于情绪识别的精确度和可靠性。
-
公开(公告)号:CN113222945B
公开(公告)日:2024-02-09
申请号:CN202110543405.X
申请日:2021-05-19
Applicant: 西安电子科技大学
IPC: G06T7/00 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/047 , G06N3/08
Abstract: 本发明公开了一种基于双目事件相机的深度信息测量方法,主要解决现有方法难以测量出准确、稠密的场景深度信息的问题。其实现方案为:构建基于双目事件相机的视差计算网络;通过从数据集中获取事件流和视差真值矩阵,对事件流进行归纳表示、注意力聚合和双目匹配,得到视差矩阵并最小化其与视差真值矩阵的差异,实现对视差计算网络的训练;搭建由双目相机组、场景和计算机组成的深度信息测量系统;用训练好的视差计算网络和搭建的深度信息测量系统,测量实际场景的深度信息。本发明能有效提取事件流的时空信息和聚合特征,使得对噪声更加鲁棒,测出的稠密深度信息更加准确,可应用于工业监控、医学科学、人机交互、虚拟现实、现实增强和自动驾驶。
-
-
-
-
-
-
-
-
-