-
公开(公告)号:CN117763420A
公开(公告)日:2024-03-26
申请号:CN202311788225.3
申请日:2023-12-25
Applicant: 中国科学院计算技术研究所
IPC: G06F18/241 , G06F18/213 , G06F18/25 , G06N3/045 , G06N3/0464 , G06N3/084 , G01S13/88 , G01S13/08
Abstract: 本发明提供一种神经网络模型,用于根据雷达人体活动数据识别人体活动,包括:时空信息编码器,用于根据所述雷达人体活动数据同步编码时间信息和空间信息;特征提取模块,用于融合所述时间信息和空间信息以提取人体活动特征;外部注意力模块,用于根据所提取的人体活动特征对人体活动分类。本发明的神经网络模型能有效提高模型的泛化性能,在更复杂的人体活动上也能实现较高的准确率,可以应用于跌倒检测、灾害救援等实际场景中。
-
公开(公告)号:CN117708651A
公开(公告)日:2024-03-15
申请号:CN202311694548.6
申请日:2023-12-12
Applicant: 中国科学院计算技术研究所
IPC: G06F18/24 , G06F18/10 , G06F18/213 , G06F123/02
Abstract: 一种基于多专家一致性熵的类不平衡时间序列域自适应系统,包括:随机增强模块,用于对源域/目标域数据进行多种不同类型的随机增强,其中所述源域数据为有标签的时间序列数据,所述目标域数据为无标签的时间序列数据;特征提取模块,用于对增强后的源域/目标域数据进行特征提取;多专家委员会模块,包括多个专家分类子模块,用于对经所述特征提取模块处理后的源域/目标域数据进行分类预测。
-
公开(公告)号:CN112597884B
公开(公告)日:2023-04-28
申请号:CN202011526554.7
申请日:2020-12-22
Applicant: 中国科学院计算技术研究所
IPC: G06V40/20 , G06V10/774 , G06V10/80 , G06V10/77 , G06V10/82 , G06N3/0464
Abstract: 本发明提供了一种手势识别模型的训练方法,包括:获取用于手势识别的训练样本的多模态数据;从所述多模态数据集中分别提取每个模态的特征数据,所述每个模态的特征数据包括一维特征数据或多维特征数据;通过混合注意力机制强化任一模态的多维特征数据,并将强化后的多维特征数据与其余模态的特征数据进行特征融合;以及基于融合后的特征数据对神经网络模型进行训练。通过上述训练方法获得的手势识别模型,能够有效提升手势识别的精确度。
-
公开(公告)号:CN115712852A
公开(公告)日:2023-02-24
申请号:CN202211446503.2
申请日:2022-11-18
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供一种神经网络分类模型的训练方法,模型包括提取样本特征的特征提取器和根据样本特征对样本分类的分类器,该方法包括按以下方式对基于源域的样本及标签训练得到的初始的模型进行一轮或多轮训练:S1、获取训练集,包括源域的样本对和目标域的样本对,任意样本对包括两个样本,每个样本为对人员采集的传感器数据,两个样本所对应的人员和被采集时该人员的行为类别相同;S2、利用训练集对当前的模型进行一次或多次训练,每次训练时基于预定的损失函数更新模型的参数,该损失函数被配置为:惩罚源域的样本的分类偏差、惩罚源域和目标域的样本的样本特征间的边缘分布差异和条件分布差异以及惩罚每个样本对中两个样本对应的时序分布差异。
-
公开(公告)号:CN115690534A
公开(公告)日:2023-02-03
申请号:CN202211315590.8
申请日:2022-10-26
Applicant: 中国科学院计算技术研究所
IPC: G06V10/774 , G06V10/764 , G06V10/82
Abstract: 一种图像分类模型的训练方法,所述图像分类模型通过特征提取器提取样本对应的样本特征并通过分类器根据样本特征对样本进行分类,所述方法包括:S1、获取初始的训练集,其包括来自多个源域的样本及指示每个样本所属源域的域属性以及所属类别的标签,其中,所述样本为图像,各源域的标签空间相同,一种标签对应一个子域;S2、利用初始的训练集训练特征提取器提取样本特征,并基于第一损失函数计算的损失值更新特征提取器的参数,所述第一损失函数被配置为基于域属性和标签惩罚不同源域的同一子域的样本对应的样本特征之间的差异;S3、对初始的训练集中的样本进行增强处理以添加所述多个源域之外的增强样本,利用样本及其增强样本对特征提取器和两个分类器进行对抗训练。
-
公开(公告)号:CN112597884A
公开(公告)日:2021-04-02
申请号:CN202011526554.7
申请日:2020-12-22
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供了一种手势识别模型的训练方法,包括:获取用于手势识别的训练样本的多模态数据;从所述多模态数据集中分别提取每个模态的特征数据,所述每个模态的特征数据包括一维特征数据或多维特征数据;通过混合注意力机制强化任一模态的多维特征数据,并将强化后的多维特征数据与其余模态的特征数据进行特征融合;以及基于融合后的特征数据对神经网络模型进行训练。通过上述训练方法获得的手势识别模型,能够有效提升手势识别的精确度。
-
公开(公告)号:CN110222708A
公开(公告)日:2019-09-10
申请号:CN201910354991.6
申请日:2019-04-29
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提出一种基于集成决策树的跌倒检测方法和系统,包括:对于标记为跌倒的第一加速度数据,取其中平方和最大的点,根据预设时间段范围取点左右的数据段作为原始集,对于标记为非跌倒的第二加速度数据,通过滑窗每次取预设时间段范围的数据段加入原始集,得到最终集,通过快速傅里叶变换提取最终集中各数据段的多维特征作为训练特征;创建多棵决策树,以训练特征作为输入特征,分别输入决策树以迭代训练各决策树,通过每一棵决策树去拟合上一棵决策树的残差,集合训练完成的决策树作为集成学习模型;获取待跌倒检测的第三加速度数据,利用滑窗的方法提取第三加速度数据的数据段作为检测数据,将检测数据输入至集成学习模型,得到跌倒检测结果。
-
公开(公告)号:CN119673469A
公开(公告)日:2025-03-21
申请号:CN202411608809.2
申请日:2024-11-12
Applicant: 中国科学院计算技术研究所
IPC: G16H50/70 , A61B5/021 , A61B5/00 , G16H50/30 , G06F18/27 , G06F18/213 , G06F18/214 , G06F18/25 , G06N3/0985 , G06N3/0464 , G06N3/0442
Abstract: 本发明提供了一种基于元学习的域泛化血压估计训练方法,本发明的技术方通过两阶段元学习的策略,将学习过程分为元训练阶段和元测试阶段,其中元训练阶段进一步分为训练子阶段和优化子阶段,学习过程中,变换地选定源域组成元优化域,其余源域作为元训练域,在每一轮元训练阶段,模型在元训练域内的多个源域上训练,以模拟不同个体的数据分布,通过对不同个体数据的学习,提升模型的泛化性能;在元测试阶段,模型利用源域数据进行微调,以提升在真正的目标域上的预测精度。
-
公开(公告)号:CN117541876A
公开(公告)日:2024-02-09
申请号:CN202311725379.8
申请日:2023-12-15
Applicant: 中国科学院计算技术研究所
IPC: G06V10/764 , G06V10/774 , G06V10/778
Abstract: 本发明提供了一种图像分类模型以及基于类别增量对模型训练的方法,所述图像分类模型包括:嵌入模块,其用于对输入的图像进行嵌入处理,以得到所述图像对应的嵌入向量;提示参数生成模块,其用于根据所述嵌入向量生成一组可学习的提示参数集合;融合模块,其用于将所述嵌入向量和所述可学习的提示参数向量集合进行融合,得到融合向量;特征提取模块,其用于根据所述融合向量提取所述图像对应的特征向量;分类模块,其用于根据提取的特征向量对所述图像进行分类,得到所述图像对应的分类结果。
-
公开(公告)号:CN115795347A
公开(公告)日:2023-03-14
申请号:CN202211554412.0
申请日:2022-12-06
Applicant: 中国科学院计算技术研究所
IPC: G06F18/24 , G06F18/214 , G06N3/08 , G06N3/0442 , G06N3/0464
Abstract: 本发明提供一种基于可穿戴设备数据的行为识别模型构建方法,所述方法包括如下步骤:S1、获取可穿戴设备的数据并进行预处理以获得训练集,所述训练集中包括已知行为类别中的部分行为类别,每个行为类别分别对应于一组行为属性,且每个行为类别包括多个带行为类别标签的样本;S2、采用所述训练集将基本行为识别模型训练至收敛,其中,所述基本行为识别模型包括特征提取网络、属性分支网络、特征分支网络以及分类器,且属性分支网络包括属性编码器和属性解码器、特征分支网络包括特征编码器和特征解码器;S3、以经步骤S2训练至收敛的基本行为识别模型中的特征提取网络、属性解码器、特征编码器、分类器构建行为识别模型。
-
-
-
-
-
-
-
-
-