一种全柔性可穿戴智能传感设备和设备构建方法

    公开(公告)号:CN115005776B

    公开(公告)日:2024-08-09

    申请号:CN202210634687.9

    申请日:2022-06-07

    IPC分类号: A61B5/00 A61B5/0205 A61B5/256

    摘要: 本发明提供了一种全柔性可穿戴智能传感设备和设备构建方法,解决现有体征信号分析过程缺乏有效体征信号采集手段,导致信号分析过程中采集维度缺失的技术问题。方法包括:基于水凝胶柔性电极形成柔性传感器阵列;基于所述柔性传感器阵列形成柔性可穿戴设备。通过构建多元响应的水凝胶电极,制备高灵敏、多通道的柔性电化学检测传感器,利用水凝胶网络弹性条件与离子迁移性的定量协同关系,设计具有水凝胶匹配弹性金属电极,在保证导电性、高电子迁移率的情况下,调节弹性模量保障器件的柔性舒适,实现电化学信号稳定测量。

    一种全柔性可穿戴智能传感设备和设备构建方法

    公开(公告)号:CN115005776A

    公开(公告)日:2022-09-06

    申请号:CN202210634687.9

    申请日:2022-06-07

    IPC分类号: A61B5/00 A61B5/0205 A61B5/256

    摘要: 本发明提供了一种全柔性可穿戴智能传感设备和设备构建方法,解决现有体征信号分析过程缺乏有效体征信号采集手段,导致信号分析过程中采集维度缺失的技术问题。方法包括:基于水凝胶柔性电极形成柔性传感器阵列;基于所述柔性传感器阵列形成柔性可穿戴设备。通过构建多元响应的水凝胶电极,制备高灵敏、多通道的柔性电化学检测传感器,利用水凝胶网络弹性条件与离子迁移性的定量协同关系,设计具有水凝胶匹配弹性金属电极,在保证导电性、高电子迁移率的情况下,调节弹性模量保障器件的柔性舒适,实现电化学信号稳定测量。

    基于深度卷积特征自适应集成的目标跟踪方法

    公开(公告)号:CN112053386B

    公开(公告)日:2023-04-18

    申请号:CN202010896617.1

    申请日:2020-08-31

    摘要: 本发明公开一种基于深度卷积特征自适应集成的目标跟踪方法,其步骤如下:提取深度卷积特征;计算核相关滤波器;使用集成矢量更新公式更新当前帧的集成矢量;利用自适应集成计算公式预测当前帧图像的目标位置;使用深度卷积特征更新公式,更新当前帧的深度卷积特征;将选完含有待跟踪目标视频图像序列迭代终止时当前帧的目标中心位置作为待跟踪目标的中心位置。本发明通过集成特征,克服了现有技术存在的跟踪器不能充分利用不同通道目标特征包含的信息,使得本发明在目标跟踪过程中更加准确地获取待跟踪目标位置,增强了目标跟踪的准确性和可靠性。

    基于多波段熵率超像素分割的高光谱图像分类方法

    公开(公告)号:CN112733769B

    公开(公告)日:2023-04-07

    申请号:CN202110060277.3

    申请日:2021-01-18

    摘要: 本发明提出了一种基于多波段熵率超像素分割的高光谱图像分类方法,用于解决现有技术存在的分类精度较低和分类效率较低的技术问题,实现步骤为:(1)对高光谱图像进行多波段熵率超像素分割;(2)获取训练集和测试集;(3)对多分类支持向量机分类器进行训练;(4)获取高光谱图像的分类结果。本发明采用的基于多波段熵率超像素分割的高光谱图像分类方法,充分利用了高光谱图像地物目标的光谱信息和多波段上的空间分布信息,从而有效提高了高光谱图像的分类精度,且分类效率较高,可应用于灾害监测、地质勘探、城市规划、农业和考古等领域。

    基于多尺度特征注意力融合网络的RGB图像分类方法

    公开(公告)号:CN113486981B

    公开(公告)日:2023-02-07

    申请号:CN202110869707.6

    申请日:2021-07-30

    摘要: 本发明提出了一种基于多尺度特征注意力融合的RGB图像分类方法,实现步骤为:(1)获取训练样本集R1和测试样本集E1;(2)构建基于多尺度特征注意力融合网络的图像分类模型T;(3)对基于多尺度特征注意力融合网络的图像分类模型T进行迭代训练;(4)获取RGB图像的分类结果。本发明所构建的多尺度特征注意力融合网络可以对输入特征图进行全局特征和局部特征的提取,然后通过sigmoid激活层和特征融合层对获得的全局特征和局部特征进行融合,有效解决了深度学习中特征提取不充分的问题,有效提升了RGB图像分类的精度。

    基于特征融合的表情识别模型的训练方法及识别方法

    公开(公告)号:CN115690872A

    公开(公告)日:2023-02-03

    申请号:CN202211201514.4

    申请日:2022-09-29

    摘要: 本发明公开了一种基于特征融合的表情识别模型的训练方法及识别方法,该方法包括:采用多张预处理图像训练特征提取网络;构建包括预训练的特征提取网络、翻转特征融合网络、分类网络和乱序融合网络的模型;每次选取多张预处理图像,将选取的图像和其翻转图像输入模型,通过翻转特征融合网络得到第一全局融合特征和翻转注意力损失;通过乱序特征融合网络得到第二全局融合特征;通过分类网络得到第一全局融合特征的分类损失和第二全局融合特征的乱序融合损失;根据这三个损失迭代调整模型参数,从而得到预训练的翻转特征融合网络和预训练的分类网络;将预训练的特征提取网络、预训练的翻转特征融合网络和预训练的分类网络组成的模型作为得到的模型。

    基于边界框回归模型的目标跟踪方法

    公开(公告)号:CN112053384B

    公开(公告)日:2022-12-02

    申请号:CN202010883760.7

    申请日:2020-08-28

    IPC分类号: G06T7/246 G06T7/73 G06T5/00

    摘要: 本发明公开了一种基于边界框回归的目标跟踪方法,主要解决因传统的相关滤波器预测的目标区域不准确的问题,本发明实现的步骤如下:计算连续分辨率的空间特征图;计算相关滤波器;构建边界框回归模型;回归预测的目标位置;将调整后的目标区域位置作为对于目标跟踪的结果;判断当前帧视频图像是否为待跟踪视频图像序列的最后一帧图像,若是,则执行下一步,否则,用下一帧从头开始执行;结束对待跟踪目标的跟踪。本发明通过构造边界框回归行,更准确地预测了目标区域的位置信息,也通过三次线性插值的方式丰富了神经网络对目标区域提取到的特征,最终实现了准确的目标跟踪。

    基于深度网络和稀疏Fisher矢量的图像分类方法

    公开(公告)号:CN110210562B

    公开(公告)日:2022-06-10

    申请号:CN201910473936.9

    申请日:2019-06-02

    摘要: 本发明提出了一种基于深度网络和稀疏Fisher矢量的图像分类方法,旨在解决现有技术中存在的的准确率较低的技术问题,实现步骤为:获取训练数据集和待分类数据集;构建深度神经网络A,对深度神经网络A进行训练,得到深度神经网络B;提取深度神经网络B中第二个全连接层的图像特征,对特征建立高斯混合模型Z1,然后对Z1中的特征向量进行稀疏Fisher矢量编码;用稀疏Fisher编码后的特征对应的图像对深度神经网络B进行训练,得到深度神经网络C;将待分类数据集输入深度神经网络C进行图像分类。本发明提高了分类的准确率和分类效率,可用于对医疗和交通等领域图像的分类。

    基于层间语义信息融合深度卷积网络的图像分类方法

    公开(公告)号:CN113807362A

    公开(公告)日:2021-12-17

    申请号:CN202111031606.8

    申请日:2021-09-03

    摘要: 本发明公开了一种基于层间语义信息融合深度卷积网络的图像分类方法,主要解决现有图像分类算法无法同时兼顾复杂图像分类准确度和对图像中小目标敏感性的问题,其实现方案是:获取训练集和测试集;构建包括多级特征提取模块、金字塔池化结构、语义融合结构及输出层的层间语义信息融合深度卷积网络;采用训练集利用梯度下降法对构建的网络进行迭代训练;将测试集输入到训练好的网络模型中,得到图像的分类结果。本发明通过构建金字塔池化结构与语义融合结构,通过将中层弱语义信息特征与深层强语义信息特征相融合,在兼顾复杂图像分类精度的同时,提高了对小目标的敏感性,提高了图像分类的精度,可用于视频监控、智能交通、医疗保健及人机交互。