基于多尺度特征注意力融合网络的RGB图像分类方法

    公开(公告)号:CN113486981A

    公开(公告)日:2021-10-08

    申请号:CN202110869707.6

    申请日:2021-07-30

    Abstract: 本发明提出了一种基于多尺度特征注意力融合的RGB图像分类方法,实现步骤为:(1)获取训练样本集R1和测试样本集E1;(2)构建基于多尺度特征注意力融合网络的图像分类模型T;(3)对基于多尺度特征注意力融合网络的图像分类模型T进行迭代训练;(4)获取RGB图像的分类结果。本发明所构建的多尺度特征注意力融合网络可以对输入特征图进行全局特征和局部特征的提取,然后通过sigmoid激活层和特征融合层对获得的全局特征和局部特征进行融合,有效解决了深度学习中特征提取不充分的问题,有效提升了RGB图像分类的精度。

    基于多尺度特征注意力融合网络的RGB图像分类方法

    公开(公告)号:CN113486981B

    公开(公告)日:2023-02-07

    申请号:CN202110869707.6

    申请日:2021-07-30

    Abstract: 本发明提出了一种基于多尺度特征注意力融合的RGB图像分类方法,实现步骤为:(1)获取训练样本集R1和测试样本集E1;(2)构建基于多尺度特征注意力融合网络的图像分类模型T;(3)对基于多尺度特征注意力融合网络的图像分类模型T进行迭代训练;(4)获取RGB图像的分类结果。本发明所构建的多尺度特征注意力融合网络可以对输入特征图进行全局特征和局部特征的提取,然后通过sigmoid激活层和特征融合层对获得的全局特征和局部特征进行融合,有效解决了深度学习中特征提取不充分的问题,有效提升了RGB图像分类的精度。

    基于巩膜区域监督的眼部图像分割方法

    公开(公告)号:CN113343943B

    公开(公告)日:2023-04-28

    申请号:CN202110823193.0

    申请日:2021-07-21

    Abstract: 本发明公开了一种基于巩膜区域监督的眼部图像分割方法,主要解决传统方法分割精度低的问题。其方案为:通过残差网络提取巩膜区域的高维特征;利用该高维特征对原眼部图像的高维特征进行注意力调整;对调整后的原眼部图像的高维特征进行编码得到编码语义特征;通过跨连接激励对编码语义特征进行改善,并将其输入到解码器进行解码得到解码语义特征;对解码语义特征进行通道调整,输出初步分割结果;计算初步分割结果与分割标签的总损失,并通过将其与设置阈值的比较,判断是否需要对所有的滤波器、编码器和解码器进行优化,输出瞳孔、虹膜和巩膜的最终分割结果。本发明提高了分割精度,可用于人眼定位、眨眼检测、改善视线估计、瞳孔变化监测。

    基于轻量分割卷积网络的RGB图像分类方法

    公开(公告)号:CN113436200A

    公开(公告)日:2021-09-24

    申请号:CN202110849717.3

    申请日:2021-07-27

    Abstract: 本发明提出了一种基于轻量分割卷积网络的RGB图像分类方法,实现步骤为:(1)获取训练样本集R1和测试样本集E1;(2)构建轻量分割卷积网络;(3)构建基于轻量分割卷积网络的图像分类模型H;(4)对基于轻量分割卷积网络的图像分类模型H进行迭代训练;(5)获取RGB图像的分类结果。本发明多个轻量分割卷积网络可以将最大池化得到的高维特征分割成两个不重叠的子特征,然后用不同的卷积层分别对两个子特征进行特征提取,避免了现有技术在整体特征的基础上进行特征提取导致的未充分抑制深度学习网络对于冗余特征的自适应提取的缺陷,有效提高了RGB图像的分类精度。

    基于巩膜区域监督的眼部图像分割方法

    公开(公告)号:CN113343943A

    公开(公告)日:2021-09-03

    申请号:CN202110823193.0

    申请日:2021-07-21

    Abstract: 本发明公开了一种基于巩膜区域监督的眼部图像分割方法,主要解决传统方法分割精度低的问题。其方案为:通过残差网络提取巩膜区域的高维特征;利用该高维特征对原眼部图像的高维特征进行注意力调整;对调整后的原眼部图像的高维特征进行编码得到编码语义特征;通过跨连接激励对编码语义特征进行改善,并将其输入到解码器进行解码得到解码语义特征;对解码语义特征进行通道调整,输出初步分割结果;计算初步分割结果与分割标签的总损失,并通过将其与设置阈值的比较,判断是否需要对所有的滤波器、编码器和解码器进行优化,输出瞳孔、虹膜和巩膜的最终分割结果。本发明提高了分割精度,可用于人眼定位、眨眼检测、改善视线估计、瞳孔变化监测。

    一种基于样本对比与特征聚类融合的表情识别方法

    公开(公告)号:CN117351539A

    公开(公告)日:2024-01-05

    申请号:CN202311223474.8

    申请日:2023-09-20

    Abstract: 本发明公开了一种基于样本对比与特征聚类融合的表情识别方法,包括以下步骤:获取待识别表情数据集;将待识别表情数据集输入训练后的样本对比与特征聚类融合模型中,输出待分类增强表情特征;将待分类增强表情特征输入训练后的全连接层和训练后的分类器进行分类,输出分类结果。本发明的样本对比与特征聚类融合模型进行特征重排列并结合卷积操作以强化中心特征且弱化边缘退化特征;根据所构建样本对标签的异同分别计算对比损失,利用样本对比损失指导网络训练,减小特征的类间相似性和类内差异性;通过特征聚类获取中心特征组,利用余弦相似度衡量样本特征与各聚类中心特征之间的相似性权重,根据相似性权重进行特征融合,获取鲁棒的特征表示。

Patent Agency Ranking