-
公开(公告)号:CN119206277A
公开(公告)日:2024-12-27
申请号:CN202411334104.6
申请日:2024-09-24
Applicant: 西北工业大学
IPC: G06V10/762 , G06N3/084 , G06N3/0464 , G06V10/40 , G06V10/74 , G06F17/16 , G06V10/82
Abstract: 本发明公开了一种簇级对比学习约束下的自适应磁性图聚类方法,首先对数据进行预处理,利用本发明的自适应磁性亲和图学习策略构造样本间亲和矩阵;然后对归一化后的数据处理得到增广特征矩阵,通过编码器Encoder学习到对应深层特征并解码Embedding及簇分配概率表示;接着在学到的深层特征空间上计算重构特征间相似度、实例级‑亲和图对比损失和簇级‑对比学习损失,总损失函数为两个损失之和,使用Adam优化器通过梯度下降法最小化自适应对比损失;最后自适应更新稀疏度,动态更新稀疏度的策略可以保证网络训练时的稳定性和相关性。
-
公开(公告)号:CN119204139A
公开(公告)日:2024-12-27
申请号:CN202411334096.5
申请日:2024-09-24
Applicant: 西北工业大学
IPC: G06N3/082 , G06N3/0895 , G06F18/213 , G06F18/27 , G06N3/0985 , G06F18/24
Abstract: 本发明公开了一种最优尺度下半监督流形二值神经网络构建方法,通过将OLSR方法与二进制卷积结合,有效地保留数据的空间信息,弥补信息损失,从而提高深度特征提取的准确性和效率。通过在OLSR模型中集成尺度项,可以更好地适应不同尺度下的数据,从而提高模型的泛化能力和适应性;采用尺度自学习方法,确保每次迭代都获得最优解,从而加快模型的收敛速度,并提高训练效率。
-
公开(公告)号:CN119205867A
公开(公告)日:2024-12-27
申请号:CN202411334131.3
申请日:2024-09-24
Applicant: 西北工业大学
IPC: G06T7/50 , G06V10/44 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/084 , G06N3/0895
Abstract: 本发明公开了一种基于自适应特征视图融合的图像深度表征方法,首先利用多级编码器提取特征视图;之后利用拉格朗日优化法和KKT条件,提出了一个自适应特征视图权重框架,引了非线性逆权重,强化关键视图,同时保留了重要性不高但仍然相关的视图;最后提出一个基于结构化深度图的自适应特征视图融合算法,将最初提取到的特征视图用于融合算法后,生成的统一稀疏深度图对于不同类别的区分更加显著。本发明能够解决对卷积神经网络对低层特征利用不充分、传统方法在特征融合时只关注减少不重要特征视图的权重以及很少通过不同的特征视图自适应地建立内部结构和潜在联系的问题,同时本发明结果可用于聚类分析和深度图构造等数据分析任务。
-
公开(公告)号:CN118710945A
公开(公告)日:2024-09-27
申请号:CN202410835315.1
申请日:2024-06-26
Applicant: 西北工业大学
IPC: G06V10/762 , G06N3/084 , G06N3/0464 , G06V10/40 , G06V10/74 , G06F17/16 , G06V10/82
Abstract: 本发明公开了一种簇级对比学习约束下的自适应磁性图聚类方法,首先对数据进行预处理,利用本发明的自适应磁性亲和图学习策略构造样本间亲和矩阵;然后对归一化后的数据处理得到增广特征矩阵,通过编码器Encoder学习到对应深层特征并解码Embedding及簇分配概率表示;接着在学到的深层特征空间上计算重构特征间相似度、实例级‑亲和图对比损失和簇级‑对比学习损失,总损失函数为两个损失之和,使用Adam优化器通过梯度下降法最小化自适应对比损失;最后自适应更新稀疏度,动态更新稀疏度的策略可以保证网络训练时的稳定性和相关性。
-
公开(公告)号:CN118627579A
公开(公告)日:2024-09-10
申请号:CN202410740473.9
申请日:2024-06-08
Applicant: 西北工业大学
IPC: G06N3/082 , G06N3/0895 , G06F18/213 , G06F18/27 , G06N3/0985 , G06F18/24
Abstract: 本发明公开了一种最优尺度下半监督流形二值神经网络构建方法,通过将OLSR方法与二进制卷积结合,有效地保留数据的空间信息,弥补信息损失,从而提高深度特征提取的准确性和效率。通过在OLSR模型中集成尺度项,可以更好地适应不同尺度下的数据,从而提高模型的泛化能力和适应性;采用尺度自学习方法,确保每次迭代都获得最优解,从而加快模型的收敛速度,并提高训练效率。
-
-
-
-