-
公开(公告)号:CN115375425A
公开(公告)日:2022-11-22
申请号:CN202210939964.7
申请日:2022-08-05
Applicant: 大连理工大学
IPC: G06Q40/02 , G06Q30/02 , G06Q20/38 , G06Q20/40 , G06F21/60 , G06F21/62 , G06F21/64 , G06K9/62 , G06N5/00 , G06N20/00
Abstract: 本发明提供一种基于区块链的联邦随机森林模型训练方法,包括:参与方缴纳保证金;选择一定数量的验证方;选举出一个聚合方;获取每个参与方提供的决策树模型最佳分裂特征,由各验证方验证局部模型;由聚合方统计各验证方返回的验证结果;完整建立一棵决策树后,由聚合方打包所有树节点信息生成区块,并将区块广播给所有参与方,如果区块内的每个树节点信息都被验证成功,聚合方将带有其数据签名的区块存储在区块链中。本发明提出利用集成思想的随机森林算法解决单棵决策树准确率低的问题,基于区块链技术的共识机制和防篡改的特点,提高联邦随机森林算法的安全性,并制定奖励分配机制,吸引更多的机构参与模型训练,从而提高联邦系统的可扩展性。
-
公开(公告)号:CN114742240A
公开(公告)日:2022-07-12
申请号:CN202210226465.3
申请日:2022-03-09
Applicant: 大连理工大学 , 深圳市洞见智慧科技有限公司
Abstract: 本发明提供一种横向联邦学习方法、装置及存储介质。其中方法主要包括:中心服务器选择初始联邦学习模型和参数并下发给各个客户端;各客户端分别基于各自本地训练数据同时开始模型训练,进而得到本地的学习模型;各客户端之间采用循环通信方式将本地的学习模型发送至下一个客户端进行训练,所有客户端完成训练后更新循环通信顺序,继续传递模型并训练直至达到设定的训练次数;各客户端将最后训练的模型发送至中心服务器进行聚合,而后使用聚合结果更新联邦学习模型直至损失函数收敛,训练完成。本发明在训练传递模型或者梯度参数时,首先进行环型模型传播,再进行星型传播到服务器,从而构建了一种新的横向联邦学习模型训练架构。
-
公开(公告)号:CN114186263A
公开(公告)日:2022-03-15
申请号:CN202111555002.3
申请日:2021-12-17
Applicant: 大连理工大学 , 深圳市洞见智慧科技有限公司
Abstract: 本发明提供一种基于纵向联邦学习的数据回归方法及电子装置。方法包括:第一客户端和第二客户端分别由本地数据库读取训练数据,初始化本地模型参数;第一客户端和第二客户端分别计算各自的指数数据,所述第二客户端基于公钥将自身计算的指数数据加密后发送至第一客户端;第一客户端计算得到加密后数据特征梯度的部分表达式;所述第一客户端和第二客户端分别得到各自本地回归模型的的梯度,并对梯度加上噪声掩码然后发送给服务器端解密;服务器端对第一客户端和第二客户端发送的梯度数据进行解密并发回第一客户端和第二客户端分别对梯度去噪得到原始梯度,利用新的梯度更新模型参数,得到新一轮的模型参数。
-
公开(公告)号:CN119294476A
公开(公告)日:2025-01-10
申请号:CN202411257725.9
申请日:2024-09-09
Applicant: 大连理工大学
IPC: G06N3/098 , G06N3/0464 , G06N3/094 , G06F21/62
Abstract: 本发明提供一种基于A2CTA的联邦学习后门攻击方法,包括:S1、客户端接收全局模型,并训练上传本地模型;S2、根据原始标签和目标标签优化本地模型,带有部分触发器的样本使用原始标签,带有复合触发器的样本使用目标标签来计算不同的交叉熵损失;S3、通过自适应算法调整由不同触发器的样本损失来优化梯度距离;S4、利用A2CTA计算对应客户端的全局损失;S5、通过全局损失计算本地模型的梯度,更新本地模型;S6、计算的梯度差,在本地训练结束后上传梯度差到服务器。
-
公开(公告)号:CN112749790B
公开(公告)日:2024-12-06
申请号:CN202110081944.6
申请日:2021-01-21
Applicant: 大连理工大学
IPC: G06N3/0499 , G06N3/098 , G06N20/00
Abstract: 本发明公开了一种联邦学习场景下的全连接神经网络模型聚合方法,属于人工智能领域,该方法通过中央服务器向提供独立模型的所有用户下发神经网络的超参数和参数,每个用户根据从中央服务器得到的超参数建立统一的神经网络;每个用户将神经网络的初始值设为从中央服务器得到的参数,并利用各自的数据进行各自的神经网络训练;在各自的神经网络训练结束后,每个用户向中央服务器上传各自的神经网络参数,即用户模型参数;中央服务器收集所有用户模型参数,进行聚合,得到联合模型;中央服务器判定是否达到循环次数;通过逐层逼近由每个客户端模型得到的特征,可得到适合所有用户使用的统一模型;提高了联合模型的全局准确率和泛化能力。
-
公开(公告)号:CN119006308A
公开(公告)日:2024-11-22
申请号:CN202410974564.9
申请日:2024-07-19
Applicant: 大连理工大学
IPC: G06T5/60 , G06T7/11 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种图像预测方法,通过预设网络编码器对所述输入数据进行编码,得到编码数据,所述预设编码器至少包括一个滑动模块,所述滑动模块包括两个滑动特征学习单元和一个区域合并单元,所述滑动特征学习单元用于提取所述输入数据的特征数据,所述区域合并单元用于对所述特征数据进行下采样,得到所述编码数据,即,通过滑动特征学习的Transformer模型对图像进行编码,减小了图像处理过程中的计算量,进而提高了图像处理的效率。
-
公开(公告)号:CN114168988B
公开(公告)日:2024-05-03
申请号:CN202111547242.9
申请日:2021-12-16
Applicant: 大连理工大学 , 深圳市洞见智慧科技有限公司
Abstract: 本发明提供一种联邦学习模型聚合方法及电子装置。方法包括:对第一客户端和第二客户端进行加密样本对齐;服务器端生成公钥和私钥;所述第一客户端计算第一前向传播权重,所述第二客户端计算第二前向传播权重;所述第一客户端基于公钥对所述第一前向传播权重进行加密后,发送至第二客户端,第二客户端将加密的第一前向传播权重和第二前向传播权重整合重构成损失函数;所述第二客户端根据所述重构损失函数求取模型训练梯度更新结果,并基于公钥对所述梯度更新结果进行加密后发送至服务器端;服务器端基于私钥对加密的梯度更新结果进行解密后,获取模型参数更新结果,并将所述模型参数更新结果发送至第一客户端和第二客户端。
-
公开(公告)号:CN117708477A
公开(公告)日:2024-03-15
申请号:CN202311678731.7
申请日:2023-12-07
Applicant: 大连理工大学
IPC: G06F17/16 , G06N20/00 , G06F18/2135
Abstract: 本发明公开了一种基于弹性平均联邦框架的耦合张量分解方法及系统,涉及信号处理和分布式计算技术领域,针对不同服务器上的数据,深入考虑张量数据之间的耦合关系,发展基于联邦学习框架的耦合张量分解模型,利用联邦学习的思想建立耦合约束,结合了张量分解在高维度数据表示与分解中的良好辨识性能、耦合张量分解在跨样本张量数据分析中的优势以及联邦学习在分布式服务器中联合建模的特色,解决了跨服务器平台在不共享数据的前提下实现数据联合分析问题,同时使用的弹性平均联邦框架使各个客户端自身探索的有益信息,从而提出一套完整的面向跨服务器高维度EEG数据的高效耦合张量分解的解决方案,深入研究和挖掘不同被试数据的相似性和差异性。
-
公开(公告)号:CN117315419A
公开(公告)日:2023-12-29
申请号:CN202311163647.1
申请日:2023-09-11
Applicant: 大连理工大学
Abstract: 本发明公开了一种基于扩散模型的图像描述方法,以扩散模型为基本框架,在文本的逆扩散阶段融合图像特征,从而解噪得到对应的图像描述。该发明利用扩散模型的的迭代解噪能力,能够生成更加多样性的图像描述,而且只需要在逆扩散过程中训练一个预测噪声的模型,模型的参数量能够大大降低,此外,图像描述的准确性和通顺度也取得了很好的效果。
-
公开(公告)号:CN116843587A
公开(公告)日:2023-10-03
申请号:CN202310691324.3
申请日:2023-06-12
Applicant: 大连理工大学
IPC: G06T5/50 , G06T9/00 , G06T3/00 , G06N3/0455 , G06N3/084
Abstract: 本发明提供一种基于轻量化注意力机制的风格迁移方法,涉及人工智能技术领域,方法包括:构建基于轻量化注意力机制的神经网络风格迁移模型;模型中,利用一个线性层将内容图像和风格图像投影为多个图像块,将图像块重塑成图像序列;将从图像块中学习到的位置编码添加到图像序列中;使用编码器网络进行编码,得到内容特征和风格特征;基于内容和风格特征生成融合特征;使用解码器网络将融合特征转换为新的图像;将一张内容图像和一张风格图像输入该模型,输出一张同时保留原始内容和获取艺术风格的图像。本发明设计了一种轻量型注意力网络架构,在节省时间的同时避免设备资源的浪费,能够高效生成逼真风格化的图像。
-
-
-
-
-
-
-
-
-