-
公开(公告)号:CN114936170B
公开(公告)日:2025-04-04
申请号:CN202210470444.6
申请日:2022-04-28
Applicant: OPPO广东移动通信有限公司 , 中国科学技术大学苏州高等研究院
IPC: G06F12/0882 , G06F16/174 , G06F16/22 , G06F16/23
Abstract: 本申请实施例公开了一种面向终端设备的数据内联压缩方法、终端设备及存储介质,用于将写数据进行压缩,并将压缩码和压缩码索引插入内联空间,实现激进的数据压缩策略,大幅减少终端设备的数据写入量。本申请实施例方法包括:获取系统更新产生的写数据;当所述写数据插入到页缓存时,从所述页缓存或者外存获取旧数据;计算所述写数据与所述旧数据的异或值的压缩尺寸;根据所述异或值的压缩尺寸和内联空间管理策略,确定是否进行压缩内联;在确定进行压缩内联的情况下,将所述异或值进行压缩,得到压缩码和压缩码索引,并将所述压缩码和所述压缩码索引插入内联空间。
-
公开(公告)号:CN116227632A
公开(公告)日:2023-06-06
申请号:CN202211722497.9
申请日:2022-12-30
Applicant: 中国科学技术大学苏州高等研究院
Abstract: 本发明公开了一种用于客户端异构和数据异构场景的联邦学习方法和装置。其中,该方法包括:中央服务器发送当前全局模型给所选的每个目标客户端;计算每个目标客户端的本地训练能力;根据每个目标客户端的训练能力,自动确定每个目标客户端对应的本地训练轮次;根据本地训练轮次,每个目标客户端基于引入优化的损失函数进行本地模型更新,以得到更新后的模型参数;中央服务器进行全局模型的聚合更新并开启下一轮训练。本发明在客户端进行本地训练时,通过不同客户端的训练能力自动选择训练轮次,并通过优化目标函数来以削弱Non‑IID数据带来的数据偏移问题,减轻了联邦学习中的系统异构性和数据异构性,提高了模型的训练效率。
-
公开(公告)号:CN116186605A
公开(公告)日:2023-05-30
申请号:CN202310080064.6
申请日:2023-02-08
Applicant: 中国科学技术大学苏州高等研究院
IPC: G06F18/241 , G06N3/0455 , G06N3/048 , G06N3/08
Abstract: 本发明公开了一种基于表示重建的持续表示学习方法,首先采用有监督对比学习的训练范式细粒度地学习新类别中的表示知识;然后通过引入表示重建方法对持续学习过程中不断被破坏的类别表示进行重建。本发明基于表示重建的持续表示学习方法,在两个数据集中一致地优于所有其他方法,特别是在重放缓冲区空间更小的情况下,RRCL方法的优势更加明显。本发明基于表示重建的持续表示学习方法,在任务的各个阶段,都能保持优于其他方法的类别表示能力。RRCL成功地重建了分布良好的类别表示,从而显著地减轻了表征遗忘的影响。
-
公开(公告)号:CN114897150B
公开(公告)日:2023-04-07
申请号:CN202210347712.5
申请日:2022-04-01
Applicant: 中国科学技术大学苏州高等研究院
IPC: G06N3/063 , G06F8/61 , G06F30/398
Abstract: 本发明公开了一种AI智能模组的可靠性设计方法,所述AI智能模组包括智能处理单元及其连接的内存单元、电源单元、以太网接口单元、PCIE接口单元、温度监测单元以及电流监测单元。此AI智能模组可以通过千兆网接口和PCIE高速接口,传输图像、视频等其他数据进行相关AI算法的加速处理,如图像增强、图像分类、目标检测、目标识别、目标跟踪等。本发明的AI智能模组的可靠性设计方法主要包含三类,一类是基于硬件电路限流保护的方法,一类是基于软件程序上注更新的方法,还有一类是基于软看门狗、重启指令的方法。一般来说,为完成上述三类方法的技术实现,还需要配套的辅助控制底板,如FPGA、CPLD等来共同完成。
-
公开(公告)号:CN114897150A
公开(公告)日:2022-08-12
申请号:CN202210347712.5
申请日:2022-04-01
Applicant: 中国科学技术大学苏州高等研究院
IPC: G06N3/063 , G06F8/61 , G06F30/398
Abstract: 本发明公开了一种AI智能模组的可靠性设计方法,所述AI智能模组包括智能处理单元及其连接的内存单元、电源单元、以太网接口单元、PCIE接口单元、温度监测单元以及电流监测单元。此AI智能模组可以通过千兆网接口和PCIE高速接口,传输图像、视频等其他数据进行相关AI算法的加速处理,如图像增强、图像分类、目标检测、目标识别、目标跟踪等。本发明的AI智能模组的可靠性设计方法主要包含三类,一类是基于硬件电路限流保护的方法,一类是基于软件程序上注更新的方法,还有一类是基于软看门狗、重启指令的方法。一般来说,为完成上述三类方法的技术实现,还需要配套的辅助控制底板,如FPGA、CPLD等来共同完成。
-
公开(公告)号:CN113033082A
公开(公告)日:2021-06-25
申请号:CN202110258488.8
申请日:2021-03-10
Applicant: 中国科学技术大学苏州高等研究院
IPC: G06F30/27 , G06N20/20 , H04L29/08 , G06F111/08
Abstract: 本发明公开了一种基于异构算力感知的去中心化联邦学习框架,包括云端协调器和若干设备端;所述云端协调器用于运行时管理、训练和参数更新方案生成、定期模型备份;所述设备端用于向云端协调器传输设备信息,在本地运行模型,更新设备端参数;所述云端协调器获取设备端一次训练时间的最小公倍数为超周期,设备端在超周期内计算不同的步长,在超周期的整数倍时聚合模型。根据设备计算能力不同而运行不同的本地步骤,在模型聚合过程中,为了减少慢节点的负面影响;采用了分布式的点对点通信方式,可以在不增加整体通信量的情况下,消除在分布式训练过程中中央服务器的通信压力。
-
公开(公告)号:CN116311113A
公开(公告)日:2023-06-23
申请号:CN202310093603.X
申请日:2023-02-10
Applicant: 中国科学技术大学苏州高等研究院
IPC: G06V20/56 , G06V10/82 , G06V20/70 , G06V10/26 , G06V10/764 , G06N3/0464 , G06N3/082
Abstract: 本发明公开了一种基于车载单目摄像头的驾驶环境感知方法,包括对上采样模块进行结构重参数化和自动驾驶多任务感知。相比普通的线性插值和转置卷积,本发明使用RepUpsample对网络模型的精度有一定的提升。在语义分割模型任务上,对比DeepLabv3、FPN和U‑Net三种模型在使用不同上采样模块时的精度表现,不同的网络模型、不同的上采样位置、以及不同的网络规模,RepUpsample作为上采样方法都可以提升语义分割网络的性能。相比双线性插值算法,mIOU平均能够提升1.77%,P.A.平均能够提升0.74%,相比转置卷积,mIOU能够提升1.16%、P.A.能够提升0.35%。
-
公开(公告)号:CN114546609A
公开(公告)日:2022-05-27
申请号:CN202210035043.8
申请日:2022-01-13
Applicant: 中国科学技术大学苏州高等研究院
Abstract: 本发明公开了一种面向异构集群的DNN推理任务批调度方法。其中,该方法包括:DNN推理任务表征模块、异构集群动态硬件处理能力提取模块和DNN推理任务批调度模块;DNN推理任务表征模块用于根据任务类型对DNN推理任务进行分类构建DNN推理任务类别集;异构集群动态硬件处理能力提取模块用于对将计算节点进行划分,并根据划分结果构建异构计算节点集合;DNN推理任务批调度模块用于通过目标搜索算法,根据DNN推理任务划分集合和异构计算节点集合对DNN任务进行调度。本发明通过上述模块的设置,实现了DNN推理任务的有效分类、解决了异构集群不同节点算力的度量、以及实现了对DNN推理任务的最优调度,实现了面向异构集群的DNN推理任务批调度的优化。
-
公开(公告)号:CN113762418A
公开(公告)日:2021-12-07
申请号:CN202111207574.2
申请日:2021-10-18
Applicant: 中国科学技术大学苏州高等研究院
Abstract: 本发明公开了基于Entity Embedding和TCN模型的移动应用使用行为预测方法,包括:获取用户的移动应用使用信息原始数据集;对移动应用使用信息原始数据集进行预处理;基于神经网络的Embedding层对分类型数据进行Entity Embedding,构建特征数据;以特征数据作为输入,构建TCN网络预测模型;通过训练和验证得到最佳TCN网络预测模型,对即将使用的移动应用进行预测。本发明综合考虑了App使用序列和上下文环境对App使用的影响,将Entity Embedding特征提取方法和TCN神经网络应用于移动应用使用行为预测,避免了传统机器学习模型繁琐的特征处理过程,而且使用Entity Embedding的方法提取特征数据,能够通过自定义输入到TCN模型的特征数据维度来提高TCN模型的预测能力。
-
公开(公告)号:CN119067198A
公开(公告)日:2024-12-03
申请号:CN202410981903.6
申请日:2024-07-22
Applicant: 中国科学技术大学苏州高等研究院
Abstract: 本发明公开了一种基于多层级的边缘设备分布式训练方法及装置,该方法包括:将每个模型训练设备与一个网关匹配,使所有模型训练设备与其匹配的网关之间的关联指数之和最大;将每个网关对应的所有匹配设备划分为多个网关匹配设备层,使所有网关匹配设备层之间的模块度符合预设的模块度划分条件;每个网关匹配设备层内的匹配设备之间的模型参数的交换为同步模式,其他的模型参数的交换为异步模式,基于参数交换执行联合训练。本发明通过优化模型训练设备与网关的匹配、网关内的设备分层以及采用多层级的参数交换模式,降低了模型训练设备的异构性对模型参数在各个模型训练设备及中心服务器之间的交换的效率的影响,提高了模型分布式训练的效率。
-
-
-
-
-
-
-
-
-