-
公开(公告)号:CN116306808A
公开(公告)日:2023-06-23
申请号:CN202310147699.3
申请日:2023-02-20
申请人: 北京邮电大学
IPC分类号: G06N3/0464 , G06N3/082 , G06V40/10 , G06V10/774 , G06V10/82
摘要: 本发明提供一种联合动态剪枝和条件卷积的卷积神经网络压缩方法及装置,所述方法包括:将训练样本集输入卷积神经网络得到卷积神经网络中各卷积层的输入特征和输出特征,计算每个卷积层各输入特征间的通道显著性相似度和各输出特征间的样本相似度并构建第一总损失函数,采用第一总损失函数对卷积神经网络迭代得到第一轻量化模型和多个第二轻量化模型,当第一轻量化模型的预测值未达到设定阈值,则将各第二轻量化模型的卷积层与第一轻量化模型卷积层的组合系数组合形成集成模型,并输出预测值。本发明能够根据不同的样本数据对模型进行自适应调整和剪枝,实现模型压缩,同时提高了模型效率。
-
公开(公告)号:CN116229170A
公开(公告)日:2023-06-06
申请号:CN202310199005.0
申请日:2023-03-03
申请人: 北京邮电大学
IPC分类号: G06V10/764 , G06V10/82 , G06V10/774 , G06N3/0464 , G06N3/0895 , G06N5/02
摘要: 本发明提供一种基于任务迁移的联邦无监督图像分类模型训练方法、分类方法及设备:获取包含完整标签和部分标签的本地数据集;获取初始神经网络模型,其包括自适应增量层和深度迁移模块;自适应增量层为在初始神经网络模型的每个卷积层后添加一个全连接层;在深度迁移模块中构建域分类和域混淆的竞争机制,并采用知识蒸馏方法保存相关类别之间的信息;采用本地数据集为模型进行训练,构建域分类损失、域混淆损失和软标签损失的联合损失,并根据分类任务平均精度确定任务优先级,训练得到初始图像分类模型;基于各客户端模型参数构建共享模型,并根据共享模型参数更新初始图像分类模型。本发明提供的图像分类模型精度高且能保留个性化局部模型。
-
公开(公告)号:CN112957734B
公开(公告)日:2023-05-02
申请号:CN202110120070.0
申请日:2021-01-28
申请人: 北京邮电大学
IPC分类号: A63F13/56
摘要: 本发明实施例提供了一种基于二次搜索的地图寻路方法及装置,方法包括:确定寻路的起始节点和终止节点;采用预设第一优先函数进行次优搜索寻路,得到第一寻路路径;基于第一寻路路径中节点到目标直线的距离,确定至少一个目标节点,目标节点到目标直线的距离是预设范围内节点到目标直线的距离中的极大值;根据起始节点、目标节点和终止节点进行路径划分,得到多个分段子路径;采用预设第二优化函数进行次优搜索寻路,得到每个分段子路径的第二寻路路径,并将各第二寻路路径依次拼接,得到最终寻路路径。实现在保证较高寻路质量的前提下,减少寻路中需要搜索的节点,提高寻路效率。
-
公开(公告)号:CN113434212B
公开(公告)日:2023-03-21
申请号:CN202110704204.3
申请日:2021-06-24
申请人: 北京邮电大学
摘要: 本发明公开了一种基于元强化学习的缓存辅助任务协作卸载与资源分配方法,包括在移动协作式应用场景下建立缓存辅助的任务协作卸载与资源分配模型,获取请求任务的缓存状态,获得学习模型,求解卸载决策的步骤,来降低移动协作应用程序场景下计算卸载过程中移动用户的能耗和时延。本发明综合考虑用户偏好和能耗与时延的权衡,以及任务的缓存状态对卸载决策的影响,提出缓存辅助策略,在平衡网络开销的同时提高任务缓存命中率,并依此确定任务的缓存状态,最后基于元强化学习提出一种在线计算卸载策略,解决传统深度强化学习算法对新任务的采样效率低的问题,实验结果证明与其他算法相比本发明可有效降低移动用户时延和能耗,提升用户体验质量。
-
公开(公告)号:CN113507447B
公开(公告)日:2022-09-13
申请号:CN202110671353.4
申请日:2021-06-17
申请人: 北京邮电大学 , 中国雄安集团数字城市科技有限公司
摘要: 本发明提供一种网络流量数据的自适应增强方法及装置,方法包括:基于层次凝聚聚类HAC算法对原始网络流量数据集进行聚类,并根据不平衡比确定少数类聚类;获取少数类聚类中少数类样本的稀疏度权重和数量权重;根据稀疏度权重和数量权重,确定少数类合成样本数量;基于过采样算法和少数类合成样本数量,对原始网络流量数据集进行数据增强。所述装置用于执行上述方法。本发明利用HAC聚类算法不需要参数的特性,减少需要预先设置的参数,降低噪声的影响,并且提出根据聚类中样本稀疏度和样本数量比例分配每个聚类合成样本数量的方案,能够自适应分配每个聚类需要合成新样本的数量,解决了现有技术中合成样本依赖信息不足的问题。
-
公开(公告)号:CN114742166A
公开(公告)日:2022-07-12
申请号:CN202210399528.5
申请日:2022-04-15
申请人: 北京邮电大学
摘要: 本发明公开了一种基于时延优化的通信网现场维护模型迁移方法,包括以下步骤:首先,基于相似度的服务需求分析分别计算类型相似度、名称相似度和解释信息相似度,减少无关信息的影响,提升服务匹配准确率,最终根据各个相似度的权重计算得到综合相似度;其次,根据服务需求相似度选择不同情况下的迁移方式,分别使用直接迁移、冻结骨干网络、多阶段迁移的方式进行模型迁移,解决了通信网智能运维环境复杂,迁移效率低的问题;最后,考虑任务时延、边缘节点资源、任务资源需求多种指标,使用多优先级队列模型以及改进的离散粒子群算法,完成通信网现场维护场景下的迁移任务和维护任务卸载,达到最小化任务时延,提升任务完成效率的目的。
-
公开(公告)号:CN114358307A
公开(公告)日:2022-04-15
申请号:CN202111447012.5
申请日:2021-11-30
申请人: 北京邮电大学
摘要: 本申请实施例提供基于差分隐私法的联邦学习方法及装置,其中的基于差分隐私法的联邦学习方法包括:基于当前接收的用于进行联邦学习的多份训练数据中任一份对应的阶段完成信号,开始监测目标周期内的信号接收情况数据;若监测到目标周期内的信号接收情况数据满足预设的半同步训练规则,则获取目标周期内接收的各个阶段完成信号各自对应的阶段训练结果数据,并基于差分隐私法及各个阶段训练结果数据训练目标模型。本申请能够在为目标模型的联邦学习过程提供差分隐私保护的前提下,有效避免掉队者效应的干扰,避免计算资源的浪费并能够提高目标模型的收敛速度,进而能够有效提高目标模型的训练效率及应用及时性。
-
公开(公告)号:CN113343213A
公开(公告)日:2021-09-03
申请号:CN202110743520.1
申请日:2021-07-01
申请人: 北京邮电大学
摘要: 本发明公开了一种分散自主网络中基于区块链的多CA跨域认证方法,采用由联盟链和多个域组成的多CA跨域认证架构,每个域有自己的CA服务器、网络设备、物理设备和MAMS,MAMS能与CA服务器进行认证交互和与联盟链进行跨域认证交互,联盟链的认证节点为每个域中的CA服务器,用于维护加入联盟链的所有设备的证书信息和状态账本。区块账本中仅记录证书的Hash值、证书状态和所属CA,多个认证交易组成一个区块,多个区块链接组成区块链。证书由颁布该证书的CA服务器保存在自己的数据库中,同时每个认证节点维护一个区块链账本副本和账本世界状态数据库,查询状态数据库能迅速获取区块账本信息。本发明的方法提高了认证效率和安全性,降低存储开销。
-
公开(公告)号:CN113207080A
公开(公告)日:2021-08-03
申请号:CN202110303369.X
申请日:2021-03-22
申请人: 北京邮电大学 , 北京驱云科技有限公司
摘要: 本发明实施例提供了一种VANET中的数据协作传输方法、装置及电子设备,该方法包括:在簇首车辆所在的第一车辆簇的第一成员车辆的历史车辆轨迹信息时序上不连续时,根据第一车辆簇中各个车辆在不同时刻的历史速度信息,确定第一成员车辆的相似车辆,使用相似车辆的历史车辆轨迹信息,补充时序不连续的轨迹信息;基于时序连续的历史车辆轨迹信息确定目标路边单元,并将目标路边单元的标识信息发送至第一成员车辆,以使得第一成员车辆基于目标路边单元的标识信息,将待传输数据发送至目标路边单元。这样,可以减少路边单元之间进行的数据迁移,从而可以降低数据传输过程的时延。进而可以提高车辆与路边单元之间的数据传输效率。
-
公开(公告)号:CN109063120B
公开(公告)日:2021-05-28
申请号:CN201810863191.2
申请日:2018-08-01
申请人: 北京邮电大学
IPC分类号: G06F16/9536 , G06F16/906 , G06N20/00
摘要: 本发明实施例提供了基于聚类的协同过滤推荐方法和装置,包括:获取第一物品的标签基因组向量;基于第一物品的标签基因组向量,将第一物品分为第一数量的簇类;针对各目标物品:当该目标物品与第二物品属于同一簇类时,基于该目标物品与第二物品之间的预设类型的距离计算相关性系数;当该目标物品与第二物品属于不同簇类时,基于该目标物品与第二物品的泊松相关系数计算相关性系数;将目标用户对第二物品的预设的评分,以及该目标物品与第二物品的相关性系数进行加权求和,得到目标用户对该目标物品的预测评分;将预测评分符合预设条件的目标物品,推荐给目标用户。应用本发明实施例能够提高推荐评分的客观性。
-
-
-
-
-
-
-
-
-