-
公开(公告)号:CN119474656A
公开(公告)日:2025-02-18
申请号:CN202411361578.X
申请日:2024-09-27
Applicant: 北京邮电大学 , 中国电力科学研究院有限公司
Inventor: 高欣 , 李强伟 , 李保丰 , 翟峰 , 赵兵 , 郜波 , 王一帆 , 秦煜 , 陈昊 , 梁晓兵 , 郑安刚 , 许斌 , 尹建芹 , 徐萌 , 冯云 , 赵英杰 , 于秀丽
IPC: G06F18/10 , G01R35/04 , G06F18/214 , G06F18/2411 , G06F18/2413 , G06F18/241 , G06F18/20 , G06N3/0455 , G06N3/0464 , G06N3/0475 , G06N3/094 , G06N7/01 , G06N20/20
Abstract: 本发明公开了一种双路约束扩散模型的电能表故障检测方法及装置。其中,方法包括:获取待测电能表的多变量数据;将多变量数据输入至预先训练的故障检测模型中,输出待测电能表的检测结果,检测结果包括故障和正常,并且故障检测模型的训练过程为:基于数据标签和样本分布方法对原始少数类样本数据集以及原始多数类样本数据集进行去噪处理,获取少数类有效样本数据集以及多数类样本数据集;利用预先训练的基于双路判别器约束的扩散模型对少数类有效样本数据集进行样本扩散,生成少数类样本数据集;利用少数类样本数据集、所述少数类有效样本数据集以及多数类样本数据集训练预先构建的分类模型,生成故障检测模型。
-
公开(公告)号:CN118818414A
公开(公告)日:2024-10-22
申请号:CN202411183169.5
申请日:2024-08-27
Applicant: 北京邮电大学 , 中国电力科学研究院有限公司
IPC: G01R35/04
Abstract: 本发明公开了一种基于动量更新双路重构自校正电能表异常检测方法及系统,属于电能表异常检测技术领域。本发明方法,包括:获取电能表的原始时间序列数据,并基于所述原始时间序列数据生成时间序列集;基于所述时间序列集及基于动量更新Transformer记忆模块的双路重构自校正框架,训练得到用于电能表异常检测的检测模型;基于所述检测模型,根据目标电能表的时间序列集,对所述目标电能表的异常进行检测。本发明增强了模型对正常数据的学习能力同时提高正异常的区分度,提高了异常检测的性能。
-
公开(公告)号:CN119128750A
公开(公告)日:2024-12-13
申请号:CN202411176227.1
申请日:2024-08-26
Applicant: 北京邮电大学 , 中国电力科学研究院有限公司
Inventor: 高欣 , 陈玲俐 , 李保丰 , 翟峰 , 赵兵 , 郜波 , 王一帆 , 秦煜 , 陈昊 , 梁晓兵 , 郑安刚 , 许斌 , 尹建芹 , 徐萌 , 冯云 , 赵英杰 , 于秀丽
IPC: G06F18/2433 , G01R35/04 , G06N3/0455 , G06F123/02
Abstract: 本发明公开了一种基于多粒度动态感受野的电能表异常检测系统及方法,属于电能计量技术领域。本发明系统,包括:多粒度动态感受野模块,用于对电能表的补丁块数据进行遍历处理,以输出感受野数据;多维时序编解码器模块,用于对所述多粒度动态感受野模块输出的感受野数据进行重构,输出重构数据;双层异常检测模块,用于计算出所述多维时序编解码器模块输出的重构数据的异常分数,基于所述异常分数,确定电能表的异常。本发明通过感受野及数据重构,能够识别数据的异常,以此确定异常分数,并解决了现有重构方法在处理低信息密度的多维时序数据时可能出现的信息丢失或语义特征挖掘不足的问题。
-
公开(公告)号:CN118053207A
公开(公告)日:2024-05-17
申请号:CN202410262076.5
申请日:2024-03-07
Applicant: 北京邮电大学
IPC: G06V40/20 , G06V10/26 , G06V20/70 , G06V10/774 , G06V10/40 , G06V10/82 , G06N3/045 , G06N3/0499 , G06N3/08
Abstract: 本发明提出一种利用图像线索进行3D人体姿势估计的方法,包括,基于Human3.6M和MPI‑INF‑3DHP构建图像训练数据集;构建3D人体姿势估计模型,所述模型包括:特征提取单元,增强单元,自适应特征转换单元;根据所述图像训练数据集对所述3D人体姿势估计模型进行训练,得到训练完成的3D人体姿势估计模型;获取裁剪图像,将所述裁剪图像输入训练完成的3D人体姿势估计模型,进行3D人体姿势估计。通过本发明提出的方法显着提高了单帧3D姿态估计的准确性。
-
公开(公告)号:CN111553276B
公开(公告)日:2023-06-20
申请号:CN202010349928.6
申请日:2020-04-28
Applicant: 北京邮电大学
Abstract: 本发明公开了一种基于自适应特征选择与信号趋势去除的动作计数方法,根据提取的深度特征使用主成分分析方法降维,并利用周期特征自适应的选择特征,确定代表特征;将代表特征使用多项式回归的方法拟合,去除信号趋势项;对去除信号趋势项后的代表特征,检测耦合动作;根据视频重复动作周期信号的峰值完成重复动作计数任务。本发明实现简单灵活,并取得了相当的检测效果。
-
公开(公告)号:CN110826502A
公开(公告)日:2020-02-21
申请号:CN201911088199.7
申请日:2019-11-08
Applicant: 北京邮电大学
Abstract: 本发明公开了基于伪图像序列演化的三维姿态预测方法,具体步骤包括如下:步骤一:输入关节点坐标序列;步骤二:将关节点坐标序列变换为图像序列,并对人体进行划分,同时将所述图像序列转换得到伪图像序列;步骤三:构建序列到序列模型,将历史姿态的伪图像序列预测未来的姿态序列;步骤四:输出未来的姿态序列的关节点坐标序列。本发明提供了基于伪图像序列演化的三维姿态预测方法,(1)新的骨架表示,将姿态预测问题建模为视频预测问题;(2)一个新的结构PISEP2,该结构以非递归的方式预测所有未来的帧,能够有效地避免误差累积和提高计算效率。
-
公开(公告)号:CN118447084A
公开(公告)日:2024-08-06
申请号:CN202410271051.1
申请日:2024-03-11
Applicant: 北京邮电大学
IPC: G06T7/73 , G06V10/764 , G06T17/00 , G06N5/04 , G06N5/025
Abstract: 本发明公开了一种3D视觉定位方法,属于3D视觉技术领域,其包括以下步骤:S1、三维场景图构建:从视觉场景中提取对象O的输入点云,构建一个从语义到实例的分层场景图;S2、具身视角观测体系:在3D空间中推理与文本指令相符的具身视角;S3、具身视角推理图构建:根据输入语言U和3D场景图利用LLMs进行联合推理,获得查询物体的类别、属性以及具身视角等信息;S4、具身视角推理:根据视角下的情景,在Graph上进行深度优先搜索,筛选目标对象。本发明通过引入ViewInfer3D,这是一种新颖的3D视觉定位方法,利用大型语言模型(LLMs)作为协调定位过程的中心代理。我们提出的3D场景图与LLM相结合的方式推理方式,减少了LLMs处理的token数量和推理难度并有利于发现隐含视角。
-
公开(公告)号:CN116259074A
公开(公告)日:2023-06-13
申请号:CN202310079023.5
申请日:2023-01-17
Applicant: 北京邮电大学
IPC: G06V40/10 , G06V40/20 , G06V10/44 , G06V10/80 , G06V10/764 , G06V10/82 , G06N3/0442 , G06N3/0464 , G06N3/08
Abstract: 本发明提出一种端到端的局部视频行为语义预测方法,包括,获取包含人体运动的视频;对视频中的片段采样x帧原始帧,对x帧原始帧的RGB差分信息进行下采样,通过2D卷积网络对下采样得到的RGB差分特征进行特征提取,获得局部运动特征,对局部运动特征进行上采样,获得最终的局部运动特征;将原始帧通过2D卷积网络得到局部空间特征,将最终的局部运动特征与局部空间特征融合得到融合特征;将融合特征与局部运动特征融合得到片段的时空特征;根据视频中所有片段的时空特征,得到历史全局尺度,根据历史全局尺度对视频进行动作类别预测。通过本发明提出的方法,实现了以端到端的方式预测局部视频中的人体行为语义。
-
公开(公告)号:CN112085147A
公开(公告)日:2020-12-15
申请号:CN202010975367.0
申请日:2020-09-16
Applicant: 北京邮电大学
Abstract: 本发明公开了一种基于改进郊狼优化算法的特征选择方法,包括如下步骤:从数据集中获取待选择的特征;初始化郊狼种群,获得郊狼的社会条件;将郊狼的社会条件转化为二进制数据;计算适应度函数值;确定每个子群中的头狼;计算每个子群的文化倾向;更新每个子群中的所有郊狼;每个子群生成二进制新生郊狼;每个子群执行出生‑死亡机制;部分郊狼在子群之间迁移;更新所有郊狼的年龄;判断当前迭代次数是否达到预设的最大迭代次数;选择种群中社会条件最好的郊狼所对应的特征作为最优特征子集。本发明算法调节参数少、搜索效率高、特征选择准确、自适应能力强,在不需要过多的人为参数调整干预的条件下,仍能够快速地搜索到最佳特征组合。
-
公开(公告)号:CN110598646A
公开(公告)日:2019-12-20
申请号:CN201910874723.7
申请日:2019-09-16
Applicant: 北京邮电大学
Abstract: 本发明公开了一种基于深度特征的无约束重复动作计数方法,其特征在于,具体步骤包括如下:构建BN-Inception网络,并进行深度特征提取;将提取的深度特征进行降维,得到降维后的周期图;利用傅里叶变换对所述周期图进行分段阈值滤波,得到光滑的频率图;根据滤波后的频率图进行计数。本发明提供了一种基于深度特征的无约束重复动作计数方法,为了捕获较鲁棒的运动特征并有效的避免相机移动的干扰,对捕获的视频提取RGB和光流图,在此基础上使用深度ConvNets进行特征提取,基于特征值寻找体现重复动作的运动规律,使用变周期的傅里叶变换来处理复杂场景的非静止的视频动态,获取明显的运动频率,更好的统计重复运动次数。
-
-
-
-
-
-
-
-
-