一种可迁移电力系统暂态稳定评估方法及系统

    公开(公告)号:CN118607754A

    公开(公告)日:2024-09-06

    申请号:CN202410625131.2

    申请日:2024-05-20

    申请人: 山东大学

    摘要: 本发明公开了一种可迁移电力系统暂态稳定评估方法及系统,包括:获取电力系统运行时的电气参量数据,将获取的电气参量数据输入至训练好的电力系统暂态稳定评估模型,输出电力系统的暂态稳定性评估结果;其中,电力系统暂态稳定评估模型的训练过程具体如下:构建源域基础模型;使用源域基础模型对目标域无标签电气参量样本进行标签标注,利用标注样本对源域基础模型进行训练,对模型参数进行初次微调;使用初次微调后的源域基础模型对目标域剩余的无标签电气参量样本进行稳定性评估,利用合并后的样本对源域基础模型进行二次微调;本发明通过两阶段的模型微调,提升了目标域样本的伪标签的质量,提升模型的分类性能。

    基于标签信息与文本特征的文本分类方法、系统及介质

    公开(公告)号:CN109492101B

    公开(公告)日:2020-11-17

    申请号:CN201811296063.0

    申请日:2018-11-01

    申请人: 山东大学

    IPC分类号: G06F16/35

    摘要: 本发明公开了基于标签信息与文本特征的文本分类方法、系统及介质,包括:特征提取步骤,从给定的文本中提取第一文本特征,从给定的文本对应的标签中提取第一标签特征;特征融合步骤,将第一文本特征和第一标签特征进行特征融合,得到融合后的第三特征;模型训练步骤,将融合后的第三特征输入到多层感知机中对多层感知机进行训练,得到训练好的多层感知机;文本分类步骤,从待分类的文本中提取第二文本特征,从待分类的文本对应的标签中提取第二标签特征,对第二文本特征和第二标签特征进行特征融合得到融合后的第四特征,将融合后的第四特征输入到已经训练好的多层感知机中进行分类,输出分类结果。

    基于深度学习的人际交互肢体语言自动生成方法及系统

    公开(公告)号:CN108921284B

    公开(公告)日:2020-11-17

    申请号:CN201810623961.6

    申请日:2018-06-15

    申请人: 山东大学

    IPC分类号: G06N3/04 G10L25/63 G10L15/26

    摘要: 本发明公开了基于深度学习的人际交互肢体语言自动生成方法及系统,包括:步骤(1):从演讲视频中提取每一帧图像所对应时间范围内人物的音频训练特征;同时,从演讲视频中提取每一帧图像内人物的肢体训练特征,建立音频训练特征与肢体训练特征之间的的一一对应关系;步骤(2):构建双层循环神经网络模型;将音频训练特征作为双层循环神经网络模型的输入值,将肢体训练特征作为双层循环神经网络模型的输出值,对已构建的双层循环神经网络模型进行训练,得到训练好的双层循环神经网络模型;步骤(3):从待推荐肢体动作的音频中提取音频测试特征;步骤(4):将音频测试特征输入到训练好的双层循环神经网络模型中,输出推荐的肢体测试特征。

    一种基于时序属性的图神经网络的短视频推荐方法及装置

    公开(公告)号:CN110334245A

    公开(公告)日:2019-10-15

    申请号:CN201910599470.7

    申请日:2019-07-04

    申请人: 山东大学

    摘要: 本公开公开了一种基于时序属性的图神经网络的短视频推荐方法及装置,方法包括:采用基于图结构的循环神经网络将用户点击过的短视频按照时间顺序进行建模,获得用户的兴趣表征;采用多层感知机将用户点赞的短视频和关注了作者的短视频进行建模,获得用户的增强兴趣表征;采用基于图结构的循环神经网络将用户未点击过的短视频按照时间顺序进行建模,获得用户的非兴趣表征;接收新的短视频,获得新短视频特征,将其与用户的兴趣表征、增强兴趣表征和非兴趣表征输入预测网络,得到短视频的预测概率;根据不同短视频的预测概率数值的降序进行短视频推荐。

    一种基于注意力机制的视频关注时刻检索方法及装置

    公开(公告)号:CN110019849A

    公开(公告)日:2019-07-16

    申请号:CN201810501841.9

    申请日:2018-05-23

    申请人: 山东大学

    IPC分类号: G06F16/43

    摘要: 本发明公开了一种基于注意力机制的视频关注时刻检索方法及装置,包接收视频数据和查询信息,将接收的视频数据预分割为时刻片段;根据查询信息提取的查询特征,自适应地为上下文时刻片段提取的时刻特征分配权重,得到每个时刻片段增强的时刻表示特征;分别进行模态内和模态间的特征交互,生成增强的时刻表示特征与查询特征对应的时刻-查询表示;根据时刻-查询表示利用回归模型预测相关性分数和对应时刻片段的时间偏移量,得到与查询信息描述一致的视频片段。

    一种基于神经网络的多模态协同学习方法及装置

    公开(公告)号:CN108846375B

    公开(公告)日:2019-06-18

    申请号:CN201810697764.9

    申请日:2018-06-29

    申请人: 山东大学

    IPC分类号: G06K9/00 G06N3/02

    摘要: 本发明公开了种一种基于神经网络的多模态协同学习方法及装置,该方法包括:S1抓取短视频数据建立短视频数据集,所述短视频数据包括用户历史发布的短视频及其附属信息;S2提取短视频数据集中短视频数据的多模态特征,并针对各个模态特征进行信息补足;S3依次将各个模态特征中任一模态特征作为主模态,其余作为辅模态,并计算主模态和辅模态的关系权重,分别进行同一性特征信息与补充性特征信息分类,将补充性特征信息和通过神经网络增强的同一性特征信息进行信息重组;S4建立关注机制网络,区分每一个重组后的模态特征信息对短视频所属场景分类的贡献程度,利用神经网络进行短视频场景分类。

    基于神经网络的多模态互补服装搭配方法、系统及介质

    公开(公告)号:CN108960959A

    公开(公告)日:2018-12-07

    申请号:CN201810501840.4

    申请日:2018-05-23

    申请人: 山东大学

    IPC分类号: G06Q30/06 G06N3/02

    摘要: 本发明公开了基于神经网络的多模态互补服装搭配方法、系统及介质,从服装的图片中获取视觉特征,从服装的文字描述中获取文本特征;利用自编码器学习不同服装的视觉特征和文本特征的兼容性空间,得到视觉特征的隐含表示和文本特征的隐含表示;建立重建向量分别与输入特征之间的关系模型;建立服装兼容性模型;然后,基于服装兼容性模型,采用贝叶斯个性化排序算法构建兼容性偏好模型;建立视觉特征隐含表示和文本特征隐含表示的一致性模型;然后,建立服装的多模态隐含特征一致性模型;构建基于深度神经网络的多模态互补服装搭配模型;对已经构建的多模态互补服装搭配模型进行训练;利用已经训练好的多模态互补服装搭配模型进行服装搭配推荐。