基于高效注意力校准的实时语义分割方法

    公开(公告)号:CN112529081A

    公开(公告)日:2021-03-19

    申请号:CN202011460343.8

    申请日:2020-12-11

    摘要: 本发明提供一种基于高效注意力校准的实时语义分割方法,包括:训练过程及测试过程;训练过程包括以下步骤:使用深层神经网络特征提取器作为主干网络,得到编码像素语义信息的特征图;对主干网络的输出特征图进行像素级别的分类,获取未经细化的粗糙语义分割图;将原始图像和原始图像的标注图像组成图像‑真值标签对,对输出进行监督学习,并保存最优模型用于后序操作;将经过训练后的的粗糙语义分割图作为输入至对特征图中各像素之间建立相关性的自校准空间注意力模块中,使得粗糙语义分割图进行自我校准,获取细化语义分割结果;通过原始图像和标注图像组成的图像‑真值标签对,对细化语义分割结果进行监督学习获取最优模型。

    基于高效注意力校准的实时语义分割方法

    公开(公告)号:CN112529081B

    公开(公告)日:2023-11-07

    申请号:CN202011460343.8

    申请日:2020-12-11

    摘要: 本发明提供一种基于高效注意力校准的实时语义分割方法,包括:训练过程及测试过程;训练过程包括以下步骤:使用深层神经网络特征提取器作为主干网络,得到编码像素语义信息的特征图;对主干网络的输出特征图进行像素级别的分类,获取未经细化的粗糙语义分割图;将原始图像和原始图像的标注图像组成图像‑真值标签对,对输出进行监督学习,并保存最优模型用于后序操作;将经过训练后的的粗糙语义分割图作为输入至对特征图中各像素之间建立相关性的自校准空间注意力模块中,使得粗糙语义分割图进行自我校准,获取细化语义分割结果;通过原始图像和标注图像组成的图像‑真值标签对,对细化语义分割结果进行监督学习获取最优模型。

    一种甲烷无氧偶联制乙烯的方法
    4.
    发明公开

    公开(公告)号:CN115259983A

    公开(公告)日:2022-11-01

    申请号:CN202211007794.5

    申请日:2022-08-22

    IPC分类号: C07C2/80 C07C11/04

    摘要: 本发明涉及一种甲烷无氧偶联制乙烯的方法,属于甲烷资源利用和等离子体物理技术领域。采用两段式的等离子体协同热裂解,第一段采用介质阻挡放电活化甲烷转变成C2‑C4烃类,第二段管式炉高温裂解第一段尾气高选择性制乙烯。在电源输入能量90kJ/L、880℃裂解温度、常压、甲烷与氩气的比例为1:1、停留时间为11.3s条件下,甲烷转化率为29.85%,乙烯的选择性为65.72%。该方法无需催化剂,且可同时提高甲烷转化率和乙烯选择性。反应装置简单,操作方便,反应稳定性高,原料廉价,无污染。

    一种甲烷无氧偶联制乙烯的催化剂和方法

    公开(公告)号:CN117899882A

    公开(公告)日:2024-04-19

    申请号:CN202410065032.3

    申请日:2024-01-17

    摘要: 本发明涉及一种甲烷无氧偶联制乙烯的催化剂和方法,属于甲烷资源利用和等离子体化学技术领域。采用介质阻挡放电离子体协同金属氧化物负载型催化剂实现一步法甲烷无氧偶联制乙烯,等离子体活化CH4,裂解生成大量的CH3自由基,CH3自由基在Cu+‑Ov‑Ce3+位点上吸附并脱氢生成CH2,CH2进一步偶联生成C2H4。该类催化剂更有利于CH3脱氢生成CH2,进而偶联生成C2H4,而非CH3偶联生成C2H6,使得可以一步法实现甲烷无氧耦合生成乙烯。反应装置简单,操作方便,反应稳定性高,原料廉价,无污染。

    一种甲烷无氧偶联制乙烯的方法

    公开(公告)号:CN115259983B

    公开(公告)日:2023-11-10

    申请号:CN202211007794.5

    申请日:2022-08-22

    IPC分类号: C07C2/80 C07C11/04

    摘要: 本发明涉及一种甲烷无氧偶联制乙烯的方法,属于甲烷资源利用和等离子体物理技术领域。采用两段式的等离子体协同热裂解,第一段采用介质阻挡放电活化甲烷转变成C2‑C4烃类,第二段管式炉高温裂解第一段尾气高选择性制乙烯。在电源输入能量90kJ/L、880℃裂解温度、常压、甲烷与氩气的比例为1:1、停留时间为11.3s条件下,甲烷转化率为29.85%,乙烯的选择性为65.72%。该方法无需催化剂,且可同时提高甲烷转化率和乙烯选择性。反应装置简单,操作方便,反应稳定性高,原料廉价,无污染。

    2D和3D混合行为识别方法
    7.
    发明公开

    公开(公告)号:CN111062315A

    公开(公告)日:2020-04-24

    申请号:CN201911287122.2

    申请日:2019-12-14

    申请人: 大连大学

    IPC分类号: G06K9/00

    摘要: 本发明提供一种2D和3D混合行为识别方法。该模型首先利用ResNet34-SE-IM-Net网络对输入帧图像进行空间特征提取,得到N帧特征表示编码图,然后对特征表示编码图进行堆叠变换,并将其送入3D Res18网络对帧间的时序关系进行建模,最后得到输入运动的类别标签,实现人体运动的行为识别。本方法相比于现有方法以较快的视频处理速度取得了相当的识别效果,同时也能够很好地区分一些易混淆的运动。这对于视频理解算法在实际当中应用是很有意义的。

    基于卷积神经网络的人体运动合成方法

    公开(公告)号:CN109584345B

    公开(公告)日:2023-10-31

    申请号:CN201811337675.X

    申请日:2018-11-12

    申请人: 大连大学

    IPC分类号: G06T13/40 G06N3/0464 G06N3/08

    摘要: 本发明涉及一种基于卷积神经网络的人体运动合成方法,包括训练模型及测试模型的步骤:训练模型的步骤包括:收集的运动捕捉数据,输入到网络中进行训练;建立三层卷积神经网络模型,在三层卷积神经网络上叠加一个自编码器网络模型,将输入的运动数据进行编码,解码,训练;在卷积自编码器的隐藏单元中加入位置约束、骨长度约束、轨迹约束;在三层卷积神经网络输出之前,加入人物风格约束网络,同时训练位置约束、骨长度约束、轨迹约束、以及风格网络的提取。测试模型的步骤包括:将测试的运动数据输入到训练好的模型中,以测试数据是否能够合成运动。本发明没有数据集的要求,可以扩展到大量的数据集,进行并行的处理。

    一种基于位置感知对抗生成网络的语义图像合成方法

    公开(公告)号:CN115496821A

    公开(公告)日:2022-12-20

    申请号:CN202211135103.X

    申请日:2022-09-19

    申请人: 大连大学

    IPC分类号: G06T11/00 G06N3/04 G06N3/08

    摘要: 本发明提出了一种基于位置感知对抗生成网络的语义图像合成方法,属于语义图像生成网络模型算法技术领域。本发明将从正态分布中采样的256维噪声向量z和语义分割掩码m输入到构建的LA‑GAN网络中,经过多个LACGNResBlks进行语义融合和上采样,最终进行经过tanh函数处理后,得到生成的真实感图像I。本发明的LA‑GAN网络模型通过图像生成过程深化了和语义分割掩码的融合,保证了图像生成的真实性;并结合分组规范化使得模型的训练减少对batch size大小的依赖性。

    基于图模型的三维人体运动检索方法

    公开(公告)号:CN108763560B

    公开(公告)日:2021-04-30

    申请号:CN201810562080.8

    申请日:2018-06-04

    申请人: 大连大学

    IPC分类号: G06F16/583 G06T19/20

    摘要: 本发明涉及基于运动特征图模型的三维人体运动检索方法。该方法在人体运动捕捉数据的基础上,引入人体关节点之间距离的最大变化幅度作为人体运动数据的特征,构建运动特征图模型,将人体运动序列简化为对应的特征图,并通过特征图的相似度匹配,检索出相同类型的人体运动序列。该方法定义的运动特征符合人体运动中姿态的主要变化,并且在考虑检索精度的前提下,设计一种检索流程来减少检索时间,提高检索效率。