基于长短期专家注意力网络的交通流量预测方法、系统、介质及设备

    公开(公告)号:CN118070167A

    公开(公告)日:2024-05-24

    申请号:CN202410283298.5

    申请日:2024-03-13

    摘要: 本发明公开了一种基于长短期专家注意力网络的交通流量预测方法、系统、介质及设备,该方法包括下述步骤:获取交通流量数据集并进行预处理,将历史数据分成一段短期历史数据和两段长期历史数据,并与时间信息嵌入相加聚合,将嵌入时间信息的两段长期历史数据通过线性融合成长期历史数据;嵌入时间信息的短期历史数据输入到短期专家注意力网络层,线性融合后的长期历史数据输入到堆叠的长期专家注意力网络层;长期专家注意力网络层、短期专家注意力网络层的输出经过多层感知机的计算和逆标准化计算,分别得到长期交通流量预测值和短期交通流量预测值。本发明充分利用了不同时间尺度的交通数据特征,有效加强了长、短期的预测能力。

    基于频域分布学习CU深度划分方法、系统、装置及介质

    公开(公告)号:CN114827630B

    公开(公告)日:2023-06-06

    申请号:CN202210241583.1

    申请日:2022-03-11

    摘要: 本发明公开了一种基于频域分布学习CU深度划分方法、系统、装置及介质,其中方法包括:将图像划分成若干个64x64大小块并进行DCT变换获得频域系数分布矩阵F64;与对应的W64计算概率分数p64,若其小于划分阈值α64则结束向下划分,大于划分阈值α64按照四叉树原则继续向下划分为4个32x32子CU块,同理获得32x32大小频域系数矩阵F32,与W32计算获得概率分数p32,再与划分阈值α32进行判断是否继续划分;以此类推,直至所有CU块提前停止划分或划分块为最小的8x8CU块。本发明通过概率分数和划分阈值判断是否继续划分,不需要对所有情况进行遍历递归,减轻CU深度划分的复杂度,节省大量编码时间,可广泛应用于视频编码技术领域。

    基于频域分布学习CU深度划分方法、系统、装置及介质

    公开(公告)号:CN114827630A

    公开(公告)日:2022-07-29

    申请号:CN202210241583.1

    申请日:2022-03-11

    摘要: 本发明公开了一种基于频域分布学习CU深度划分方法、系统、装置及介质,其中方法包括:将图像划分成若干个64x64大小块并进行DCT变换获得频域系数分布矩阵F64;与对应的W64计算概率分数p64,若其小于划分阈值α64则结束向下划分,大于划分阈值α64按照四叉树原则继续向下划分为4个32x32子CU块,同理获得32x32大小频域系数矩阵F32,与W32计算获得概率分数p32,再与划分阈值α32进行判断是否继续划分;以此类推,直至所有CU块提前停止划分或划分块为最小的8x8CU块。本发明通过概率分数和划分阈值判断是否继续划分,不需要对所有情况进行遍历递归,减轻CU深度划分的复杂度,节省大量编码时间,可广泛应用于视频编码技术领域。

    基于掩模与边框相似性损失的车辆检测方法

    公开(公告)号:CN110008882B

    公开(公告)日:2021-06-08

    申请号:CN201910243464.8

    申请日:2019-03-28

    发明人: 周智恒 黄宇

    IPC分类号: G06K9/00 G06K9/62

    摘要: 本发明公开了一种基于掩模与边框相似性损失的车辆检测方法,包括如下步骤:使用Mask RCNN模型预训练;利用Mask RCNN模型预检测;构造车辆检测模型;输入车辆数据集及对应的预检测结果,由主干网络获取卷积神经网络的特征并使用预检测框提取车辆特征,使用掩模对该特征的每一通道应用Hadamard积得到分离后的车辆特征;根据预检测结果构造边框相似性损失训练车辆检测模型。本发明基于掩模与边框相似性损失,利用可见部分掩模分离本车辆的特征与周围车辆特征,通过排除遮挡物体的干扰提高准确率;构建关联边框的相似性损失,提高边框回归的质量。

    一种基于文本-图像生成对抗网络模型的多尺度卷积核方法

    公开(公告)号:CN107886169B

    公开(公告)日:2021-02-12

    申请号:CN201711124737.4

    申请日:2017-11-14

    IPC分类号: G06N3/08 G06K9/62

    摘要: 本发明公开了一种基于文本‑图像生成对抗网络模型的多尺度卷积核方法,包括以下步骤:S1、构造文本‑图像生成对抗网络模型;S2、利用深度卷积神经网络充当生成器、判别器的功能;S3、对文本进行编码之后与随机噪声结合,输入至生成器中;S4、在文本‑图像生成对抗网络模型中利用多尺度卷积对图像进行卷积操作;S5、将多尺度卷积操作得到的损失函数输入生成器进行后续训练。本方法构建的文本‑图像生成对抗网络模型,通过多尺度卷积改变判别器、生成器接收图片后的卷积方式,从原来的针对单层图像通道只使用1个卷积核的操作转变为同时采用多个卷积核,使得整个网络能够在对单层图像通道卷积时学习到更多特征,提高了网络训练的效率。

    一种基于特征返回的条件DCGAN模型的动态调整方法

    公开(公告)号:CN107563509B

    公开(公告)日:2020-11-24

    申请号:CN201710579119.2

    申请日:2017-07-17

    发明人: 周智恒 李立军

    IPC分类号: G06N3/08

    摘要: 本发明公开了一种基于特征返回的条件DCGAN模型的动态调整方法,属于深度学习神经网络领域,该算法步骤如下:构造深度卷积生成式对抗网络DCGAN模型;对DCGAN模型进行训练;在判别器的卷积层中,对每一层卷积之后的图像特征数据记为特征数据记录Xi;将所有Xi进行维度扩展;S5、将维度扩展后的特征数据记录Xi与输入生成器中的噪声结合输入到记录图像生成器中进行训练。本方法能够解决在网络训练初期,生成器生成图像不符合数据集特征的问题,使生成器通过学习判别器中卷积过程的图像特征,以更高的效率学习到数据集中的图像特征,从而能够以更快的速度生成符合数据集特征的图像,能够较大程度地减小网络训练所需要的时间。

    基于区域引导和时空注意力的视频行人重识别方法

    公开(公告)号:CN111160295A

    公开(公告)日:2020-05-15

    申请号:CN201911416933.8

    申请日:2019-12-31

    IPC分类号: G06K9/00 G06N3/04

    摘要: 本发明公开一种基于区域引导和时空注意力的视频行人重识别方法,该方法先构建全局特征,基于时间注意力模型来计算视频流中每一帧所提取的全局特征,聚合得到全局特征向量;构建区域特征,将提取的行人深度特征图水平划分为四块,经由关键帧生成层生成四个区域各自的引导帧去提取对应的区域特征,结合时空注意力模型计算获得区域特征向量;待识别行人视频流的特征向量由全局特征向量和区域特征向量结合获得,与选定地理区域的视频图像的行人的特征向量对比,得到距离最小的行人目标视频流并输出最终重识别匹配结果。本发明能够解决行人视频图像成像质量差,细节损失严重,行人部位缺失而特征提取困难导致的视频行人重识别准确率不高的问题。

    一种连续手势切分识别方法

    公开(公告)号:CN107909042B

    公开(公告)日:2019-12-10

    申请号:CN201711166583.5

    申请日:2017-11-21

    发明人: 周智恒 代雨锟

    摘要: 本发明公开了一种连续手势切分识别方法,包括以下步骤:训练动态时间规划模板;对测试数据减少冗余手势数据量并离散化后,计算初始时刻t=0与不同手势模板的距离记为Dt,选取距离最小的把当前时刻作为该手势的起始点,随着时刻增加若某一时刻Dt距离变化激增,则该时刻为手势终止点;判断出终止点后,下一时刻还原为初始时刻t=0,循环寻找下一个手势的起始点,并随着时刻增加寻找终止点切分下一个手势;在计算距离Dt的时候,附加上一个指数因子,附加指数因子的距离记为etDt;通过判断etDt的激增来判断手势终止点。本发明有效减少了数据处理消耗的时间,避免噪声点对切分和识别的影响;同时改进动态时间规划相似度计算的测度函数,有效的增加了切分的准确率。

    一种基于散度计算的异构域适应方法

    公开(公告)号:CN110008996A

    公开(公告)日:2019-07-12

    申请号:CN201910167377.9

    申请日:2019-03-06

    发明人: 周智恒 王怡凡

    IPC分类号: G06K9/62

    摘要: 本发明公开了一种基于散度计算的异构域适应方法,包括如下步骤:数据预处理;分别学习映射,将源域和目标域映射至同一共享子空间,同时利用最大均值差异(MMD)距离进行分布匹配,减小分布差异,并进行核化处理以适应非线性问题;遵循结构一致性,保证相近数据在映射后保持相近;引入正则项进行特征选择;通过散度计算进一步增加不同类别数据间的可分性,提高算法效率;综合优化。本发明采用迁移学习思想,通过对异构的源域及目标域数据分别进行映射和特征转换,得到具有相似特征及分布的子空间;并在异构应用中引入散度,利用散度特性进一步加强数据可分性,强化对具有不同特征不同分布的异构数据的分类,帮助提升目标任务的学习效果。

    一种基于文本-图像对抗网络模型的分解卷积方法

    公开(公告)号:CN109344879A

    公开(公告)日:2019-02-15

    申请号:CN201811041222.2

    申请日:2018-09-07

    发明人: 周智恒 李立军

    摘要: 本发明公开了一种基于文本-图像对抗网络模型的分解卷积方法,属于深度学习神经网络领域,包括以下步骤:S1、构造文本-图像生成对抗网络模型;S2、利用深度卷积神经网络充当生成器、判别器的功能;S3、对文本进行编码之后随机噪声结合,输入至生成器中;S4、对在文本-图像生成对抗网络的卷积核进行分解操作;S5、将分解卷积操作得到的损失函数输入生成器进行后续训练。本方法构建的基于分解卷积的文本-图像对抗网络模型,改变了判别器、生成器接收图片后的卷积方式,让判别器、生成器能够学习到数据集图像中更加细节的特征,同时减少了参数量,从能够提高整个网络训练模型的效率。