-
公开(公告)号:CN114463694A
公开(公告)日:2022-05-10
申请号:CN202210019308.5
申请日:2022-01-06
申请人: 中山大学
IPC分类号: G06V20/52 , G06V10/774 , G06V10/764 , G06V10/80 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
摘要: 本发明公开了一种基于伪标签的半监督人群计数方法及装置,包括:获取并输入人群图片训练集;分别得到每幅人群图片所对应的人群密度等级概率分布向量、预测密度图、密度图伪标签和人群密度等级聚合分数向量;依次对所有的人群图片进行损失函数计算,并监督迭代训练,以使在每一次迭代训练中,根据人群密度等级概率分布向量和人群密度等级聚合分数向量的交叉熵损失,以及,预测密度图的L2损失,来进行监督迭代训练,直至所有的人群图片都进行监督迭代训练,从而完成了对人群计数模型的训练;将待计数的人群图片输入已完成训练的人群计数模型,从而得到预测人群数量。本发明解决了现有技术中依赖大量有标记数据的局限性问题。
-
公开(公告)号:CN112017118B
公开(公告)日:2023-12-08
申请号:CN202010892078.4
申请日:2020-08-28
申请人: 中山大学
IPC分类号: G06T3/40 , G06V10/764 , G06V10/774 , G06Q50/26
摘要: 本发明公开了一种领域适配的跨城市交通流量超分辨率重建方法及系统,所述方法包括:获取数据,并构建数据集;根据源领域城市区域的低分辨率交通流量图以及高分辨率交通流量图,采用监督学习的方式对预设的超分辨率网络进行预训练,获得优化的超分辨率网络;构建一对孪生优化的超分辨率网络;并采用领域分类器进行对抗训练,并同时更新网络参数;获得一对训练后的孪生超分辨率网络;将所述数据集输入到所述一对训练后的孪生超分辨率网络;获得目标领域城市高分辨交通流量图。本发明能够通过领域适配的方法使得两个不同领域(城市)的流量特征分布相近,从而实现对目标领域(城市)的超分辨率重建,降低对城市交通流量数据量的需求。
-
公开(公告)号:CN113076811B
公开(公告)日:2023-08-15
申请号:CN202110268352.5
申请日:2021-03-12
申请人: 中山大学
IPC分类号: G06V20/10 , G06V30/422 , G06V10/80 , G06V20/40
摘要: 本发明公开了一种航空图像道路提取方法及设备,本发明通过在道路提取模型中对原始航空图像以及GPS热度图进行局部信息提取,将提取到的航空图像局部信息和所述GPS热度图局部信息进行融合,得到航空图像特征图以及GPS热度特征图,基于航空图像特征图以及GPS热度特征图,得到所述航空图像的道路提取结果。本发明通过将航空图像局部信息和GPS热度图局部信息进行融合,从而极大地提高了道路提取效果;航空图像中的遮挡问题以及铁路和道路的混淆问题,可以通过GPS轨迹很好地解决,而GPS轨迹数据中的偏移问题,噪声问题又能够通过航空图像信息来得到缓解,从而使得道路的提取结果准确率高,鲁棒性强。
-
公开(公告)号:CN113094422B
公开(公告)日:2023-07-07
申请号:CN202110273734.7
申请日:2021-03-12
申请人: 中山大学
IPC分类号: G06F16/26 , G06F16/29 , G06N3/0455 , G06N3/042 , G06N3/0464 , G06N3/048 , G06N3/084 , G06N5/04 , G06F18/25 , G06Q50/26 , G08G1/01
摘要: 本发明公开了一种城市道路交通流量图生成方法、系统及设备。本发明通过将第一编码器生成交通路网特征图以及第二编码器生成的第二交通流量特征图输入到解码器中进行解码,生成第三交通流量特征图,并基于第一交通流量特征图以及第三交通流量特征图,生成细粒度交通流量图。本发明通过将第一编码器生成交通路网特征图作为生成细粒度交通流量图的先验知识,并在解码器中显式编码先验知识,充分发挥了先验知识在生成细粒度交通流量图中的指导作用,充分发掘了城市交通流量分布模式,在高清晰度的城市交通流量图生成任务上能取得优越的性能和准确度。
-
公开(公告)号:CN113077281A
公开(公告)日:2021-07-06
申请号:CN202110270766.1
申请日:2021-03-12
申请人: 中山大学
摘要: 本发明公开了一种地铁客流量分布预测方法以及设备,本发明通过将OD客流量分布中未完成的订单信息作为输入的一部分,与已完成的订单信息一起输入OD客流量分布预测子模型进行预测,从而在对未来的客流量分布预测中考虑了未完成的订单信息。并且,本发明实施例通过将OD第一分布特征隐藏状态和DO第一分布特征隐藏状态进行融合后获得融合特征,从而充分发掘了OD客流量分布与DO客流量分布在预测中相互之间的指导作用,使得地铁客流量分布预测模型输出的预测结果能够准确完整地反映客流量的真实分布情况。
-
公开(公告)号:CN110705344A
公开(公告)日:2020-01-17
申请号:CN201910772643.0
申请日:2019-08-21
申请人: 中山大学
摘要: 本发明公开了一种基于深度学习的人群计数模型及其实现方法,所述方法包括:步骤S1,获取人群图像,对获取的人群图像进行预处理并利用标注信息产生对应的人群密度图;步骤S2,将输入的人群图像缩放成多个尺度版本,通过多个子网络提取各个尺度的特征,并利用特征增强模块增强各个尺度的特征;步骤S3,将多个子网络产生的特征结合,生成估计的人群密度图;步骤S4,利用估计的人群密度图与真实的人群密度图计算损失,更新模型参数;步骤S5,利用不同人群图像多次迭代式地进行步骤S1-S4的训练过程,直到符合停止的条件。
-
公开(公告)号:CN109460855A
公开(公告)日:2019-03-12
申请号:CN201811150902.8
申请日:2018-09-29
申请人: 中山大学
摘要: 本发明公开了一种基于聚焦机制的群体流量预测模型及方法,所述模型包括:连续性特征学习模块,用于利用聚焦群体流机(Attentive Crowd Flow Machines,ACFM)对依时间排序的特征图序列学习连续性特征表达,得到连续性特征图;周期性特征学习模块,用于利用聚焦群体流机ACFM对依时间排序的特征图序列学习周期性特征表达,得到周期性特征图;具有时间变化的融合模块,用于引入外部信息引导所述连续性特征图和周期性特征图融合,本发明通过学习数据在时域上变化的动态表示,从而推断出群体流量未来的走向。
-
公开(公告)号:CN114463694B
公开(公告)日:2024-04-05
申请号:CN202210019308.5
申请日:2022-01-06
申请人: 中山大学
IPC分类号: G06V20/52 , G06V10/774 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/0895
摘要: 本发明公开了一种基于伪标签的半监督人群计数方法及装置,包括:获取并输入人群图片训练集;分别得到每幅人群图片所对应的人群密度等级概率分布向量、预测密度图、密度图伪标签和人群密度等级聚合分数向量;依次对所有的人群图片进行损失函数计算,并监督迭代训练,以使在每一次迭代训练中,根据人群密度等级概率分布向量和人群密度等级聚合分数向量的交叉熵损失,以及,预测密度图的L2损失,来进行监督迭代训练,直至所有的人群图片都进行监督迭代训练,从而完成了对人群计数模型的训练;将待计数的人群图片输入已完成训练的人群计数模型,从而得到预测人群数量。本发明解决了现有技术中依赖大量有标记数据的局限性问题。
-
公开(公告)号:CN112396000B
公开(公告)日:2023-09-05
申请号:CN202011307818.X
申请日:2020-11-19
申请人: 中山大学
IPC分类号: G06V20/52 , G06V10/82 , G06N3/0464 , G06N3/08
摘要: 本发明提供一种多模态密集预测的深度信息传输模型的构建方法,该方法首先,构建多个子网络是用于RGB图或热图表征学习,再构建一个子网络用于为模式共享;然后,构建一个信息聚集‑分布模块IADM,用于完成平移不变的信息提取以及信息聚合传输、信息分布传输。本发明通过学习多模态对齐表示,建立一个包含信息聚合分布模块的多模态密集预测框架,能够充分捕捉不同模态之间的互补信息,很好的完成信息整合。在各种多模态密度预测任务中,该方案显示出了有效性和通用性。
-
公开(公告)号:CN110580726B
公开(公告)日:2022-10-04
申请号:CN201910772659.1
申请日:2019-08-21
申请人: 中山大学
摘要: 本发明公开了一种基于动态卷积网络的自然场景下人脸素描生成模型及方法,该方法包括:步骤S1,对所有卷积网络和全连接网络参数进行初始化;步骤S2,获取人脸图像,利用全卷积神经网络提取该人脸图像的层次化特征;步骤S3,将获得的特征利用转置卷积网络进行上采样,并利用可变形卷积网络挖掘人脸潜在区域和人脸变化形式信息;步骤S4,将特征分为多尺度区域,在各区域动态计算出自适应的滤波器权重,将滤波器权重与特征进行卷积计算得到新的特征,将多个尺度下所有区域特征组合生成高质量的人脸素描;步骤S5,根据生成的人脸素描与真实人脸素描的对比更新模型参数;步骤S6,多次迭代进行步骤S2‑S5训练。
-
-
-
-
-
-
-
-
-