一种面向室内场景的行人轨迹生成方法

    公开(公告)号:CN114372996B

    公开(公告)日:2024-06-21

    申请号:CN202111461779.3

    申请日:2021-12-02

    摘要: 本发明公开一种面向室内场景的行人轨迹生成方法,包括行人坐标计算方法和引入时空关系约束的行人轨迹生成方法。行人坐标计算方法步骤为:(1)以室内场景的顶视图为底图建立统一坐标系;(2)检测视频中行人目标;(3)提取行人关键点,得到行人图像坐标;(4)计算图像平面和统一坐标系之间映射关系单应矩阵,并将行人图像坐标转换到统一坐标系中。行人轨迹生成方法步骤为:(1)匹配相邻帧的行人图像得到单一相机下的行人轨迹;(2)基于同一个行人不可能短时间内移动过远距离的规律,排除不符合该规律的行人目标;(3)对于可能属于同一行人的两条轨迹,计算其中图像的视觉相似度,判断是否融合两条轨迹。

    一种支持场景表观差异的无人机图像视觉定位方法

    公开(公告)号:CN117893600A

    公开(公告)日:2024-04-16

    申请号:CN202311365902.0

    申请日:2023-10-20

    发明人: 周忠 王骞仟 熊源

    摘要: 本发明公开了一种支持场景表观差异的无人机图像视觉定位方法。该方法包括虚拟图像合成和相机位姿计算两个阶段。在合成阶段,将以前重建的场景倾斜摄影模型和无人机拍摄的近期场景图像集作为输入,首先用近期场景图像投影到场景模型,然后在其视点附近渲染并通过空洞填补合成虚拟图像集,构造出虚拟图像检索数据库。在位姿计算阶段,首先在虚拟图像数据库中检索出与待定位图像高相似度的图像,然后通过特征匹配与反投影建立待定位图像与三维场景之间的2D‑3D匹配点对,最后使用RANSAC‑PnP算法求解相机位姿。本发明利用过时的倾斜摄影模型进行视觉定位,从而在GNSS拒止情况下为航空器自主飞行、遥感监测等提供导航定位支持。

    一种基于几何一致性的图像语义特征匹配方法

    公开(公告)号:CN110909778B

    公开(公告)日:2023-07-21

    申请号:CN201911098020.6

    申请日:2019-11-12

    摘要: 本发明公开了一种基于几何一致性的图像语义特征匹配方法,该方法包括语义特征提取、特征匹配初始化、特征匹配定位优化以及图像语义对齐等步骤。其中语义特征提取是使用卷积神经网络提取高层语义特征,来构建五层语义特征金字塔;特征匹配初始化是在特征金字塔顶层基于几何一致性,设计语义特征匹配约束规则,构建能量函数;特征匹配定位优化是为了提高特征匹配的定位精度,通过金字塔反向传播算法,逐层提高特征匹配对的准确率;最后,采用局部几何变换模型估计待匹配图像之间的几何变换模型参数,进行图像变形,实现图像语义对齐。本发明能够提高语义特征匹配的精度,并实现前景目标几何姿态、朝向的对齐。

    三维模型搭建方法、装置及电子设备

    公开(公告)号:CN108510578B

    公开(公告)日:2023-04-07

    申请号:CN201810205307.3

    申请日:2018-03-13

    摘要: 本发明实施例提供一种三维模型搭建方法、装置及电子设备,该方法包括:获取深度图像,根据第K时刻的深度图像确定第K时刻的相对三维顶点图和相对顶点法线图,利用第K时刻的相对三维顶点图、第K‑1时刻的校准后相对三维顶点图和校准后相对顶点法线图确定第K时刻的第一姿态矩阵。将第K时刻的绝对三维顶点图和第K‑1时刻对应的三维模型中包含的数据进行融合,得到第K时刻对应的三维模型。上述方法中,建模设备基于深度图像搭建三维模型,且对第K‑1时刻的相对三维顶点图和相对顶点法线图的校准处理可以提高第K时刻的相机姿态确定的准确性也即是间接提高第K时刻对应的三维模型的精准度,最终使搭建起的真实场景对应的三维模型也是具有较高精准度的。

    多视频流融合方法、电子设备、存储介质

    公开(公告)号:CN114143528A

    公开(公告)日:2022-03-04

    申请号:CN202010922428.7

    申请日:2020-09-04

    摘要: 本申请提供一种多视频流融合方法、电子设备、存储介质。该方法包括:获取各区域在同一三维空间下的待拼接模型;通过各相邻区域的待拼接模型的纹理图像,获取各区域的待拼接模型的矫正映射文件;基于各相邻区域的待拼接模型在虚拟视点的成像内容,获取各相邻区域的待拼接模型的融合掩码,并对各个待拼接模型进行拼接得到三维场景模型;基于该三维场景模型、矫正映射文件、融合掩码,得到三维虚拟现实视频。通过以上方法,本申请实现了分散部署的摄像头传感器采集的多视频流融合。

    一种基于语义对象匹配的图像拼接方法

    公开(公告)号:CN112950466A

    公开(公告)日:2021-06-11

    申请号:CN202110104851.0

    申请日:2021-01-26

    摘要: 本发明公开了一种基于语义对象匹配的图像拼接方法,适用于具有重叠区域的图像或视频帧,该方法通过在图像拼接框架中采用语义匹配算法获得实例对象之间的语义匹配对,从而引入图像的高层语义信息,提高图像拼接中特征匹配的鲁棒性和精确性,从而使图像拼接的效果得到提升。本发明引入语义信息实现的图像拼接方法不仅可以提高大场景或全景拼接结果的效果,而且拼接结果具有语义标签,能够更好的用于之后的图像或视频分析,从而实现了相关图像或视频的信息关联和科学化的管理利用。

    一种利用人头点定位和关节点信息的单相机多目标跟踪方法

    公开(公告)号:CN112488057A

    公开(公告)日:2021-03-12

    申请号:CN202011502590.X

    申请日:2020-12-17

    发明人: 周忠 吴威 高松 张鑫

    摘要: 本发明涉及一种利用人头点定位和关节点信息的单相机多目标跟踪方法,其中利用人头点定位和关节点信息的单相机多目标跟踪方法包括:步骤S1:构建人头点定位深度学习网络模型;步骤S2:根据人头点定位深度学习网络,对视频帧进行人头点定位,得到每帧图像中每个行人头部的位置,同时,通过目标检测算法得到行人包围框,利用人头点位置优化行人包围框,得到最终行人目标检测包围框结果;步骤S3:根据行人目标检测包围框,提取行人表观特征和关节点信息;步骤S4:根据行人的表观特征和关节点信息,对行人进行轨迹关联,获取行人轨迹信息;本发明通过构建人头点定位深度学习网络,能更好处理行人未被完全遮挡的情况,将关节点特征与表观特征结合避免误匹配。

    一种多相机拓扑连通图建立与跨相机目标跟踪方法

    公开(公告)号:CN107689054B

    公开(公告)日:2020-09-22

    申请号:CN201710732671.0

    申请日:2017-08-24

    IPC分类号: G06T7/246

    摘要: 本发明公开了一种多相机拓扑连通图建立与跨相机目标跟踪方法,属于计算机视觉领域。本方法包括多相机拓扑连通图建立和跨相机目标跟踪两部分内容。多相机拓扑连通图的建立,其步骤为:(1)利用K‑Means算法聚类出每个相机的出入口区域;(2)粗略估计出每两个对应出入口之间的转移时间期望和标准差;(3)根据步骤(2)细化估计转移时间,使其更为精确;(4)最终生成多相机拓扑连通图。跨相机目标跟踪,步骤为:(1)保存目标离开的信息;(2)根据相机拓扑连通图,监视目标可能再次出现的出入口;(3)在找到目标后继续进行单相机跟踪。本方法能够支撑高效地在无覆盖关系的一定范围相机内再次发现目标,可以用于安防监控、行为分析等场景。