-
公开(公告)号:CN104851127A
公开(公告)日:2015-08-19
申请号:CN201510249612.9
申请日:2015-05-15
申请人: 北京理工大学深圳研究院 , 北京理工大学
IPC分类号: G06T17/00
摘要: 本发明涉及一种基于交互的建筑物点云模型纹理映射方法及装置,属于计算机视觉处理技术领域。本发明针对现代化城镇建筑物的外轮廓特征,以重建点云模型中的每个三维点和恢复当前空间点所用图像中对应的像素点之间的空间对应关系为基础,在简单交互标定各结构拐点的条件下实现快速建筑物模型自动面片化和纹理映射;本发明方法首先进行点云模型噪声点去除,然后通过与用户交互获得点云模型墙面结构角点,并根据所选角点匹配筛选得到墙面最优匹配图像和进行空间平面拟合得到点云模型墙面,最后将最优匹配图像中墙面纹理映射到点云模型墙面。对比现有技术,本发明能够快速重建出建筑物的整体结构,并且重建结果整体效果能够满足日常需求。
-
公开(公告)号:CN104809689B
公开(公告)日:2018-03-30
申请号:CN201510250777.8
申请日:2015-05-15
申请人: 北京理工大学深圳研究院 , 北京理工大学
IPC分类号: G06T3/00
摘要: 本发明涉及一种基于轮廓的建筑物点云模型底图配准方法,属于计算机视觉技术领域。本发明方法通过对三维重建得到的建筑物点云模型进行结构分析,自动检测当前模型的姿态,最终实现点云模型坐标的归一化,并在此基础上得到当前建筑物的点云俯视轮廓线条图;对重建建筑所在区域的遥感图像进行轮廓分析,自动检测得到底图的轮廓线条;根据重建建筑的轮廓线条估计当前建筑的结构拐点,然后借助轮廓匹配信息实现点云模型与卫星底图间的空间对齐,得到从点云模型到卫星底图间的映射矩阵,自动实现建筑物点云模型在卫星底图上的放置。对比现有技术,本发明方法能够准确对点云模型和底图进行自动化配准,有效降低配准所需人工工作量,降低配准成本。
-
公开(公告)号:CN104851127B
公开(公告)日:2017-07-04
申请号:CN201510249612.9
申请日:2015-05-15
申请人: 北京理工大学深圳研究院 , 北京理工大学
IPC分类号: G06T17/00
摘要: 本发明涉及一种基于交互的建筑物点云模型纹理映射方法及装置,属于计算机视觉处理技术领域。本发明针对现代化城镇建筑物的外轮廓特征,以重建点云模型中的每个三维点和恢复当前空间点所用图像中对应的像素点之间的空间对应关系为基础,在简单交互标定各结构拐点的条件下实现快速建筑物模型自动面片化和纹理映射;本发明方法首先进行点云模型噪声点去除,然后通过与用户交互获得点云模型墙面结构角点,并根据所选角点匹配筛选得到墙面最优匹配图像和进行空间平面拟合得到点云模型墙面,最后将最优匹配图像中墙面纹理映射到点云模型墙面。对比现有技术,本发明能够快速重建出建筑物的整体结构,并且重建结果整体效果能够满足日常需求。
-
公开(公告)号:CN104809478B
公开(公告)日:2018-01-09
申请号:CN201510249022.6
申请日:2015-05-15
申请人: 北京理工大学深圳研究院 , 北京理工大学
摘要: 本发明涉及一种面向大规模三维重建的图像分块方法,属于图像处理技术领域;包括以下步骤:首先利用图像间的特征匹配关系进行图像整体相似性度量,生成图像间相似度矩阵;然后引入谱聚类思想:首先利用谱分析将图像集中的每一个元素映射到利于聚类分析的高维空间,然后利用模糊聚类算法将整个图像集合分成若干个簇,同时对每张图像计算属于各簇的隶属度;最后通过对分类结果的分析处理,在自动生成一系列三维重建效率较高的图像子集合的同时,将与其它图像相似性较低的图像以噪声的形式予以剔除。对比现有技术,应用本发明方法能够有效降低三维重建的计算量,提高三维重建效率;同时,还能够有效剔除噪声图像,降低噪声图像对三维重建时的干扰。
-
公开(公告)号:CN104809689A
公开(公告)日:2015-07-29
申请号:CN201510250777.8
申请日:2015-05-15
申请人: 北京理工大学深圳研究院 , 北京理工大学
IPC分类号: G06T3/00
摘要: 本发明涉及一种基于轮廓的建筑物点云模型底图配准方法,属于计算机视觉技术领域。本发明方法通过对三维重建得到的建筑物点云模型进行结构分析,自动检测当前模型的姿态,最终实现点云模型坐标的归一化,并在此基础上得到当前建筑物的点云俯视轮廓线条图;对重建建筑所在区域的遥感图像进行轮廓分析,自动检测得到底图的轮廓线条;根据重建建筑的轮廓线条估计当前建筑的结构拐点,然后借助轮廓匹配信息实现点云模型与卫星底图间的空间对齐,得到从点云模型到卫星底图间的映射矩阵,自动实现建筑物点云模型在卫星底图上的放置。对比现有技术,本发明方法能够准确对点云模型和底图进行自动化配准,有效降低配准所需人工工作量,降低配准成本。
-
公开(公告)号:CN104809478A
公开(公告)日:2015-07-29
申请号:CN201510249022.6
申请日:2015-05-15
申请人: 北京理工大学深圳研究院 , 北京理工大学
CPC分类号: G06K9/6223 , G06K9/6272 , G06T17/00
摘要: 本发明涉及一种面向大规模三维重建的图像分块方法,属于图像处理技术领域;包括以下步骤:首先利用图像间的特征匹配关系进行图像整体相似性度量,生成图像间相似度矩阵;然后引入谱聚类思想:首先利用谱分析将图像集中的每一个元素映射到利于聚类分析的高维空间,然后利用模糊聚类算法将整个图像集合分成若干个簇,同时对每张图像计算属于各簇的隶属度;最后通过对分类结果的分析处理,在自动生成一系列三维重建效率较高的图像子集合的同时,将与其它图像相似性较低的图像以噪声的形式予以剔除。对比现有技术,应用本发明方法能够有效降低三维重建的计算量,提高三维重建效率;同时,还能够有效剔除噪声图像,降低噪声图像对三维重建时的干扰。
-
公开(公告)号:CN107169986B
公开(公告)日:2019-09-17
申请号:CN201710368864.2
申请日:2017-05-23
摘要: 本发明公开一种障碍物检测方法及系统。所述方法包括:获取N线激光雷达扫描得到的点云数据;将点云数据划分为Q个区域,包括第1区域、第2区域至第Q区域;依次对第1至第Q区域的点云数据进行平面拟合,对应得到第1平面、第2平面至第Q平面;依次获取第1至第Q区域的点云数据中的障碍物的坐标;对所述障碍物的坐标数据进行体素化处理,得到动态障碍物的坐标集合和静态障碍物的坐标集合。采用本发明检测方法及系统,实现了三维点云数据的大规模压缩,大大降低了数据处理量;还进一步把环境划分为三部分:路面区域(可行区域)、静态障碍物区域、动态障碍物区域,为机器人的有效行为决策提供了更好的环境信息。
-
公开(公告)号:CN104215235B
公开(公告)日:2017-08-22
申请号:CN201310220902.1
申请日:2013-06-05
IPC分类号: G01C19/5691
CPC分类号: G01C19/5691
摘要: 本发明涉及一种具有变厚度轴对称多曲面融合结构特征的钟形振子作为敏感元件的角速率陀螺。该角速率陀螺由钟形振子、振子固定轴、振子底座、气密罩、外壳和系统电路组成。钟形振子包括:钟肩,具有半球壳结构;钟腰,具有圆柱壳结构;钟唇,具有双曲面壳结构。钟形振子、底座以及中轴靠机械固连在一起,形成敏感陀螺效应的核心整体。激励电极、反馈电极、检测电极、阻尼控制电极均匀分布于振子钟腰外壁上,每个电极间设置有电极隔离孔;钟形振子的电容极板分别成对安装于振子内壁与对应中轴上;利用气密罩对核心结构进行密封;利用电路系统对钟形振子振型进行控制,对信号进行处理,同时解算出输入角速率。
-
公开(公告)号:CN103048925B
公开(公告)日:2016-05-11
申请号:CN201210545100.3
申请日:2012-12-17
IPC分类号: G05B13/04
摘要: 一种钟形振子式角速率陀螺振子振幅稳定方法。该方法包括:(1)利用参考模型和观测到的钟形振子x轴向信号和y轴向信号,计算钟形振子运行误差和误差变化率;(2)对x轴向信号、y轴向信号、振子运行误差和运行误差变化率进行集中滤波与状态重构,重构出新状态x轴向位移、y轴向位移、x轴向位移变化率、y轴向位移变化率、钟形振子运行误差和运行误差变化率;(3)根据给定系统输入与重构的状态,设计自适应滑模控制器,控制钟形振子维持稳定振幅运动。本发明提高了钟形振子式角速率陀螺幅值稳定程度,缩短了稳定时间,并缩短了整个钟形振子式角速率陀螺开发的时间,为钟形振子式角速率陀螺的合理设计提供了依据。
-
公开(公告)号:CN103235806B
公开(公告)日:2016-04-20
申请号:CN201310136936.2
申请日:2013-04-19
申请人: 北京理工大学
IPC分类号: G06F17/30
摘要: 本发明涉及一种基于时空关系的互联网视频片段间关系识别方法,包括以下步骤:对视频库中的视频片段,检测出其所包含的所有镜头,检测出每个镜头中的每一个关键帧,并描述其颜色特征、轮廓特征和局部极值点个数;基于关键帧的图像特征信息相似性得出两个关键帧之间的相似性,根据关键帧相似性信息计算出镜头之间的相似性,根据镜头间相似性,归纳出视频片段间的关系。本发明为用户提供了一种网络视频库浏览和查询引导的工具,不受外界因素的限制和干扰。该系统能在没有附加条件的指引下快速浏览所有的视频信息,同时以直观的网状关系图展示出视频间的相互关系,引导用户直观而快速地查询所需的内容。
-
-
-
-
-
-
-
-
-