-
公开(公告)号:CN116935047A
公开(公告)日:2023-10-24
申请号:CN202310855954.X
申请日:2023-07-12
申请人: 中国科学院自动化研究所
IPC分类号: G06V10/26 , G06V10/52 , G06V10/766 , G06V10/774 , G06V10/74 , G06V10/80 , G06V10/82 , G06N3/047 , G06N3/088
摘要: 本发明提供一种基于事件的无监督域适应的语义分割网络的训练方法,其中方法包括:确定三分支自注意力网络;基于源域自注意力网络,对样本事件对中的样本合成事件的合成事件特征进行语义分割,得到第一语义分割结果;基于目标域自注意力网络,对样本事件对中的样本真实事件的真实事件特征进行语义分割,得到第二语义分割结果;基于交叉注意力网络,对合成事件特征和真实事件特征进行语义分割,得到第三语义分割结果;基于第一语义分割结果和样本合成事件的图像标签、第二语义分割结果和样本真实事件的伪标签,以及第三语义分割结果和第二语义分割结果,对三分支自注意力网络进行参数迭代,得到语义分割网络,提高了语义分割的准确性和可靠性。
-
公开(公告)号:CN110223380B
公开(公告)日:2021-04-23
申请号:CN201910502762.4
申请日:2019-06-11
申请人: 中国科学院自动化研究所
摘要: 本发明属于场景建模领域,具体涉及一种融合航拍与地面视角图像的场景建模方法、系统、装置,旨在为了解决针对室内场景结构复杂、纹理缺乏,基于图像的建模结果不完整、不精确融合的问题。本发明方法包括:S100,获取待建模的室内场景的航拍视角图像,并构建航拍地图;S200,基于所述航拍地图,通过由航拍地图合成地面视角参考图像的方法,获取合成图像;S300,通过地面相机采集的地面视角图像,获取地面视角图像集合;S400,基于所述合成图像,将所述航拍视角图像与所述地面视角图像进行融合,获取室内场景模型。本发明可以生成完整、精确的室内场景模型,兼顾采集效率与重建精度,并且具有较强的鲁棒性。
-
公开(公告)号:CN109764880B
公开(公告)日:2020-12-25
申请号:CN201910127778.1
申请日:2019-02-19
申请人: 中国科学院自动化研究所
IPC分类号: G01C21/28
摘要: 本发明涉及一种紧耦合车辆轮子编码器数据的视觉惯性测程方法及系统,视觉惯性测程方法包括:步骤一:设置所述视觉惯性测程方法的初始化状态为“未完成”,并在初始化的过程中;步骤二:计算当前图像与前一帧图像之间的本质矩阵,将所述本质矩阵以及与对应的IMU量测值和轮子编码器读数同时加入第一滑动窗口和第二滑动窗口;步骤三:对最后一帧图像对应的IMU量测值和轮子编码器读数进行IMU‑轮子编码器预积分;判断初始化的状态是否为“已完成”,若是则执行步骤五,否则执行步骤四;步骤四:利用预积分结果对参数进行初始化;步骤五:得到第一滑动窗口内各张图像对应的参数;步骤六:根据所述参数进行紧耦合车辆轮子编码器数据的视觉惯性测程。
-
公开(公告)号:CN102162738B
公开(公告)日:2012-11-21
申请号:CN201010591519.3
申请日:2010-12-08
申请人: 中国科学院自动化研究所
摘要: 本发明为摄像头与惯性传感器组合定位定姿系统的标定方法,包括:标定摄像头的内参数矩阵;对于一个尺寸已知的标定物从不同角度拍摄多幅图像,记录在拍摄每幅图像时惯性传感器输出的横滚角和俯仰角;定义世界坐标系、摄像机坐标系、惯性传感器坐标系和地磁坐标系;基于每幅图像中标定物的图像信息和空间信息,计算该时刻世界坐标系到摄像机坐标系的旋转矩阵;将摄取图像两两组合,对于每个组合均建立一个关于惯性传感器坐标系到摄像机坐标系旋转矩阵的方程组并进行求解,计算出惯性传感器坐标系到摄像机坐标系的旋转矩阵;对于每幅图像建立一个关于地磁坐标系到世界坐标系旋转矩阵的方程组并进行求解,计算出地磁坐标系到世界坐标系的旋转矩阵。
-
公开(公告)号:CN102595167A
公开(公告)日:2012-07-18
申请号:CN201210058962.3
申请日:2012-03-07
申请人: 中国科学院自动化研究所
摘要: 本发明属于3D视频技术领域,具体涉及了一种基于视差区域原理的用于2D/3D视频转换的深度归一化方法及装置,所述方法包括:提取与2D视频帧相对应的初始深度图的场景高层信息;基于3D视差区域原理,根据所述场景高层信息对场景的深度范围进行归一化调整。本发明不仅能够降低噪声的干扰,保证深度提取的稳定性,而且能够使深度分布的调整更符合3D立体成像特点,有利于增强3D渲染效果。
-
公开(公告)号:CN101488224B
公开(公告)日:2011-01-19
申请号:CN200810056261.X
申请日:2008-01-16
申请人: 中国科学院自动化研究所
IPC分类号: G06T7/00
摘要: 本发明是基于相关性度量的特征点匹配方法,拍摄多幅待匹配场景图像并输入计算机;计算图像各像素的梯度,提取图像特征点信息;对提取的每个特征点,把以特征点为中心的圆形邻域进行分块,计算分块得到的每个子区域的梯度均值;利用子区域各像素点的梯度以及子区域的梯度均值,建立子区域的Harris相关矩阵并计算Harris相关矩阵的行列式和迹;利用Harris相关矩阵的行列式和迹,构造Harris相关性度量并用Harris相关性度量构造Harris相关性描述子;计算特征点描述子之间的欧氏距离,应用度量准则进行匹配。本发明不需要对摄像机参数进行标定,匹配过程中不需要人的参与,自动完成匹配,而且具有简单、实用、匹配点稠密、匹配精度高、鲁棒性好等特点。
-
公开(公告)号:CN101488223A
公开(公告)日:2009-07-22
申请号:CN200810056260.5
申请日:2008-01-16
申请人: 中国科学院自动化研究所
IPC分类号: G06T7/00
摘要: 本发明基于曲线均值标准差描述子的图像曲线特征匹配方法,包括:拍摄待匹配场景的两幅或多幅图像;提取图像中的曲线特征;对曲线邻域进行划分分块,获取曲线上每一点的支撑区域的描述子向量;利用曲线上每一点支撑区域的描述子向量构造曲线的描述矩阵;计算曲线的描述矩阵的列向量的均值向量和标准差向量;分别对均值向量和标准差向量进行归一化并合并成一个向量;限制向量中每一维的最大值并重新进行整体归一化;利用所得的曲线描述子进行曲线匹配。本发明克服了困扰曲线匹配研究不同长度的曲线的统一描述问题,本发明具有完全基于图像内容,不需要对摄像机参数进行标定或其它已知条件,匹配过程不需要人机交互,完全基于图像内容自动完成。
-
公开(公告)号:CN100342392C
公开(公告)日:2007-10-10
申请号:CN200510062745.1
申请日:2005-03-28
申请人: 中国科学院自动化研究所
IPC分类号: G06K9/80
摘要: 一种基于Fourier-Mellin变换的遥感图像粗定位方法,涉及遥感技术领域,其步骤包括:(1)匹配前的预处理,包括从遥感影像中提取短曲线c和获得参考曲线C;(2)将短曲线c转化为二值图像,记为a;(3)按照一定的步长和规则,在长曲线C上选取所有的候选曲线ci,每段ci对应的二值图像记为bi;(4)依次将bi与a组成匹配对计算他们之间的变换参数(αi,si,x0i,y0i);(5)将c通过变换参数(αi,si,x0i,y0i)进行反变换得到ci′,计算ci′与ci之间的Hausdorff距离Hi;(6)Hmin=min{Hi}所对应的c*就是c在C上的匹配段,从而确定了遥感影像的粗略地理位置。
-
公开(公告)号:CN1284961C
公开(公告)日:2006-11-15
申请号:CN01140335.7
申请日:2001-12-17
申请人: 中国科学院自动化研究所
IPC分类号: G01C11/00
摘要: 一种基于单幅图像的平面测量方法,包括步骤:在被测场景平面中放置一个模板;在被测场景中拍摄一幅或多幅含有所述模板的图像并输入计算机;通过自动或人机交互方法从图像中提取出模板中所包含的直线信息;计算出被测平面与像平面间的映射关系;根据此映射关系求出场景中任意一点的坐标值及任意两点间的距离。本发明提供的测量方法不需要对摄像机参数进行标定,而且具有较为简便、实用、测量精度高、鲁棒性好等特点,使基于视觉的测量方法走向实用。
-
公开(公告)号:CN1512455A
公开(公告)日:2004-07-14
申请号:CN02158343.9
申请日:2002-12-27
申请人: 中国科学院自动化研究所
IPC分类号: G06T17/00
摘要: 一种基于主动视觉的物体三维模型快速获取方法,标定投影设备所投出的各光栅平面在参考坐标系下的光平面方程以及参考坐标系到照相机的投影变换矩阵;将物体放在系统前方,分别拍摄一幅带有光栅的物体图像和一幅只带有纹理的物体图像;将拍摄的图像输入计算机;通过自动或人机交互方式从输入图像中提取出投影在物体上的光栅的边缘并进行聚类;将提取出的每一个边缘点反投影到空间中所对应的光平面方程上,由此求出物体上所有光栅边缘点在参考坐标系下的三维坐标,得到物体的可见表面的三维模型;对所提取的物体表面上的三维点进行三角分解,并将带有纹理的物体图像的纹理信息映射到所获取的三维模型上;将物体旋转一定角度,重复以上步骤,获得物体不同侧面的三维模型,并通过数据融合获得完整的物体三维模型。
-
-
-
-
-
-
-
-
-