-
公开(公告)号:CN114370870B
公开(公告)日:2024-04-12
申请号:CN202210009783.4
申请日:2022-01-05
申请人: 中国兵器工业计算机应用技术研究所
摘要: 本发明涉及一种适用于位姿测量卡尔曼滤波的滤波器更新信息筛选方法,包括:持续获取并存储带有时间戳信息的IMU测量数据、IMU解算结果和外部位姿观测结果;选取最新获取的和临近的两帧外部位姿观测结果,按照时间戳最接近再选取出两帧IMU解算结果;根据外部位姿观测结果和IMU解算结果求取相对偏差;相对偏差不超出偏差阈值范围,则将最新获取外部位姿观测结果作为外部观测量,进行卡尔曼滤波器状态向量的更新;利用更新的对应时刻的卡尔曼滤波器状态向量和该时刻之后已存储的IMU测量数据重新进行捷联惯导解算,更新位姿测量结果。本发明提升位姿测量结果准确性,既保证有效的观测数据及时接入滤波器,又避免不合理的观测数据对滤波器的破坏。
-
公开(公告)号:CN114323011B
公开(公告)日:2024-04-23
申请号:CN202210010929.7
申请日:2022-01-05
申请人: 中国兵器工业计算机应用技术研究所
摘要: 本发明涉及一种适用于相对位姿测量的卡尔曼滤波方法,其特征在于,包括以下步骤:使用分别布置在运动载体与被测物体的两个IMU分别获取运动载体与被测物体的运动信息,并求解出被测物体相对于运动载体的姿态数据;基于包括所述姿态数据在内的状态量,建立卡尔曼滤波的状态误差方程;根据误差传播过程,更新卡尔曼滤波的误差状态协方差矩阵;建立卡尔曼滤波的观测方程,依据外部观测传感器的观测量,更新状态协方差矩阵与状态向量;得到滤波后的被测物体与运动载体的相对位姿。本发明通过状态误差卡尔曼滤波器对载体IMU的位姿误差与零偏、相对姿态测量的位姿误差与零偏进行修正,得到高精度的被测物体与运动载体的相对位姿。
-
公开(公告)号:CN114199239B
公开(公告)日:2024-04-16
申请号:CN202210010936.7
申请日:2022-01-05
申请人: 中国兵器工业计算机应用技术研究所 , 中国人民解放军61081部队
摘要: 本发明涉及一种结合北斗导航的双视觉辅助惯性差分座舱内头部测姿系统,包括:北斗导航单元、座舱IMU、头盔IMU、双视觉辅助单元和测量单元;座舱IMU和头盔IMU分别用于获取运动载具和头部的运动信息;双视觉辅助单元用于通过双视觉方式获取头盔相对于座舱的视觉位姿数据;北斗导航单元利用北斗数据获得运动载具的导航结果;测量单元用于根据导航结果对座舱IMU零偏进行修正;通过座舱和头盔的双IMU差分获得的载体坐标系中头盔相对座舱的惯性位姿数据;以视觉位姿数据为外部观测量对惯性位姿数据进行卡尔曼滤波,输出滤波后相对位姿数据。本发明充分利用惯性测姿采样频率高、短时精度高,视觉测姿无累积误差的特性,实现高精度的位姿追踪。
-
公开(公告)号:CN115690910A
公开(公告)日:2023-02-03
申请号:CN202211336959.3
申请日:2022-10-28
申请人: 中国兵器工业计算机应用技术研究所
摘要: 本发明涉及一种IMU协助视觉特征点捕获的头盔位姿跟踪系统及方法;系统包括:相机单元、标志点单元、IMU单元和跟踪处理单元;标志点单元包括设置在头盔不同位置上处于点亮或熄灭状态的多组标志点;相机单元包括设置在载具座舱内的多个相机;每个相机拍摄角度朝向座舱内头盔移动区域范围,使至少一个相机对准一组被点亮标志点进行拍摄;IMU单元包括头盔IMU和载具IMU;跟踪处理单元利用相机单元拍摄图像中被点亮标志点特征进行头盔的视觉测姿;并建立视觉与惯性融合的卡尔曼滤波器,利用IMU数据对视觉测姿数据进行滤波处理;根据滤波结果预判出被点亮标点在下一帧拍摄图像中的位置,用于下一帧视觉测姿的快速匹配。本发明满足了大范围与高精度视觉测量。
-
公开(公告)号:CN114370870A
公开(公告)日:2022-04-19
申请号:CN202210009783.4
申请日:2022-01-05
申请人: 中国兵器工业计算机应用技术研究所
摘要: 本发明涉及一种适用于位姿测量卡尔曼滤波的滤波器更新信息筛选方法,包括:持续获取并存储带有时间戳信息的IMU测量数据、IMU解算结果和外部位姿观测结果;选取最新获取的和临近的两帧外部位姿观测结果,按照时间戳最接近再选取出两帧IMU解算结果;根据外部位姿观测结果和IMU解算结果求取相对偏差;相对偏差不超出偏差阈值范围,则将最新获取外部位姿观测结果作为外部观测量,进行卡尔曼滤波器状态向量的更新;利用更新的对应时刻的卡尔曼滤波器状态向量和该时刻之后已存储的IMU测量数据重新进行捷联惯导解算,更新位姿测量结果。本发明提升位姿测量结果准确性,既保证有效的观测数据及时接入滤波器,又避免不合理的观测数据对滤波器的破坏。
-
公开(公告)号:CN114199239A
公开(公告)日:2022-03-18
申请号:CN202210010936.7
申请日:2022-01-05
申请人: 中国兵器工业计算机应用技术研究所 , 中国人民解放军61081部队
摘要: 本发明涉及一种结合北斗导航的双视觉辅助惯性差分座舱内头部测姿系统,包括:北斗导航单元、座舱IMU、头盔IMU、双视觉辅助单元和测量单元;座舱IMU和头盔IMU分别用于获取运动载具和头部的运动信息;双视觉辅助单元用于通过双视觉方式获取头盔相对于座舱的视觉位姿数据;北斗导航单元利用北斗数据获得运动载具的导航结果;测量单元用于根据导航结果对座舱IMU零偏进行修正;通过座舱和头盔的双IMU差分获得的载体坐标系中头盔相对座舱的惯性位姿数据;以视觉位姿数据为外部观测量对惯性位姿数据进行卡尔曼滤波,输出滤波后相对位姿数据。本发明充分利用惯性测姿采样频率高、短时精度高,视觉测姿无累积误差的特性,实现高精度的位姿追踪。
-
公开(公告)号:CN118015187A
公开(公告)日:2024-05-10
申请号:CN202410104212.8
申请日:2024-01-25
申请人: 中国兵器工业计算机应用技术研究所 , 北京理工大学
摘要: 本发明涉及一种增强现实图像中目标与环境的遮挡关系判定方法,包括:观察者获取需进行遮挡关系判定的目标信息,计算出所述目标的MESH模型中n个控制点在观察者相机坐标系中的坐标;从观察者相机拍摄的视野图像中获得环境场景的三维特征点;在视野图像中将与三维特征点对应的视野像素点进行语义属性组合,构建出观察者视野中的环境MESH网格;根据控制点在观察者相机坐标系中的坐标以及环境MESH网格,分别计算出控制点在视野图像中所处视野像素点的控制点深度值和环境深度值;判断控制点深度值和环境深度值的偏差是否处于阈值范围内;是,则该点未被环境遮挡,否,则该点被环境遮挡。本发明实现遮挡关系判定,还原出场景中的真实情况。
-
公开(公告)号:CN114383612B
公开(公告)日:2024-04-12
申请号:CN202210035732.9
申请日:2022-01-05
申请人: 中国兵器工业计算机应用技术研究所
摘要: 本发明涉及一种视觉辅助惯性差分位姿测量系统,包括:测量单元,以及与测量单元连接的运动载具IMU、被测物体IMU和视觉单元;运动载具IMU和被测物体IMU用于获取运动载具和被测物体的运动信息;视觉单元用于获取被测物体相对于运动载具的视觉位姿数据;测量单元,接收运动载具和被测物体的运动信息,进行双IMU差分获得的载体坐标系下被测物体相对载体的惯性位姿数据;接收视觉位姿数据;并以视觉位姿数据为外部观测量对包括惯性位姿数据在内的状态数据进行卡尔曼滤波,输出滤波后的被测物体与运动载具的相对位姿数据。本发明充分利用惯性测姿采样频率高、短时精度高,视觉测姿无累积误差的特性,实现高精度的位姿追踪。
-
公开(公告)号:CN114383612A
公开(公告)日:2022-04-22
申请号:CN202210035732.9
申请日:2022-01-05
申请人: 中国兵器工业计算机应用技术研究所
摘要: 本发明涉及一种视觉辅助惯性差分位姿测量系统,包括:测量单元,以及与测量单元连接的运动载具IMU、被测物体IMU和视觉单元;运动载具IMU和被测物体IMU用于获取运动载具和被测物体的运动信息;视觉单元用于获取被测物体相对于运动载具的视觉位姿数据;测量单元,接收运动载具和被测物体的运动信息,进行双IMU差分获得的载体坐标系下被测物体相对载体的惯性位姿数据;接收视觉位姿数据;并以视觉位姿数据为外部观测量对包括惯性位姿数据在内的状态数据进行卡尔曼滤波,输出滤波后的被测物体与运动载具的相对位姿数据。本发明充分利用惯性测姿采样频率高、短时精度高,视觉测姿无累积误差的特性,实现高精度的位姿追踪。
-
公开(公告)号:CN114323011A
公开(公告)日:2022-04-12
申请号:CN202210010929.7
申请日:2022-01-05
申请人: 中国兵器工业计算机应用技术研究所
摘要: 本发明涉及一种适用于相对位姿测量的卡尔曼滤波方法,其特征在于,包括以下步骤:使用分别布置在运动载体与被测物体的两个IMU分别获取运动载体与被测物体的运动信息,并求解出的被测物体相对于运动载体的姿态数据;基于包括所述姿态数据在内的状态量,建立卡尔曼滤波的状态误差方程;根据误差传播过程,更新卡尔曼滤波的误差状态协方差矩阵;建立卡尔曼滤波的观测方程,依据外部观测传感器的观测量,更新状态协方差矩阵与状态向量;得到滤波后的被测物体与运动载体的相对位姿。本发明通过状态误差卡尔曼滤波器对载体IMU的位姿误差与零偏、相对姿态测量的位姿误差与零偏进行修正,得到高精度的被测物体与运动载体的相对位姿。
-
-
-
-
-
-
-
-
-