-
公开(公告)号:CN103411616A
公开(公告)日:2013-11-27
申请号:CN201310283401.8
申请日:2013-07-05
Applicant: 东南大学
Abstract: 本发明公开了一种基于简化的惯性测量组件的车载组合导航方法,包括以下步骤:步骤1:采用简化的惯性测量组件测量汽车运行位置的数据,并通过地形预测器方法获取由地面倾斜度引起的车辆纵横摇角;步骤2:根据步骤1所测量的数据通过SINS辅助CPS判断可见的卫星并选择合适的卫星;步骤3:从步骤2中选定和捕获跟踪的卫星上可以获得伪距、多普勒频率、载波相位和导航电文等信息,利用SINS/GPS紧组合导航滤波器依据惯导辅助方法对GPS环路进行闭环控制,辅助GPS接收机;步骤4:采用GPS跟踪复合结构的超紧组合算法,根据系统精度和GPS信号的质量选择矢量跟踪环路和标量跟踪结构,使系统能持续跟踪。本发明使整个系统精准度高,可靠性更好。
-
公开(公告)号:CN102564412A
公开(公告)日:2012-07-11
申请号:CN201110431077.0
申请日:2011-12-20
Applicant: 东南大学
IPC: G01C19/72
Abstract: 光纤陀螺无骨架光学感应环的光纤固化方法,根据光纤感应环的结构特点,设计一种光纤环脱离骨架的可拆卸装置,在该装置上面可以满足数千米的光纤按照四极对称方法绕制,光纤环绕制完成后,可以实现光纤环与骨架的脱离;另外,结合无骨架光纤感应环绕制工艺,分步骤进行光纤环敷胶及光纤环固化,实现无骨架光纤感应环。本发明可以在带骨架光纤环绕制机构上面实现光纤绕制,无需特殊设计,结构简单,可操作性强,并且具有温度稳定性好、可靠性高的特点。
-
公开(公告)号:CN102538821A
公开(公告)日:2012-07-04
申请号:CN201110425654.5
申请日:2011-12-17
Applicant: 东南大学
IPC: G01C25/00
Abstract: 一种快速、参数分段式捷联惯性导航系统自对准方法,利用解析法完成粗对准过程,接着进行水平精对准和方位精对准,方位精对准分为三个阶段,每个阶段根据该阶段的特性选用不同的调整时间和衰减系数来确定对准参数,基于对准参数计算加速度修正量和角速度修正量,对输入的加速度信息和角速度信息进行修正,利用修正后的信息进行四元数解算得到初始姿态角,完成精对准过程。本发明通过采集陀螺仪和加速度计数据利用解析法和罗经法完成初始对准,无需利用其他传感器信息,保证初始对准的安全性和保密性;本发明针对不同阶段的对准特性选用最佳的调整时间和衰减系数,从而计算其他的对准参数,提高对准曲线的快速收敛性以及抗干扰性能。
-
公开(公告)号:CN102519460A
公开(公告)日:2012-06-27
申请号:CN201110406451.1
申请日:2011-12-09
Applicant: 东南大学
Abstract: 一种捷联惯性导航系统非线性对准方法,通过采集光纤捷联惯性导航系统加速度计和光纤陀螺仪的数据并做去噪处理,利用解析法和罗经法实现粗对准和精对准过程,接着建立针对姿态角和方位角均为大失准角的基于四元数的捷联惯性导航系统非线性误差模型,建立以速度作为观测量的观测模型,在此模型基础上用改进的UKF算法进行迭代滤波估计,得到平台失准角,不断闭环反馈修正前一周期的捷联惯性系统姿态矩阵,从而完成精确的初始对准过程。本方法无需利用其他传感器信息,保证初始对准的安全性和保密性;引入基于四元数误差的非线性系统误差模型,不作线性化处理来保证模型的精度;减低计算复杂度,对所建立的非线性系统进行滤波完成精对准。
-
公开(公告)号:CN116380079B
公开(公告)日:2025-03-25
申请号:CN202310383169.9
申请日:2023-04-12
Applicant: 东南大学
Abstract: 本发明公开了一种融合前视声呐与ORB‑SLAM3的水下SLAM方法,步骤包括:1、获取前视声呐、双目相机以及惯性测量单元(IMU)的量测;2、对声呐图像进行特征跟踪,通过最小化重投影误差得到声呐的相对位姿估计;3、通过ORB‑SLAM3得到相机的位姿估计;4、构建因子图,在视觉跟踪有效时,将3中视觉里程计的位姿估计值作为先验因子,对IMU预积分作为位姿约束因子,将2中声呐相对位姿估计作为约束因子,求解因子图,更新载体位姿估计;5、当视觉跟踪成功,因子图的输出将跟随视觉里程计;如果视觉跟踪丢失,因子图中的声呐和IMU因子继续起作用,系统在到达可跟踪区域后立即初始化新地图,使用4中位姿估计作为地图初始值来连接两个地图,有利于扩大系统的使用范围。
-
公开(公告)号:CN114970313B
公开(公告)日:2024-11-12
申请号:CN202210343618.2
申请日:2022-04-02
Applicant: 东南大学
IPC: G06F30/27 , G06N3/0464 , G06N3/084 , G06Q50/06 , H02J3/00 , G06F113/04 , G06F119/08
Abstract: 本发明是一种基于自适应图卷积网络的非侵入式负荷分解方法,包括以下步骤:(1)形成由总负荷有功功率序列、总负荷电流序列和温度序列构成的总负荷特征序列;(2)对形成的总负荷特征序列进行滑动窗口分段;(3)耦合用户行为特征,对分段后的每段总负荷特征序列进行图建模;(4)将图数据进行划分并输入到AGCN模型中进行训练;(5)对输出目标电器功率曲线进行状态功率阈值判断获得电器状态。本发明依据所采集的传统负荷特征序列和温度形成新的序列,对形成的新的序列耦合用户行为特征进行图建模,通过基于空间注意力机制的切比雪夫图卷积网络充分提取负荷的稳态特征,进而对非侵入式负荷达到更为精准的分解。
-
公开(公告)号:CN118822390A
公开(公告)日:2024-10-22
申请号:CN202410958984.8
申请日:2024-07-17
Applicant: 东南大学
IPC: G06Q10/067 , G06Q50/06 , G06N3/042 , G06N3/0464 , G06N3/08
Abstract: 一种基于分层残差图神经网络的非侵入式负荷分解方法,数据采集,采集家庭入户处总有功功率值以及家庭内各用电器的有功功率消耗值;数据预处理,对采集到的数据进行时间戳对齐、缺失值填充、数据分割以及归一化处理;图数据构建,提取基于多时间尺度节点特征矩阵以及时间关系与特征关系的邻接矩阵,生成混合关系图数据;模型搭建与训练,搭建基于耦合分层图卷积块与混合注意力池化块的负荷分解模型,将混合关系功率图数据输入到分层残差图神经网络中进行训练;负荷分解,使用总有功功率作为输入,获得各目标设备功率曲线。本发明通过基于递进变化图结构的分层残差图神经网络提取负荷数据特征,实现目标设备的高精度功率分解。
-
公开(公告)号:CN118644797A
公开(公告)日:2024-09-13
申请号:CN202411114476.8
申请日:2024-08-14
Applicant: 江苏省计量科学研究院(江苏省能源计量数据中心) , 东南大学
IPC: G06V20/17 , G06V10/25 , G06V10/774 , G06V10/82
Abstract: 本发明公开了一种基于YOLOv7‑OBB模型的高压变电站智能巡检方法及相关系统,获取高压变电站的图像数据和巡检设备的位置信息;根据变电站图像中的设备和物体制作带有标注和标签的训练图像数据集,构建改进的YOLOv7‑OBB模型的卷积神经网络提取数据,输入待检测的变电站巡检图像,使用训练好的改进的YOLOv7‑OBB模型的卷积神经网络对待检测物体进行识别,并获得对应的位置信息。输出预测图像,完成检测。本发明具有较高的鲁棒性,可对变压器、电缆、绝缘子等物体进行识别,有助于提高巡检效率和准确性,确保电力系统的安全运行。
-
公开(公告)号:CN116452995A
公开(公告)日:2023-07-18
申请号:CN202310383163.1
申请日:2023-04-12
Applicant: 东南大学
Abstract: 基于机载任务机的航拍图像定位方法,包括:基于原始正射影像地图,对感兴趣区域进行预标注和采样,构建地理信息预标注模型,包括位置、属性和影像特征点等,作为参照图;获取无人机摄像头的航拍图像数据并进行预处理后,将航拍图像数据作为实验图;对无人机航拍图像和原始正射影像地图进行特征提取;基于特征点匹配算法,实现无人机航拍图像和原始正射影像地图之间像素级匹配;构建无人机航拍图像和原始正射影像地图之间的空间映射关系;通过空间映射的关系,实现无人机图像像素级的位置标定,进而实现检测目标的高精度定位。本发明通过无人机航拍图像与带有位置等信息的原始正射影像地图进行特征点匹配,从而更方便地实现对目标的高精度定位。
-
公开(公告)号:CN115731268A
公开(公告)日:2023-03-03
申请号:CN202211458596.0
申请日:2022-11-17
Applicant: 东南大学
IPC: G06T7/277 , G06V20/17 , G06V10/762 , G06V10/25 , G06V10/82 , G06V10/22 , G06V10/74 , G06F17/11 , G06F17/16 , G06N3/0464 , G01S13/72 , G01S13/86
Abstract: 基于视觉/毫米波雷达信息融合的无人机多目标跟踪方法,1、读取毫米波雷达当前时刻的点云信息,计算每类点云的质心信息代表该类点云对应物体的信息;2、读取单目视觉RGB图像,使用深度学习目标检测算法生成目标检测框,通过单目深度估计方法计算目标的深度信息;3、对毫米波雷达和单目视觉进行传感器联合标定;4、对完成时空同步的毫米波雷达和视觉检测数据进行一一匹配;5、根据数据匹配结果,将毫米波雷达和视觉数据融合,并针对融合数据设计了一个卡尔曼滤波器;6、基于全局最近邻匹配算法和前述卡尔曼滤波器,设计了一个多目标跟踪器,得到在线的多目标跟踪结果。本申请能够提高无人机的环境感知能力,进而提高无人机的智能化程度。
-
-
-
-
-
-
-
-
-