-
公开(公告)号:CN112991249A
公开(公告)日:2021-06-18
申请号:CN202110290788.4
申请日:2021-03-18
Applicant: 国网经济技术研究院有限公司 , 南京师范大学 , 国网浙江省电力有限公司经济技术研究院 , 国网江苏省电力有限公司经济技术研究院
Abstract: 本发明公开了一种基于深度可分离CNN模型的遥感图像融合方法,包括如下步骤:通过预处理后的原始彩色图像,构建融合模型训练集图像;根据融合模型训练集图像,训练深度可分离CNN模型;获取全色图像和多光谱图像,通过预处理将全色图像转换成PrePan图像,将多光谱图像上采样至PrePan图像大小;将PrePan图像和上采样至PrePan图像大小的多光谱图像送入训练好的深度可分离CNN模型;通过深度可分离CNN模型获取到全色图像和多光谱图像的融合图像。本发明将深度可分离CNN模型应用于全色图像和多光谱图像的融合,在提高融合图像的精度的同时,也加快了融合速度,能够得到同时具备高光谱分辨率和高空间分辨率两种信息的融合图像,对遥感图像的应用具有极大的意义。
-
公开(公告)号:CN112991249B
公开(公告)日:2023-11-24
申请号:CN202110290788.4
申请日:2021-03-18
Applicant: 国网经济技术研究院有限公司 , 南京师范大学 , 国网浙江省电力有限公司经济技术研究院 , 国网江苏省电力有限公司经济技术研究院
IPC: G06T5/50 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明公开了一种基于深度可分离CNN模型的遥感图像融合方法,包括如下步骤:通过预处理后的原始彩色图像,构建融合模型训练集图像;根据融合模型训练集图像,训练深度可分离CNN模型;获取全色图像和多光谱图像,通过预处理将全色图像转换成PrePan图像,将多光谱图像上采样至PrePan图像大小;将PrePan图像和上采样至PrePan图像大小的多光谱图像送入训练好的深度可分离CNN模型;通过深度可分离CNN模型获取到全色图像和多光谱图像的融合图像。本发明将深度可分离CNN模型应用于全色图像和多光谱图像的融合,在提高融合图像的精度的同时,也加快了融合速度,能够得到同时具备高光谱分辨率和高空间分辨率两种信息的融合图像,对遥感图像的应用具有极大的意义。
-
公开(公告)号:CN111401460B
公开(公告)日:2023-04-25
申请号:CN202010213305.6
申请日:2020-03-24
Applicant: 南京师范大学镇江创新发展研究院 , 南京师范大学
IPC: G06F18/2433 , G06F18/2411 , G06F18/2413 , G06F18/232
Abstract: 本发明公开了一种基于限值学习的异常电量数据辨识方法。该方法首先通过异常电量数据分析得出异常电量数据的类型和鉴别算法;然后通过对OneClassSVM算法分析研究,对异常电量数据的鉴别限值进行学习,得到限值学习表,通过限值学习表校核历史数据的异常电量数据,接着通过分析基于密度的聚类算法DBSCAN算法校核历史数据中的离群值,实现基于限值学习的异常电量数据辨识;最后对同样基于密度的聚类算法LOF算法进行分析研究,结合两种基于密度的聚类算法进行实验,同时对多维数据进行离群值辨识,实现了基于密度聚类算法的多维电量数据离群值辨识。
-
公开(公告)号:CN112184763A
公开(公告)日:2021-01-05
申请号:CN202010939522.3
申请日:2020-09-09
Applicant: 南京师范大学镇江创新发展研究院 , 南京师范大学
Abstract: 本发明提供了一种机器人视觉导航中视觉里程计构建方法,包括:提取图像特征点;获取物体边界框的位置;判断提取到的特征点是否在检测得到的物体边界框内,若不是,则剔除特征点;若在物体边界框内,则通过光流跟踪物体边界框内的特征点,并通过光流极线法进行动态点的判断,若物体边界框内动态点数目大于阈值,则认为该物体边界框内物体是运动的,将其中所有特征点剔除。若未超过阈值,则认为该物体边界框内物体是静止的,物体边界框内的特征点是有效特征点。根据有效特征点估算相机运动轨迹,恢复出相机旋转和平移运动,估计出相机位姿,完成视觉里程计的构建。本发明解决了动态环境下位姿估计的不准确问题,提高了定位精度。
-
公开(公告)号:CN112184763B
公开(公告)日:2024-09-10
申请号:CN202010939522.3
申请日:2020-09-09
Applicant: 南京师范大学镇江创新发展研究院 , 南京师范大学
Abstract: 本发明提供了一种机器人视觉导航中视觉里程计构建方法,包括:提取图像特征点;获取物体边界框的位置;判断提取到的特征点是否在检测得到的物体边界框内,若不是,则剔除特征点;若在物体边界框内,则通过光流跟踪物体边界框内的特征点,并通过光流极线法进行动态点的判断,若物体边界框内动态点数目大于阈值,则认为该物体边界框内物体是运动的,将其中所有特征点剔除。若未超过阈值,则认为该物体边界框内物体是静止的,物体边界框内的特征点是有效特征点。根据有效特征点估算相机运动轨迹,恢复出相机旋转和平移运动,估计出相机位姿,完成视觉里程计的构建。本发明解决了动态环境下位姿估计的不准确问题,提高了定位精度。
-
公开(公告)号:CN111563452B
公开(公告)日:2023-04-21
申请号:CN202010371935.6
申请日:2020-05-06
Applicant: 南京师范大学镇江创新发展研究院 , 南京师范大学
IPC: G06V40/16 , G06V40/10 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明提供了一种基于实例分割的多人体姿态检测及状态判别方法,包括:采集课堂视频的原始分帧图像;分割出学生个体和非学生个体,以不同颜色的掩码标注不同学生个体,同时进行姿态检测,提取出各学生人体姿态的关键点,并进行标注连接;对学生的听课状态进行具体判别,对学生脸部进行识别和定位,判断所有学生个体是否能检测到正面人脸,如果能,则初步说明该同学处于听课状态,并判断该同学是否处于举手状态;如果无法检测出人脸,则进一步判断其是否处于不听课状态。结合每个学生个体听课状态对学生听课效率进行评估。本发明为实现学生听课状态的判别与分析提供解决方法,具有可实时识别,识别精度高,抗复杂环境干扰性强等优点。
-
公开(公告)号:CN111563452A
公开(公告)日:2020-08-21
申请号:CN202010371935.6
申请日:2020-05-06
Applicant: 南京师范大学镇江创新发展研究院 , 南京师范大学
Abstract: 本发明提供了一种基于实例分割的多人体姿态检测及状态判别方法,包括:采集课堂视频的原始分帧图像;分割出学生个体和非学生个体,以不同颜色的掩码标注不同学生个体,同时进行姿态检测,提取出各学生人体姿态的关键点,并进行标注连接;对学生的听课状态进行具体判别,对学生脸部进行识别和定位,判断所有学生个体是否能检测到正面人脸,如果能,则初步说明该同学处于听课状态,并判断该同学是否处于举手状态;如果无法检测出人脸,则进一步判断其是否处于不听课状态。结合每个学生个体听课状态对学生听课效率进行评估。本发明为实现学生听课状态的判别与分析提供解决方法,具有可实时识别,识别精度高,抗复杂环境干扰性强等优点。
-
公开(公告)号:CN111401460A
公开(公告)日:2020-07-10
申请号:CN202010213305.6
申请日:2020-03-24
Applicant: 南京师范大学镇江创新发展研究院 , 南京师范大学
IPC: G06K9/62
Abstract: 本发明公开了一种基于限值学习的异常电量数据辨识方法。该方法首先通过异常电量数据分析得出异常电量数据的类型和鉴别算法;然后通过对OneClassSVM算法分析研究,对异常电量数据的鉴别限值进行学习,得到限值学习表,通过限值学习表校核历史数据的异常电量数据,接着通过分析基于密度的聚类算法DBSCAN算法校核历史数据中的离群值,实现基于限值学习的异常电量数据辨识;最后对同样基于密度的聚类算法LOF算法进行分析研究,结合两种基于密度的聚类算法进行实验,同时对多维数据进行离群值辨识,实现了基于密度聚类算法的多维电量数据离群值辨识。
-
公开(公告)号:CN119916347A
公开(公告)日:2025-05-02
申请号:CN202510406166.1
申请日:2025-04-02
Applicant: 南京师范大学
Abstract: 本发明提供了一种旋转式雷达装置及其识别方法,属于声纳雷达技术领域。该一种旋转式雷达装置,包括漂浮箱,所述漂浮箱的底面固定安装有漂浮圈,所述漂浮圈的顶面固定安装有设备箱一,本发明中,低频声纳探测器通过电机控制转动至与水面平行的最佳探测角度,从而充分利用低频声波在深水区的穿透优势,实现对深层目标的有效识别,装置整体在水中移动时,系统通过电机精确控制各探测器的角度,依次激活高频、中频和低频声纳探测器,分别针对浅水、中层和深水区域进行探测。与传统可调频声纳相比,本发明采用固定频率的多探测器配置,各自独立回传探测数据,有效提升了不同水深目标的识别精度和数据处理效率。
-
公开(公告)号:CN119197544B
公开(公告)日:2025-04-25
申请号:CN202411710993.1
申请日:2024-11-27
Applicant: 南京师范大学
IPC: G01C21/20
Abstract: 本发明公开了一种基于局部探索及全局探索融合的机器人路径规划方法,获取全局探索空间,将全局探索空间划分为若干子空间,以子空间的质心作为全局路径点,并获得全局探索路径;以机器人周围预设距离内的空间作为局部探索空间,以全局探索路径与局部探索空间边界的交点作为边界点,对局部探索空间通过雷达进行均匀采样并提取候选路径点,通过局部路径点选择算法对候选路径点进行选择,得到局部路径点;并获得局部探索路径;将全局探索路径中两个边界点之间的路径替换为局部探索路径,得到最终规划路径。分层搜索框架既能够在局部空间中进行精确的路径规划,又能够通过全局探索规划的引导防止陷入局部最优化,同时节约了计算资源。
-
-
-
-
-
-
-
-
-