-
公开(公告)号:CN111679303B
公开(公告)日:2023-07-28
申请号:CN202010567564.9
申请日:2020-06-19
申请人: 全球能源互联网研究院有限公司 , 国网江苏省电力有限公司电力科学研究院 , 国家电网有限公司
摘要: 本发明提供了一种多源定位信息融合的综合定位方法及装置,其中,该方法包括:获取目标对象当前时刻的多源辅助定位结果、点云识别定位结果、图像识别定位结果中的至少两个定位结果;根据目标对象在上一时刻的定位结果及当前时刻的至少一定位结果确定候选目标位置;分别确定各候选目标位置与当前时刻各定位结果的相似度;根据各候选目标位置与当前时刻各定位结果的相似度确定目标对象的最终定位结果。本发明采用多种不同的数据源进行定位,多种数据源同时受到较大影响的可能性较小,即使其中一个数据源受到较大影响导致其中一种定位结果有较大误差,其他定位结果也可为最终定位结果的准确性提供保障。因此通过实施本发明得到的最终定位结果更准确。
-
公开(公告)号:CN112446799B
公开(公告)日:2024-03-19
申请号:CN201910826287.6
申请日:2019-09-03
申请人: 全球能源互联网研究院有限公司 , 国家电网有限公司 , 国网江苏省电力有限公司电力科学研究院
摘要: 本发明涉及一种基于AR设备虚拟交互的电网调度方法和系统,包括:观测调度中心的监控图像,并生成监控图像对应的AR场景;在AR场景库中匹配与所述监控图像对应的AR场景相似度最高的AR场景模板;将监控图像对应的AR场景中各监测点的监测数据代入所述AR场景模板对应的决策神经网络模型中,获取决策指令;基于所述决策指令在所述AR场景中对监控图像对应的区域电网进行调度。本发明提供的技术方案,利用AR设备代替调度人员参与电网的实时调度,减少了调度人员的工作量,提供了调度的效率。
-
公开(公告)号:CN112446799A
公开(公告)日:2021-03-05
申请号:CN201910826287.6
申请日:2019-09-03
申请人: 全球能源互联网研究院有限公司 , 国家电网有限公司 , 国网江苏省电力有限公司电力科学研究院
摘要: 本发明涉及一种基于AR设备虚拟交互的电网调度方法和系统,包括:观测调度中心的监控图像,并生成监控图像对应的AR场景;在AR场景库中匹配与所述监控图像对应的AR场景相似度最高的AR场景模板;将监控图像对应的AR场景中各监测点的监测数据代入所述AR场景模板对应的决策神经网络模型中,获取决策指令;基于所述决策指令在所述AR场景中对监控图像对应的区域电网进行调度。本发明提供的技术方案,利用AR设备代替调度人员参与电网的实时调度,减少了调度人员的工作量,提供了调度的效率。
-
公开(公告)号:CN111695622A
公开(公告)日:2020-09-22
申请号:CN202010518643.0
申请日:2020-06-09
申请人: 全球能源互联网研究院有限公司 , 国网江苏省电力有限公司电力科学研究院 , 国家电网有限公司 , 东南大学
摘要: 本发明公开了一种变电作业场景的标识模型训练方法、标识方法及装置,其中,变电作业场景的标识方法包括:采集待测区域中不同子区域的连续图像,建立图像数据集,从图像数据集中提取关键帧图像,并根据关键帧图像进行目标检测,获取关键帧图像的物体信息;对关键帧图像进行图像分类,确定各子区域的关键帧图像的场景信息;根据物体信息及场景信息确定待测区域的物体特征、场景特征及历史场景特征;根据物体特征、场景特征及历史场景特征及预设的场景标识模型进行场景标识,生成目标场景信息。通过实施本发明,避免了因单一信息来源而导致场景误分类,提高了场景识别的准确性。
-
公开(公告)号:CN111679303A
公开(公告)日:2020-09-18
申请号:CN202010567564.9
申请日:2020-06-19
申请人: 全球能源互联网研究院有限公司 , 国网江苏省电力有限公司电力科学研究院 , 国家电网有限公司
摘要: 本发明提供了一种多源定位信息融合的综合定位方法及装置,其中,该方法包括:获取目标对象当前时刻的多源辅助定位结果、点云识别定位结果、图像识别定位结果中的至少两个定位结果;根据目标对象在上一时刻的定位结果及当前时刻的至少一定位结果确定候选目标位置;分别确定各候选目标位置与当前时刻各定位结果的相似度;根据各候选目标位置与当前时刻各定位结果的相似度确定目标对象的最终定位结果。本发明采用多种不同的数据源进行定位,多种数据源同时受到较大影响的可能性较小,即使其中一个数据源受到较大影响导致其中一种定位结果有较大误差,其他定位结果也可为最终定位结果的准确性提供保障。因此通过实施本发明得到的最终定位结果更准确。
-
公开(公告)号:CN111652929A
公开(公告)日:2020-09-11
申请号:CN202010494384.2
申请日:2020-06-03
申请人: 全球能源互联网研究院有限公司 , 国家电网有限公司 , 国网江苏省电力有限公司
摘要: 本发明公开了一种视觉特征的识别定位方法及系统,方法包括:实时获取图像采集设备拍摄的待定位的场景图片,预先建立环境概要地图,构成场景库,利用预训练好的三个图像识别模型对待定位的场景图片进行特征提取,根据分别计算的待定位的场景图片与场景库中图片的余弦相似度与预设判断阈值,在场景库中寻找与待定位的场景图片接近的图片作为识别结果图片,采用预设图像配准算法对待定位的场景图片和识别结果图片进行相对位姿估计,实现相对自定位。本发明提出了在不同天气、光照条件及季节变化影响下,不依赖于GPS等绝对定位工具,实现低成本可靠的地点识别与自定位功能。
-
公开(公告)号:CN111695622B
公开(公告)日:2023-08-11
申请号:CN202010518643.0
申请日:2020-06-09
申请人: 全球能源互联网研究院有限公司 , 国网江苏省电力有限公司电力科学研究院 , 国家电网有限公司 , 东南大学
IPC分类号: G06V10/774 , G06V10/764 , G06V10/82 , G06N3/08 , G06Q50/06
摘要: 本发明公开了一种变电作业场景的标识模型训练方法、标识方法及装置,其中,变电作业场景的标识方法包括:采集待测区域中不同子区域的连续图像,建立图像数据集,从图像数据集中提取关键帧图像,并根据关键帧图像进行目标检测,获取关键帧图像的物体信息;对关键帧图像进行图像分类,确定各子区域的关键帧图像的场景信息;根据物体信息及场景信息确定待测区域的物体特征、场景特征及历史场景特征;根据物体特征、场景特征及历史场景特征及预设的场景标识模型进行场景标识,生成目标场景信息。通过实施本发明,避免了因单一信息来源而导致场景误分类,提高了场景识别的准确性。
-
公开(公告)号:CN110276826A
公开(公告)日:2019-09-24
申请号:CN201910438134.4
申请日:2019-05-23
申请人: 全球能源互联网研究院有限公司 , 国家电网有限公司 , 国网江苏省电力有限公司
摘要: 本发明提供了一种电网作业环境地图的构建方法及系统,该方法包括:获取分阶段建立的电网作业环境的各子地图,以及各子地图对应的关键帧图像;分别对各子地图对应的关键帧图像进行闭环检测,生成各子地图之间的各重叠图像;根据各重叠图像分别计算各子地图在全局坐标系下对应的位姿,并根据各子地图对应的位姿将各子地图进行子地图拼接,生成电网作业环境的全局地图。通过实施本发明,将全局地图的建立过程转换为分阶段局部子地图的建立,从而避免了现有的视觉SLAM方法在环境复杂建图尺度大的室内变电作业环境中建图误差大甚至建图失败的问题,提高了对电网作业环境进行建图的准确性,并大大缩短了建图时间,提高了建图效率。
-
公开(公告)号:CN107967457B
公开(公告)日:2024-03-19
申请号:CN201711210005.7
申请日:2017-11-27
申请人: 全球能源互联网研究院有限公司 , 东南大学 , 国家电网公司 , 国网江苏省电力有限公司电力科学研究院
IPC分类号: G06V20/56 , G06V10/82 , G06V10/764 , G06V10/75 , G06T7/73
摘要: 一种适应视觉特征变化的地点识别与相对定位方法及系统,包括:采集室外场景图像;基于所述室外场景图像和预先构建的场景库和场景分类器得到场景识别结果;基于所述场景识别结果和预先构建的环境概要地图得到相对定位结果。本发明采用机器学习技术提高了地点识别的准确性,借助开放大型标注图像数据集上训练的深度卷积神经网络模型来提取图像特征,而非人为地选取某一种固定的特征提取算子,因此特征提取更能适应视觉特征变化的情况。
-
公开(公告)号:CN107967457A
公开(公告)日:2018-04-27
申请号:CN201711210005.7
申请日:2017-11-27
申请人: 全球能源互联网研究院有限公司 , 东南大学 , 国家电网公司 , 国网江苏省电力有限公司电力科学研究院
CPC分类号: G06K9/00684 , G06K9/6202
摘要: 一种适应视觉特征变化的地点识别与相对定位方法及系统,包括:采集室外场景图像;基于所述室外场景图像和预先构建的场景库和场景分类器得到场景识别结果;基于所述场景识别结果和预先构建的环境概要地图得到相对定位结果。本发明采用机器学习技术提高了地点识别的准确性,借助开放大型标注图像数据集上训练的深度卷积神经网络模型来提取图像特征,而非人为地选取某一种固定的特征提取算子,因此特征提取更能适应视觉特征变化的情况。
-
-
-
-
-
-
-
-
-