基于数字孪生的变电站设备综合状态评估与主动预警方法

    公开(公告)号:CN115130369A

    公开(公告)日:2022-09-30

    申请号:CN202210496219.X

    申请日:2022-05-09

    Abstract: 本发明公开了一种基于数字孪生的变电站设备综合状态评估与主动预警方法,包括:1)采集变电站设备及环境的点云数据;2)采集变电站设备及环境的红外图谱和温度数据,把红外图谱数据映射到三维的变电站设备点云数据上,得到点云每个空间点的温度信息;3)分析采集结果,过程如下:建立网格关系图,使点云数据在网格关系中产生逻辑关系,通过某个网格的ID序号确定与另一个网格ID的位置和距离;计算变电站设备按网格划分的每个区域的温度分布状态,和历史变化情况对比后,得到变电站设备的当前运行状态;基于变电站设备的运行状态进一步使用AI学习的方法计算是否需要产生预警。本发明实施简单,扫描速度快,数据全面,预警准确和全面。

    一种目标物体的识别方法及装置

    公开(公告)号:CN110059617A

    公开(公告)日:2019-07-26

    申请号:CN201910308713.7

    申请日:2019-04-17

    Abstract: 本发明实施例提供一种目标物体的识别方法及装置。其中,方法包括:将待识别图片输入至第一神经网络模型,输出所述待识别图片中每一目标物体对应的位置框坐标;将所述位置框坐标输入至云台摄像机,获取所述云台摄像机拍摄到的对应目标物体的图片,并基于所述图片对所述目标物体进行识别。本发明实施例提供的方法及装置,通过将待识别图片输入至第一神经网络模型,根据该模型的输出结果控制云台摄像机拍摄到放大的且更加清晰的包含目标物体的图片,基于该图片进行目标物体的识别,可提高识别的准确率,并且,通过神经网络获取输出结果的过程较快,因此整体降低了识别过程所耗费的时长。

    目标跟随方法和装置
    4.
    发明公开

    公开(公告)号:CN109977884A

    公开(公告)日:2019-07-05

    申请号:CN201910247797.8

    申请日:2019-03-29

    Abstract: 本发明实施例提供一种目标跟随方法和装置,其中方法包括:基于跟随设备上装设的视觉传感装置获取当前图像;将当前图像输入至目标跟随模型,获取目标跟随模型输出的当前动作指令;其中,目标跟随模型是基于样本图像、样本动作指令和样本标识训练得到的;基于当前动作指令控制跟随设备进行目标跟随。本发明实施例提供的方法和装置,计算资源消耗较小,简单方便,无需额外配备加速设备,即可实现当前动作指令的实时输出,提高了跟随设备的安全性和实时性,避免了由于延时导致跟丢跟随目标的问题。此外,在模型训练过程中,无需人工标注跟随目标,仅需通过样本标识评价目标跟随和避障结果,降低了人力成本和时间成本损耗,提高了模型训练效率。

    一种文字识别方法及装置

    公开(公告)号:CN108427953A

    公开(公告)日:2018-08-21

    申请号:CN201810162541.2

    申请日:2018-02-26

    Abstract: 本发明实施例提供一种文字识别方法及装置。所述方法包括:获取待识别图片,所述待识别图片上包括待识别的文字信息;将所述待识别图片作为目标神经网络模型的输入,通过预先创建的所述目标神经网络模型对所述待识别图片进行文字识别,以得到所述待识别图片中的所述文字信息。所述装置用于执行所述方法。本发明实施例通过将待识别图片输入到目标神经网络模型中,目标神经网络模型对待识别图片进行文字识别,得到待识别图片中的文字信息,提高了文字识别的效率及准确性。

    语义空间地图构建方法及装置

    公开(公告)号:CN107833250A

    公开(公告)日:2018-03-23

    申请号:CN201711001164.6

    申请日:2017-10-24

    Abstract: 本发明提供一种语义空间地图构建方法及装置,方法包括获取多幅图像的图像数据;若判断获知多幅图像的图像数据中存在特征点和语义特征点,则根据多幅图像的图像数据获取每个特征点的位置、每个特征点的描述信息、每个语义特征的位置和语义信息;根据每个特征点的描述信息对多幅图像间特征点的位置进行匹配,获取图像间的特征点匹配集,根据每幅图像中语义特征点的语义信息对多幅图像间语义特征的位置进行匹配,获取图像间的语义特征匹配点集;根据两个匹配集获取每个特征点和每个语义特征点对应的三维空间位置,并据此和每个语义特征的语义信息构建待建立地图的场景的语义空间地图。本发明构建出了空间地图和语义地图的语义空间地图。

    避障方法和装置
    7.
    发明公开

    公开(公告)号:CN109993106A

    公开(公告)日:2019-07-09

    申请号:CN201910247682.9

    申请日:2019-03-29

    Abstract: 本发明实施例提供一种避障方法和装置,其中方法包括:基于避障设备上装设的单目视觉传感模块获取实时图像;将实时图像输入至避障模型,获取避障模型输出的动作指令;其中,避障模型是基于样本图像和样本图像对应的样本动作指令和样本避障标识训练得到的;基于动作指令控制避障设备避障。本发明实施例提供的方法和装置,通过单目视觉传感模块获取实时图像,相比传统的双目相机,成本更加低廉。通过训练得到的避障模型,基于实时图像输出动作指令进行自动避障,在实际操作中计算资源消耗较小,简单方便,无需额外配备加速设备,即可实现动作指令的实时输出,保证避障设备在复杂环境下能够自动避障,提高了避障设备应用的安全性和稳定性。

    一种抄表方法及装置
    8.
    发明公开

    公开(公告)号:CN109977874A

    公开(公告)日:2019-07-05

    申请号:CN201910242344.6

    申请日:2019-03-28

    Abstract: 本发明实施例提供一种抄表方法及装置,该方法包括:获取空间语义地图信息和路径规划信息;根据所述空间语音地图信息和路径规划信息,实时获取抄表预览图片信息;对所述抄表预览图片信息进行分析,若所述抄表预览图片信息中包括表计信息,则获取抄表高清图片信息;对所述抄表高清图片信息进行分析,得到表计信息,对所述表计信息进行识别,得到表计读数信息。该方法通过空间语义地图确定表计位置信息和道路信息,然后根据预先规划的路径,拍摄抄表高清图片信息,对抄表高清图片信息进行分析,从而识别图片中的表计读数信息本发明实施例不需要预设摄像头位置或者表计,也不需要高精度的地图,可以更灵活有效的完成抄表工作。

    一种视觉定位方法及装置

    公开(公告)号:CN109919157A

    公开(公告)日:2019-06-21

    申请号:CN201910242317.9

    申请日:2019-03-28

    Abstract: 本发明实施例提供一种视觉定位方法及装置,包括:获取待定位的目标场景图像;基于训练好的文字区域检测模型,对目标场景图进行检测,得到目标场景图像的文字区域;基于训练好的文字内容识别模型,对文字区域的内容进行识别,得到文字区域对应的文字内容信息;根据文字内容信息和数据库图像信息进行匹配,得到文字内容信息对应的定位信息。本发明实施例通过将目标场景图像中包含的文字信息进行检测和识别,得到对应的文字内容信息,再将文字内容信息和图像数据库中的图像信息进行匹配,从而得到该目标场景图像对应的定位信息,降低了视觉定位的难度,提高了定位的准确率和鲁棒性。

    一种视觉定位的方法及装置

    公开(公告)号:CN107742311A

    公开(公告)日:2018-02-27

    申请号:CN201710910982.1

    申请日:2017-09-29

    Abstract: 本发明的实施例公开了一种视觉定位的方法及装置,该方法针对预设拍照设备对预设场景拍照得到的图像数据,一方面根据图像的第一特征点和语义空间地图中的空间特征点进行矢量信息的匹配,得到第一匹配点集。另一方面,提取图像数据中包含第二语义信息的第二特征点,将第二特征点和空间特征点进行语义信息的匹配,得到第二匹配点集。根据第一匹配点集和第二匹配点集得到预设拍照设备的目标姿态信息和目标位置信息。该方法同时利用了图像的纹理信息和语义信息提取特征点,能在图像数据中找到更多的和语义空间地图中的空间特征点匹配成功的特征点,为计算预设拍照设备的目标姿态信息和目标位置信息提供了更为可靠的数据基础,定位精度更高。

Patent Agency Ranking