基于深度强化学习的固定翼无人机群避碰方法及装置

    公开(公告)号:CN111857184B

    公开(公告)日:2023-06-23

    申请号:CN202010761043.7

    申请日:2020-07-31

    Abstract: 本发明公开一种基于深度强化学习的固定翼无人机群避碰方法及装置,该方法步骤包括:S1.建立无人机运动学模型以及D3QN,并使用各僚机与环境交互过程中的历史交互数据更新网络参数,训练形成D3QN模型,其中交互过程中根据环境状态构建僚机与长机之间的联合状态,同时进行态势评估构建得到局部地图,输入至D3QN模型得到各僚机的控制指令输出;S2.各僚机分别实时获取状态信息构成当前僚机与长机之间联合状态,实时进行态势评估构建得到局部地图;将实时构建的联合状态、局部地图输入至D3QN网络模型得到各僚机的控制指令。本发明具有实现方法简单、可扩展性好,能够实现固定翼无人机群集控制,同时避免碰撞等优点。

    一种基于深度强化学习的无人机实时路径规划方法

    公开(公告)号:CN110488872B

    公开(公告)日:2023-03-07

    申请号:CN201910831779.4

    申请日:2019-09-04

    Abstract: 本发明公开了一种基于深度强化学习的无人机实时路径规划方法,其包括:步骤S1、从仿真环境中获取无人机的当前环境状态,根据态势评估模型计算目标对象防御单元对无人机的威胁程度,构建无人机任务区域的态势地图;构建卷积神经网络和竞争神经网络的主网络和目标网络进行动作选择;步骤S2、依据通信链路中获取无人机的当前环境状态,根据态势评估模型计算目标对象防御单元对无人机的威胁值,构建无人机任务区域的态势地图,构建竞争双重Q网络,并载入训练好的网络模型,评估当前状态下各个动作的Q值,选择最大Q值对应的动作,确定无人机的飞行方向,完成飞行任务。本发明可有效提高无人机的自主决策能力,具有较高的鲁棒性能和应用价值。

    基于图表征和注意力机制的ERP信号检测方法及装置

    公开(公告)号:CN115545065A

    公开(公告)日:2022-12-30

    申请号:CN202210310912.3

    申请日:2022-03-28

    Abstract: 本申请涉及一种基于图表征和注意力机制的ERP信号检测方法、装置、计算机设备和存储介质。所述方法包括:获取经预处理后的脑电信号样本;构建用于提取脑电信号特征的卷积循环网络;卷积循环网络包括输入层、图表征层、卷积层、双层长短期记忆层和输出层;卷积层包括选择性内核卷积层,长短期记忆层包括自注意力层;根据脑电信号样本的标签和将脑电信号样本输入到卷积循环网络得到的预测结果对卷积循环网络进行训练,得到训练好的卷积循环网络;将预处理后的待检测脑电信号输入训练好的卷积循环网络,得到待检测脑电信号的ERP信号检测结果。采用本方法能够提高跨被试场景中的ERP检测精度和鲁棒性。

    一种无人机集群飞行中有限交互情形下的协同控制方法

    公开(公告)号:CN114895699A

    公开(公告)日:2022-08-12

    申请号:CN202210296943.8

    申请日:2022-03-24

    Abstract: 本发明涉及一种无人机集群飞行中有限交互情形下的协同控制方法,包括:确定信息无人机用于对周围普通无人机进行协同控制的输入输出变量和语言值,并依据专家经验法得出输入输出变量与所述语言值之间的隶属度函数;基于输入输出变量和语言值,设计无人机协同控制方案,以及对无人机协同控制方案进行模糊推理;将完成的无人机协同控制方案和隶属度函数导入信息无人机;信息无人机采集周围实时的输入语言值,且确定出用于对周围所述普通无人机进行协同控制的输出语言值;信息无人机对确定出的输出语言值进行去模糊化处理,生成包含有精确值的输出变量;信息无人机基于输出变量所包含的精确值改变信息无人机的通信覆盖范围。

    一种无人机降落空间位置和姿态端到端估计方法

    公开(公告)号:CN112268564B

    公开(公告)日:2021-03-02

    申请号:CN202011555526.8

    申请日:2020-12-25

    Abstract: 本发明公开一种无人机降落空间位置和姿态端到端估计方法,包括如下步骤:步骤1,获取地基视觉拍摄的无人机降落实时图像序列,并基于各帧无人机降落实时图像之间的时域关联,得到无人机相对地基相机的位姿;步骤2,基于地基相机与世界坐标系的转换矩阵,将无人机相对地基相机的位姿转换为在世界坐标系下的空间位姿。依托机器学习理论,充分借鉴深度学习在计算机视觉领域的优秀成果,通过设计一种无人机目标相对空间位姿深度神经网络,实现了无人机降落过程中由图像到无人机空间位姿的端到端直接估计,相比传统的多模块串行方法大幅提升了无人机降落过程中位姿估计对环境光照、视觉背景以及观测视角等因素适应性。

    一种无人机降落空间位置和姿态端到端估计方法

    公开(公告)号:CN112268564A

    公开(公告)日:2021-01-26

    申请号:CN202011555526.8

    申请日:2020-12-25

    Abstract: 本发明公开一种无人机降落空间位置和姿态端到端估计方法,包括如下步骤:步骤1,获取地基视觉拍摄的无人机降落实时图像序列,并基于各帧无人机降落实时图像之间的时域关联,得到无人机相对地基相机的位姿;步骤2,基于地基相机与世界坐标系的转换矩阵,将无人机相对地基相机的位姿转换为在世界坐标系下的空间位姿。依托机器学习理论,充分借鉴深度学习在计算机视觉领域的优秀成果,通过设计一种无人机目标相对空间位姿深度神经网络,实现了无人机降落过程中由图像到无人机空间位姿的端到端直接估计,相比传统的多模块串行方法大幅提升了无人机降落过程中位姿估计对环境光照、视觉背景以及观测视角等因素适应性。

    基于深度强化学习的固定翼无人机编队协调控制方法及装置

    公开(公告)号:CN111880567A

    公开(公告)日:2020-11-03

    申请号:CN202010761029.7

    申请日:2020-07-31

    Abstract: 本发明公开一种基于深度强化学习的固定翼无人机编队协调控制方法及装置,该方法步骤包括:步骤S1、建立固定翼无人机运动学模型以及基于深度神经网络建立执行器网络、评价器网络,并使用各僚机与环境之间交互过程中的历史数据更新执行器网络、评价器网络的网络参数,训练形成执行器网络模型;步骤S2、各僚机分别实时获取自身、长机以及除当前僚机以外其他僚机的当前状态信息构成联合状态,载入训练后形成的执行器网络模型,由执行器网络模型根据联合状态输出各僚机的控制指令。本发明能够应用深度强化学习实现固定翼无人机编队协调控制并避免机间碰撞,具有实现方法简单、实时性及可扩展性强、控制灵活等优点。

    一种无人机图像目标检测方法、装置、设备和介质

    公开(公告)号:CN117456394A

    公开(公告)日:2024-01-26

    申请号:CN202311710451.X

    申请日:2023-12-13

    Abstract: 本申请属于目标检测技术领域,涉及一种无人机图像目标检测方法、装置、设备和介质。方法包括:获取多模态数据,根据多模态数据得到:脑电数据、图像数据以及标签数据;搭建两个单模态教师模型以及一个多模态学生模型;将脑电数据和图像数据分别输入两个单模态教师模型,进行预训练,得到预训练教师模型;根据预训练教师模型,分别计算蒸馏损失;同时,计算学生损失;根据蒸馏损失、学生损失以及标签数据,基于置信度和多样性为不同教师分配不同的重要性权重,构造整体损失函数;根据整体损失函数训练多模态学生模型,并进行无人机图像目标检测。本申请能够提高无人机传感器图像目标检测的精度、效率以及鲁棒性。

    基于深度强化学习的仿生鱼领导者—跟随者编队控制方法

    公开(公告)号:CN115933712A

    公开(公告)日:2023-04-07

    申请号:CN202211435228.4

    申请日:2022-11-16

    Abstract: 本发明涉及一种基于深度强化学习的仿生鱼领导者—跟随者编队控制方法,包括:构建竞争双重Q网络;从预设仿真流场环境获取编队中每条跟随者及领导者的状态向量,并将当前时间步的状态向量输入竞争双重Q网络,配合基于模仿领导者行为的跟随者动作选择策略,对每条跟随者在编队的动作进行选择;竞争双重Q网络基于各条跟随者的编队奖励/惩罚,优化带衰减系数的模仿学习损失函数,并重复前述步骤,获取训练完的网络模型;在线载入网络模型,并获取仿真流场环境中每条跟随者及领导者的状态向量,基于状态向量评估各跟随者当前状态下各个动作的Q值;各跟随者选择最大Q值对应的动作,保持领导者和跟随者的编队构型,完成编队控制任务。

Patent Agency Ranking