一种超大航拍条带图像的拼接生成方法及装置

    公开(公告)号:CN112163995B

    公开(公告)日:2024-06-21

    申请号:CN202010932226.0

    申请日:2020-09-07

    Applicant: 中山大学

    Abstract: 本发明公开了一种超大航拍条带图像的拼接生成方法及装置。所述方法包括:接收无人机航拍图像和所述无人机航拍图像对应的传感器数据,并根据所述传感器数据对所述无人机航拍图像进行预处理,得到待拼接图像;以不同所述待拼接图像作为参考图像和待配准图像,提取所述参考图像和所述待配准图像中最相似的两块感兴趣区域;对两块所述感兴趣区域进行特征点提取和匹配,得到所述参考图像和所述待配准图像之间的仿射变换矩阵以及相对的像素坐标;根据所述传感器数据将所述像素坐标转换为经纬度坐标,并根据所述经纬度坐标拼接所述参考图像和所述待配准图像,得到航拍条带图像。本发明能够快速拼接无人机航拍图像生成超大分辨率的航拍条带图像。

    一种重载无人系统实验验证系统的横纵向协调控制的方法

    公开(公告)号:CN117055581A

    公开(公告)日:2023-11-14

    申请号:CN202311251416.6

    申请日:2023-09-26

    Applicant: 中山大学

    Abstract: 本发明公开了一种重载无人系统实验验证系统的横纵向协调控制的方法,该方法包括:设定目标路径并按照目标路径进行跟踪;获取实际路径与目标路径的偏差并输入至横向控制算法,得到舵机转向占空比值;根据舵机转向占空比值确定目标速度;获取实际速度与目标速度的偏差并输入至纵向控制算法,得到直流电机占空比值;结合舵机转向占空比值和直流电机占空比值的同时作用,完成协调控制。通过使用本发明,在横向控制的基础上,加入纵向控制,共同作用于智能车,以此来提高车辆行驶的稳定性和快速性。本发明可广泛应用于车辆协调控制领域。

    一种基于模型参考强化学习的无人船容错控制方法

    公开(公告)号:CN114296350A

    公开(公告)日:2022-04-08

    申请号:CN202111631716.8

    申请日:2021-12-28

    Applicant: 中山大学

    Abstract: 本发明公开了一种基于模型参考强化学习的无人船容错控制方法,该方法包括:对无人船的不确定性因素进行分析,构建无人船名义动力学模型;基于无人船名义动力学模型,设计无人船标称控制器;基于最大熵的Actor‑Critic方法,根据实际无人船系统、无人船名义动力学模型的状态变量差值和无人船标称控制器的输出,构建基于模型参考强化学习的容错控制器;根据控制任务需求,搭建强化学习评价函数和控制策略模型并训练容错控制器,得到训练完成的控制策略。通过使用本发明,能够显著提高无人船系统的安全性和可靠性。本发明作为一种基于模型参考强化学习的无人船容错控制方法,可广泛应用于无人船控制领域。

    一种狼群围猎行为状态智能识别方法及系统

    公开(公告)号:CN113255549A

    公开(公告)日:2021-08-13

    申请号:CN202110620681.1

    申请日:2021-06-03

    Applicant: 中山大学

    Abstract: 本发明公开了一种狼群围猎行为状态智能识别方法及系统,所述方法包括以下步骤:动物个体检测,其中,包括输入:狼群围猎视频,输出:视频每一帧图片动物所在的区域及动物种类;动物个体追踪,其中,包括输入:个体检测部分输出的每一帧的动物所在区域,输出:视频每一帧里成功追踪的动物编号;动物个体运动状态识别,其中,包括输入:视频每一帧每一个动物的区域及编号,输出:视频每一帧每一个动物的运动状态。本发明的系统的鲁棒性较强;本发明系统将目标外观空域流特征与运动时域流特征结合,共同判断种群里每一个个体的物种信息和运动状态,即针对群体的状态识别。本发明系统能直接运用于自然环境下的行为观测,使利用无人机实时观测和监督动物群落状况成为可能。

    一种用于动物群体观测实验的交互式虚拟现实装置

    公开(公告)号:CN119257542A

    公开(公告)日:2025-01-07

    申请号:CN202310812011.9

    申请日:2023-07-04

    Applicant: 中山大学

    Abstract: 为了便于进行动物行为诱导及观测实验,本发明提出一种用于实验室动物群体行为观测的装置。参阅说明书附图1将四台工业相机①连接到上位机后,启动相关的目标跟踪算法,将捕获到的目标位姿传入虚拟场景仿真器,根据全景视图的构建方法生成虚拟场景。上位机中的虚拟场景通过虚拟图像生成装置③进行投影,并经过反射镜面⑥反射至群体容器④上,生成针对动物的沉浸式虚拟场景。红外光源阵列⑤呈现环形布置在群体容器④下方,主要作用是给工业相机①提供光源并排除掉可见光的干扰,增强图像质量。所有装置依靠桁架进行固定,本装置包括支撑桁架②、固定桁架⑤和加强桁架⑦。

    一种基于时序模型的自主式移动车路感知模块仿真预测方法

    公开(公告)号:CN117971919A

    公开(公告)日:2024-05-03

    申请号:CN202410032133.0

    申请日:2024-01-09

    Applicant: 中山大学

    Abstract: 本发明公开了一种基于时序模型的自主式移动车路感知模块仿真预测方法,该方法包括:根据实际交通场景搭建车载感知信息流程;基于车载感知信息流程,进行仿真模拟并统计感知模块的使用情况,得到统计数据;根据统计数据确定ARIMA模型参数,得到最终模型;基于最终模型对感知模块的使用情况进行预测。通过使用本发明,对感知设备的使用概率进行预测,为自动驾驶车辆感知模块的配比提供参考,解决交通仿真系统中自动驾驶感知模块采集信息冗余的问题。本发明可广泛应用于仿真预测领域。

    一种基于视觉的仿生扑翼无人机空间位姿估计方法

    公开(公告)号:CN117115252A

    公开(公告)日:2023-11-24

    申请号:CN202310990249.0

    申请日:2023-08-07

    Applicant: 中山大学

    Abstract: 本发明公开了一种基于视觉的仿生扑翼无人机空间位姿估计方法,如下:获取图像训练数据集;使用深度学习检测算法对图像训练数据集及标注信息进行训练;获取图像采集装置的内外参信息,获取仿生扑翼无人机飞行图像;根据深度学习检测算法对仿生扑翼无人机飞行图像进行测试,得到关键点图像坐标系测试结果和仿生扑翼无人机的翼型状态;测量不同翼型状态下仿生扑翼无人机坐标系关键点的三维坐标及翼型状态;通过解算得到仿生扑翼无人机的空间位置和姿态结果。本发明根据不同飞行姿态进行翼型状态标注定义,深度学习训练检测后进行解算,得到空间位置和姿态,解决由于无人机的结构复杂、翼型状态多样,通过外部图像难以求解其空间位姿的问题。

    基于双级联深度网络的无人机多特征点检测方法及装置

    公开(公告)号:CN112070085B

    公开(公告)日:2023-07-28

    申请号:CN202010925838.7

    申请日:2020-09-04

    Applicant: 中山大学

    Abstract: 本发明公开了一种基于双级联深度网络的无人机多特征点检测方法及装置。所述方法包括:在采集的每一无人机图像中对无人机的多个特征区域进行类别及边界框标注,得到对应的训练图像;将每一所述训练图像输入预先构建的边界框定位网络进行训练,使所述边界框定位网络输出多个特征区域预测框;根据每一所述特征区域预测框提取对应的感兴趣区域,将所有所述感兴趣区域输入预先构建的特征点回归网络进行训练;通过由训练后的所述边界框定位网络和所述特征点回归网络组成的双级联深度网络对待检测图像进行多特征点检测,得到多个特征点坐标。本发明能够实时稳定且准确地检测无人机的多个特征点。

    一种基于DenseHR-Net的无人机自主着陆目标提取方法及装置

    公开(公告)号:CN112069997A

    公开(公告)日:2020-12-11

    申请号:CN202010925792.9

    申请日:2020-09-04

    Applicant: 中山大学

    Abstract: 本发明公开了一种基于DenseHR‑Net的无人机自主着陆目标提取方法及装置,所述方法包括:通过地面摄像机拍摄无人机的RGB三通道图像后进行图像预处理,得到统一标准尺寸的RGB图像;通过搭建DenseHR‑Net目标检测网络模型对RGB图像进行无人机的关键区域检测定位,识别图像中的若干个关键区域的最小外接矩形检测框;根据预设的优先级策略,从图像中的若干个关键区域选取其中一个作为关键点坐标区域,提取出关键点坐标区域的最小外接矩形检测框的中心点坐标,作为无人机着陆的关键点坐标。本发明采用深度学习网络DenseHR‑Net对无人机各位置进行目标检测,能够有效提取无人机自主着陆目标,提高无人机各位置的定位精度,同时避免出现机头误检或漏检的情况,并增强了检测算法的鲁棒性。

    机器人协同指向仿真可视化方法、系统、设备和存储介质

    公开(公告)号:CN117492381B

    公开(公告)日:2024-06-11

    申请号:CN202311159875.1

    申请日:2023-09-08

    Applicant: 中山大学

    Abstract: 本发明公开了机器人协同指向可视化方法、系统、设备和存储介质,包括过对转台进行动力学建模,得到动力学模型,并在动力学模型中集成目标检测算法,得到感知动力学模型;根据多个感知动力学模型和构型控制算法,构建多转台控制模型;构建基于转台的机器人视觉三维模型,并根据预设构型,将多个机器人视觉三维模型组成编队视觉三维模型;通过多转台控制模型对编队视觉三维模型输出的实时图像进行姿态角计算,得到转台的旋转角度;根据旋转角度对编队视觉三维模型进行可视化旋转控制。本发明实现了机器人领域的视觉在环的一体化实时仿真与可视化,弥补了现有仿真系统的不足,能够为实验人员提供轻量高效的仿真服务。

Patent Agency Ranking