一种农作物收货装置及挖掘深度的控制方法

    公开(公告)号:CN109429664A

    公开(公告)日:2019-03-08

    申请号:CN201811219680.0

    申请日:2018-10-18

    Applicant: 南京大学

    Abstract: 本发明公开了一种农作物收货装置及挖掘深度的控制方法,收货装置包括收货装置本体和检测机构。检测机构包括第一连接杆、第二连接杆和两个滚轮,第一连接杆的一端与第一支架固连,另一端与第二连接杆的上端固连;其中,第一连接杆和第二连接杆垂直设置,两个滚轮转动设置在第三连接杆的两端,第三连接杆的中点与第二连接杆的下端铰接,两个滚轮沿该收货装置前进方向前、后设置,第三连接杆上设置有姿态传感器和角度传感器。本申请通过设置检测机构,实时检测陇面坡度和高度与农用机械本身尤其是挖掘铲的相对姿态,形成姿态反馈系统,用以实时控制支撑轮和活塞缸的活塞杆行程,使得挖掘铲的挖掘深度适当,且在收货工程中挖掘深度保持不变。

    一种基于模糊Q学习的六足机器人避障方法

    公开(公告)号:CN107562053A

    公开(公告)日:2018-01-09

    申请号:CN201710763224.1

    申请日:2017-08-30

    Applicant: 南京大学

    Abstract: 本发明提供了一种基于模糊Q学习的六足机器人避障方法,步骤包括:由六足机器人通过前部的超声波传感器测量机器人周围的障碍物距离,并通过模糊推理将测量的障碍物距离转化为有限的状态集合;根据有限的状态集合在仿真平台中进行避障仿真建模,再利用Q学习算法学习出六足机器人在相应状态下所要采取的动作;确定六足机器人在当前状态下所处的状态集合,再利用模糊推理确定六足机器人所处的动作集合,并对这些动作进行融合确定下一动作。该避障方法能够在障碍物数量较多的位置环境中实现较好的避障效果,具有良好的市场应用前景。

    航空液压油泵车模拟训练与考核半物理仿真系统

    公开(公告)号:CN102324196A

    公开(公告)日:2012-01-18

    申请号:CN201110316680.4

    申请日:2011-10-18

    Applicant: 南京大学

    Abstract: 本发明公开了航空液压油泵车模拟训练与考核半物理仿真系统,涉及一种液压油泵车半物理仿真系统。其包括由真实操作面板改造而成的仿真操作面板(1)、实现信号采集和驱动执行的下位机系统(2)、实现虚拟现实技术的以触摸屏工控机为主体的上位机系统(3)、同步投影系统(4)、室内操作和野外操作的电源转换系统(5)和航空液压油泵车模拟训练考核半物理仿真系统的外形及机械架构。本发明在近似实车、实际环境和工作程序下不受天气、时间、环境和设备的影响,随时随地进行训练,使受训者真实地获取所需的能力。本发明不仅有效解决实装同时训练人数少、训练费用高的问题,而且为装备的维护、保养及教学提供了很好的平台。

    基于图像处理的油菜收获喂入量检测方法及装置

    公开(公告)号:CN113239715B

    公开(公告)日:2024-05-28

    申请号:CN202110158140.1

    申请日:2021-02-04

    Applicant: 南京大学

    Abstract: 基于图像处理的油菜收获喂入量检测方法及装置,利用深度学习设计并搭建了符合油菜生长特性的卷积神经网络模型,在油菜收割机上安装相机拍摄油菜照片,用于对油菜疏密度和高度进行检测,利用卷积神经网络对油菜疏密度等级进行估计,并结合进入喂入口的油菜高度,获得喂入量。本发明能解决由于人工观测不准确带来的对疏密度的错误估计,大大减小了喂入量检测误差,实现了科学的控制收割机的前进速度,提高了收割机的收获效率,降低了收割机阻塞的风险。

    一种基于扩散的双生成回放的持续离线强化学习方法

    公开(公告)号:CN117634647A

    公开(公告)日:2024-03-01

    申请号:CN202311656001.7

    申请日:2023-12-04

    Applicant: 南京大学

    Abstract: 一种基于扩散的双生成回放的持续离线强化学习方法,首先将持续学习策略解耦为基于扩散的行为生成模型和多头动作评估模型;其次,训练任务‑条件扩散模型来模拟旧任务的状态分布,生成的状态与行为生成模型的相应响应配对,以用高保真回放的伪样本表示旧任务;最后,通过将伪样本与新任务的真实样本交错,不断更新状态和行为生成模型以建模逐渐多样化的行为,并以行为克隆方式规范多头动作评估模型以减少遗忘。本发明提出一种双重生成回放框架,通过生成的伪数据的并发回放来保留旧任务的知识,实验证明了本发明方法在持续离线学习中实现了更好的前向迁移并保持更少的遗忘,并且由于其样本空间的高保真回放而非常接近使用旧任务真实数据的结果。

    一种用于多智能体强化学习中的对比学习表征方法

    公开(公告)号:CN117634645A

    公开(公告)日:2024-03-01

    申请号:CN202311645312.3

    申请日:2023-12-04

    Applicant: 南京大学

    Abstract: 一种用于多智能体强化学习中的对比学习表征方法,配置多智能体系统的环境参数,建立智能体策略网络、值分解系统以及多头注意力机制;通过智能体与环境交互,收集智能体的部分观测和全局状态,获取环境奖励,存放至经验回放池用于训练;然后从经验回放池中采集一个批次的数据,使用多智能体强化学习算法训练策略网络寻找能够获取最大累积奖励的最优策略,并定期使用对比学习约束智能体学习跟行为模式相关的角色表征,实现多智能体强化学习。本发明提出基于注意力引导的对比学习表征方法,在具有更快的收敛,并且具有更高效的探索,能够有效的避免智能体的同质化,从而在复杂动态环境中有效提高多智能体强化学习算法的学习效率和收敛速度。

    基于强化学习的电池组均衡感知快充控制方法和系统

    公开(公告)号:CN117096984A

    公开(公告)日:2023-11-21

    申请号:CN202311113458.3

    申请日:2023-08-31

    Applicant: 南京大学

    Abstract: 本发明涉及电力系统技术领域,尤其涉及一种基于强化学习的电池组均衡感知快充控制方法和系统,所述方法包括:建立电池单体模型和电池组的能量均衡拓扑模型,并将两者转化为电池组的均衡感知快充数学模型;根据均衡感知快充数学模型建立电池组均衡感知快充优化问题,并根据优化问题设定任务环境;其中,所述优化问题以充电时间和不一致性最小为目标;设置强化学习算法的超参数,并通过均衡感知快充数学模型与强化学习算法交互,收集训练数据,完成对强化学习算法的训练;将训练好的强化学习算法迁移到真实电池组当中,对电池组进行均衡感知快充控制。本发明实现自适应的充电均衡策略,保证充电结束后电池组具有更多的能量。

    一种六足机器人
    19.
    发明授权

    公开(公告)号:CN108528563B

    公开(公告)日:2023-11-03

    申请号:CN201810452881.9

    申请日:2018-05-14

    Applicant: 南京大学

    Abstract: 本发明公开了一种六足机器人,包括机身框架、三组水平推杆机构、六个机械大腿机构、六个机械小腿机构以及六个T型连接机构。该六足机器人通过三组水平推杆机构的六个电推杆机构分别对六只机械腿进行摆动驱动,实现机械腿的水平摆动,并由T型连接机构实现摆动传动;六足机器人中所使用的驱动机构全部采用结构相同的电推杆机构,利用共计十八个模块化的电推杆机构实现六条腿的行走动作驱动,在进行行走控制时只需对这个十八个电推杆机构的电动推杆进行分别控制即可,驱动程序相近,能够明显缩短程序开发周期。

    一种用于强化学习机械臂控制中基于磁场的奖励塑形方法

    公开(公告)号:CN115179280A

    公开(公告)日:2022-10-14

    申请号:CN202210705509.0

    申请日:2022-06-21

    Applicant: 南京大学

    Abstract: 本发明公开一种用于强化学习机械臂控制中基于磁场的奖励塑形方法,包括:S1、设计任务环境,设定机械臂、目标物和障碍物的相关参数,设置强化学习算法的超参数;S2、将目标物和障碍物分别视为与其同等形状的永磁体,确定三维空间磁场强度分布的计算方式;S3、机械臂与环境交互,收集训练数据,计算机械臂末端坐标在目标物和障碍物磁场中的磁场强度,得到磁场奖励函数;S4、利用DPBA算法将磁场奖励函数转换为基于势能的塑形奖励函数,与训练数据一起存放至经验回放池;S5、从经验回放池中采集一个批次的数据,使用强化学习算法训练机械臂完成规定任务。本发明能够为机械臂提供目标物和障碍物更为丰富的方位信息,从而提高强化学习算法的学习效率。

Patent Agency Ranking