-
公开(公告)号:CN113961010A
公开(公告)日:2022-01-21
申请号:CN202110987581.2
申请日:2021-08-26
Applicant: 中国科学院合肥物质科学研究院
Abstract: 本发明涉及基于抗饱和有限时间自适应神经网络容错技术的四旋翼植保无人机跟踪控制方法,与现有技术相比解决了四旋翼植保无人机难以实现高精度跟踪控制的缺陷。本发明包括以下步骤:期望轨迹数据的设定和存储;实时轨迹数据的采集和存储;四旋翼植保无人机复合数学模型的建立;四旋翼植保无人机飞行误差数学模型的建立;饱和补偿系统的设计和数据存储;自适应神经网络参数的设计和数据存储;基于抗饱和有限时间自适应神经网络容错跟踪控制器的设计和控制信号的存储;实时轨迹数据的更新;位置系统和姿态系统中参数数值的调整。本发明可以保证四旋翼植保无人机的轨迹跟踪误差在有限时间范围内收敛。
-
公开(公告)号:CN113220031A
公开(公告)日:2021-08-06
申请号:CN202110519566.5
申请日:2021-05-13
Applicant: 中国科学院合肥物质科学研究院
Abstract: 本发明涉及基于抗饱和有限时间的旋翼式植保无人机姿态跟踪控制方法,与现有技术相比解决了难以对旋翼式植保无人机进行姿态跟踪控制的缺陷。本发明包括以下步骤:期望姿态角数据的获取;实时姿态角数据的采集;完整姿态数学模型的建立;完整姿态数学拓展模型的建立;有限时间拓展观测器的设计;辅助动力系统的设计;进行有限时间姿态跟踪控制器的设计;旋翼式植保无人机姿态的控制调整。本发明可以实现旋翼式植保无人机在有限时间内跟踪上期望姿态角信号,提高飞行控制系统的抗干扰和执行器饱和抑制能力,加快跟踪误差收敛速度,有效地抑制了系统输出的抖动现象。
-
公开(公告)号:CN112488244A
公开(公告)日:2021-03-12
申请号:CN202011526681.7
申请日:2020-12-22
Applicant: 中国科学院合肥物质科学研究院
Abstract: 本发明涉及一种利用热力图进行点标注方式的密集分布小目标害虫自动计数方法,与现有技术相比解决了难以针对密集小目标害虫进行识别的缺陷。本发明包括以下步骤:获取训练样本并进行预处理;生成热力图;构建密集小目标害虫定位计数网络;训练密集小目标害虫定位计数网络;待定位计数图像的获取;小目标害虫自动计数结果的获得。本发明通过点标注方式进行害虫识别,防止候选框方式识别带来的重叠和误判,特别适用于密集分布小目标害虫的识别计数。
-
公开(公告)号:CN112465821A
公开(公告)日:2021-03-09
申请号:CN202011526726.0
申请日:2020-12-22
Applicant: 中国科学院合肥物质科学研究院
Abstract: 本发明涉及基于边界关键点感知的多尺度害虫图像检测方法,包括:(1)获取害虫图像数据。(2)利用多尺度害虫特征构建基于边界点感知的多尺度害虫区域推荐模型。(3)利用多尺度害虫特征提取网络获取待测害虫图像的多尺度特征,利用多尺度害虫区域推荐模型获取待测害虫图像的感兴趣区域推荐框。(4)构建多类别害虫目标微调网络,利用多类别害虫目标微调网络对感兴趣区域推荐框进行多类别分类和边界框位置回归,得到害虫目标的类别和坐标位置,统计害虫目标数量。本发明通过感知害虫的边界关键点,使得卷积神经网络学习到害虫目标区域的多尺度特征,不同尺度大小的害虫目标特征表达更丰富,能够更精准的指导多尺度害虫目标的识别和定位。
-
公开(公告)号:CN111476317A
公开(公告)日:2020-07-31
申请号:CN202010352773.1
申请日:2020-04-29
Applicant: 中国科学院合肥物质科学研究院
Abstract: 本发明涉及一种基于强化学习技术的植保图像非密集害虫检测方法,与现有技术相比解决了植保图像非密集害虫检测计算量大、资源消耗高的缺陷。本发明包括以下步骤:获取植保图像数据库;植保图像特征图的提取;构建害虫目标检测网络;害虫目标检测网络的训练;待检测植保图像的获取和特征图提取;害虫检测结果的获得。本发明利用强化学习的动作空间和深度学习的特征空间去由粗到细的进行目标检测,结合改进的强化学习算法和区域选择网络去搜索最优候选区域,而后利用深度学习去进一步精修目标候选区域坐标,进一步提高检测精度。
-
公开(公告)号:CN111178120A
公开(公告)日:2020-05-19
申请号:CN201811586713.5
申请日:2018-12-25
Applicant: 中国科学院合肥物质科学研究院
Abstract: 本发明涉及一种基于作物识别级联技术的害虫图像检测方法,与现有技术相比解决了不同类别害虫之间的互相关性影响害虫检测结果的缺陷。本发明包括以下步骤:获取基础数据图像;构造并训练多层感知信息识别网络;构造并训练多投影检测模型;待检测害虫图像的获取;害虫图像的检测。本发明提出了两阶段基于移动视觉的级联害虫检测方法,能够应用于大规模多种害虫数据,通过在新建立的大规模数据集粮食作物田间害虫数据集中对本方法的评估,充分的实验结果表明,本发明所述方法优于传统先进的物体检测方法。
-
公开(公告)号:CN106682704B
公开(公告)日:2019-08-23
申请号:CN201710041270.0
申请日:2017-01-20
Applicant: 中国科学院合肥物质科学研究院
Abstract: 本发明涉及一种基于融合上下文信息的混合卷积神经网络的病害图像识别方法,与现有技术相比解决了病害图像识别率低、鲁棒性差的缺陷。本发明包括以下步骤:训练图像的收集和预处理;构造并训练混合卷积神经网络模型;待测图像的收集和预处理;将测试样本输入训练完成后的混合卷积神经网络模型中,进行病害图像的自动识别,识别出待测病害图像的类别。本发明将病害图像的图片信息和上下文信息相结合进行混合卷积神经网络的构建,从而提高了病害识别的准确率,增强了病害识别算法的鲁棒性。
-
公开(公告)号:CN107808375B
公开(公告)日:2019-07-16
申请号:CN201710894729.1
申请日:2017-09-28
Applicant: 中国科学院合肥物质科学研究院
Abstract: 本发明涉及融合多种上下文深度学习模型的水稻病害图像检测方法,与现有技术相比解决了水稻病害检测未考虑其相关条件因素的缺陷。本发明包括以下步骤:训练样本的收集和预处理;基于深度学习融合水稻图像上下文信息获得水稻病害图像检测模型;待检测水稻图像的空间、位置、温湿度信息收集和预处理;病害在水稻图像中具体位置的标记。本发明不仅考虑了病害图像本身的特征,还考虑了采集时空间、时间、温湿度等相关因素,通过对水稻病害图像全局上下文训练模型、水稻病害图像局部上下文训练模型、水稻病害属性约束上下文训练模型的融合,提高了田间复杂应用情况下水稻病害图像检测与识别能力,提高了水稻病害图像检测率。
-
公开(公告)号:CN105574540B
公开(公告)日:2019-03-15
申请号:CN201510923441.3
申请日:2015-12-10
Applicant: 中国科学院合肥物质科学研究院
IPC: G06K9/62
Abstract: 本发明涉及一种基于非监督学习技术的害虫图像特征学习与自动分类方法,与现有技术相比解决了对害虫图像因遮挡和污染导致害虫识别能力差的缺陷。本发明包括以下步骤:进行大规模害虫图像块随机采样;害虫图像的非监督特征字典学习;害虫图像特征编码并进行特征池化操作;多类分类器识别。本发明提高了害虫识别的准确率,利用非监督的字典训练方式构造非监督字典,结合稀疏编码的方式并对特征进行池化操作,实现了特征较强的鉴别力,有效地表示了害虫图像。
-
公开(公告)号:CN106124449B
公开(公告)日:2019-03-05
申请号:CN201610416869.3
申请日:2016-06-07
Applicant: 中国科学院合肥物质科学研究院
IPC: G01N21/359 , G01N21/3563 , G06N3/04 , G06N3/08
Abstract: 本发明涉及一种基于深度学习技术的土壤近红外光谱分析预测方法,与现有技术相比解决了无法对土壤成分进行大批量综合分析的缺陷。本发明包括以下步骤:训练样本的获取和预处理;构造基于深度学习的预测模型;测试样本的获取和预处理;将预处理过的测试样本的光谱数据输入构造的预测模型,完成对测试样本土壤成分含量的分析预测;将测试土壤样本采用梅尔域的滤波带系数作为参数,变成二维特征输入训练好的卷积神经网络进行土壤成分含量的分析预测。本发明基于卷积神经网络的结构模型来进行土壤近红外光谱分析预测,提高了近红外光谱土壤主要成分预测的精度和模型的鲁棒性。
-
-
-
-
-
-
-
-
-