-
公开(公告)号:CN112924211A
公开(公告)日:2021-06-08
申请号:CN202110095082.2
申请日:2021-01-25
申请人: 安徽大学 , 中国科学院空天信息创新研究院
IPC分类号: G01N1/04
摘要: 本发明公开了一种用于小麦白粉病鉴定的病菌收集装置,包括工作箱、电机、第一夹紧块、第二夹紧块、驱动组件、气缸和收集组件,第一夹紧块设置在工作箱的内部且其底部设有环形挡板,其侧壁上倾斜设有多个呈条形的第一通口,每个第一通口内均设有第一夹紧组件,第二夹紧块设置在第一夹紧块的正下方且其侧壁上设有多个第二通口,每个第二通口内均设有第二夹紧组件,驱动组件设置在工作箱的内部用于带动第一夹紧块和第二夹紧块同步转动,气缸倾斜固定在工作箱的侧壁上且其活塞杆上垂直固定有平行夹爪,每个夹爪上均设有清扫组件。本发明可以同时将小麦叶片两面的病菌收集进行收集,收集效率高,而且能批量对多个小麦叶片上的病菌进行收集。
-
公开(公告)号:CN112488050A
公开(公告)日:2021-03-12
申请号:CN202011486562.3
申请日:2020-12-16
申请人: 安徽大学 , 中国科学院空天信息创新研究院
摘要: 本发明公开了一种结合颜色与纹理的航拍影像场景分类方法,包括:采用基于HSV颜色空间的颜色直方图,获取航拍场景图像颜色特征向量;采用局部二值模式LBP,获取航拍场景图像的局部纹理特征向量;采用梯度‑灰度共生矩阵GLGCM,获取航拍场景图像的全局纹理特征向量;将颜色特征向量、局部纹理特征向量、全局纹理特征向量,形成新特征向量矩阵;将新特征向量进行标准化处理后输入支持向量机SVM分类器进行训练,获得分类结果。该分类方法有效的提高了应用低级视觉特征时的分类精度。
-
公开(公告)号:CN112924211B
公开(公告)日:2022-04-29
申请号:CN202110095082.2
申请日:2021-01-25
申请人: 安徽大学 , 中国科学院空天信息创新研究院
IPC分类号: G01N1/04
摘要: 本发明公开了一种用于小麦白粉病鉴定的病菌收集装置,包括工作箱、电机、第一夹紧块、第二夹紧块、驱动组件、气缸和收集组件,第一夹紧块设置在工作箱的内部且其底部设有环形挡板,其侧壁上倾斜设有多个呈条形的第一通口,每个第一通口内均设有第一夹紧组件,第二夹紧块设置在第一夹紧块的正下方且其侧壁上设有多个第二通口,每个第二通口内均设有第二夹紧组件,驱动组件设置在工作箱的内部用于带动第一夹紧块和第二夹紧块同步转动,气缸倾斜固定在工作箱的侧壁上且其活塞杆上垂直固定有平行夹爪,每个夹爪上均设有清扫组件。本发明可以同时将小麦叶片两面的病菌收集进行收集,收集效率高,而且能批量对多个小麦叶片上的病菌进行收集。
-
公开(公告)号:CN112784907A
公开(公告)日:2021-05-11
申请号:CN202110113912.X
申请日:2021-01-27
申请人: 安徽大学 , 中国科学院空天信息创新研究院
摘要: 本发明公开了基于空谱特征与BP神经网络的高光谱图像分类方法,涉及图像处理技术领域。首先通过PCA对高光谱图像进行降维处理,获得兼具低维波段和特征显著的光谱信息;通过LBP算法提取高光谱图像的空间纹理信息;最后将光谱信息和空间纹理信息通过串行融合的方式组成高光谱图像的特征向量,并输入BP神经网络中训练分类。将本发明的方法应用于Pavia University、Salinas和Botswana高光谱图像处理,分类精度分别达到了93.67%、98.09%和92.97%。本发明的算法相比较于经典算法KNN和几种性能优越的算法,在总体精度、平均精度和Kappa系数上均有提升,证明了本发明方法的实用性。
-
公开(公告)号:CN115905867A
公开(公告)日:2023-04-04
申请号:CN202211490413.3
申请日:2022-11-25
申请人: 中国科学院空天信息创新研究院
IPC分类号: G06F18/214 , G06F18/23 , G06F18/2431 , G06Q50/02 , G06F16/29
摘要: 本申请提供了一种农作物病害风险评估方法及相关装置,涉及农作物病害防治领域,包括:获取高程数据,以及各周期内的气象数据和植被数据;从各周期内的气象数据和植被数据中筛选两两之间的相关性小于预设的相关性阈值的目标气象数据和目标植被数据,以得到各周期内的目标气象数据和目标植被数据;根据高程数据、各周期内的目标气象数据和目标植被数据,确定各周期内的病害发生风险数据;根据各周期内的病害发生风险数据和各周期内目标农作物的分布数据,确定各周期内发生在目标农作物上的病害发生风险数据。由于高程数据、气象数据和植被数据会对病害分布产生影响,基于高程数据、气象数据和植被数据进行病害风险评估,提高了评估结果的准确性。
-
公开(公告)号:CN114494909B
公开(公告)日:2023-04-18
申请号:CN202210142348.9
申请日:2022-02-16
申请人: 中国科学院空天信息创新研究院
IPC分类号: G06V20/13 , G06V10/764 , G06T7/62
摘要: 本发明提出一种大豆生长季空间分布图的生成方法和系统。其中,方法包括:大豆生长季的影像的提取和预处理;随机森林分类模型的构建与训练;时间窗口的设置;特征子集的选择;大豆生长季空间分布图的获得。本申请构造大豆生长季内Sentinel‑2光谱波段的时间序列合成影像,然后结合随机森林分类模型探究大豆最早识别的时间窗口,其次通过评估时间窗口内所有特征的重要性进一步筛选特征子集,最终绘制出大豆空间分布图。
-
公开(公告)号:CN115855151A
公开(公告)日:2023-03-28
申请号:CN202211506679.2
申请日:2022-11-29
申请人: 中国科学院空天信息创新研究院
IPC分类号: G01D21/02 , G01W1/02 , G06Q10/0639 , G06Q50/02
摘要: 本申请公开了一种农作物干旱监测方法、装置、存储介质和设备,该方法为:获取农作物在预设历史时间段内的遥感数据;利用植被指数、地表温度,计算得出农作物在预设历史时间段内的遥感干旱指数;从农作物在预设历史时间段内的遥感干旱指数中,获取各个观察时期的遥感干旱指数;从农作物在预设历史时间段内的总初级生产力中,获取各个观察时期的总初级生产力;将各个观察时期的遥感干旱指数和总初级生产力,代入到干旱评估模型中,计算得到整体干旱指数。以各个观察时期的遥感干旱指数、总初级生产力作为参考依据,具有较强的客观性,能充分考虑农作物不同生长期的干旱情况,相较于现有技术,该方法能够准确评估干旱情况与农作物产量的相关性。
-
公开(公告)号:CN115544808A
公开(公告)日:2022-12-30
申请号:CN202211385568.0
申请日:2022-11-07
申请人: 中国科学院空天信息创新研究院
IPC分类号: G06F30/20 , G06F119/02
摘要: 本申请提供了一种昆虫迁飞预测方法和装置,涉及生物防治领域,方法包括:获取昆虫的历史发生位置数据、迁飞行为数据、目标区域包含的每个子区域的气象数据、昆虫的每个飞行时段内的大气轨迹数据和全球物候数据;根据历史发生位置数据和每个子区域的气象数据,确定昆虫在目标区域内的至少一个迁飞起点;根据迁飞行为数据和大气轨迹数据,对昆虫从每个迁飞起点开始迁飞时的下一迁飞落点进行预测;根据全球物候数据对每个迁飞起点对应的至少一个迁飞落点进行筛选,得到每个迁飞起点对应的筛选后的迁飞落点。本申请能够结合气象数据和全球物候数据对昆虫的迁飞落点进行预测,提高了预测出的迁飞落点的可靠性和准确性。
-
公开(公告)号:CN114494909A
公开(公告)日:2022-05-13
申请号:CN202210142348.9
申请日:2022-02-16
申请人: 中国科学院空天信息创新研究院
IPC分类号: G06V20/13 , G06V10/764 , G06K9/62 , G06T7/62
摘要: 本发明提出一种大豆生长季空间分布图的生成方法和系统。其中,方法包括:大豆生长季的影像的提取和预处理;随机森林分类模型的构建与训练;时间窗口的设置;特征子集的选择;大豆生长季空间分布图的获得。本申请构造大豆生长季内Sentinel‑2光谱波段的时间序列合成影像,然后结合随机森林分类模型探究大豆最早识别的时间窗口,其次通过评估时间窗口内所有特征的重要性进一步筛选特征子集,最终绘制出大豆空间分布图。
-
公开(公告)号:CN118537754A
公开(公告)日:2024-08-23
申请号:CN202410628551.6
申请日:2024-05-21
申请人: 安徽大学
IPC分类号: G06V20/17 , G06V20/10 , G06V10/82 , G06N3/0464 , G06N3/08
摘要: 本发明涉及一种基于无人机的水稻幼苗计数方法,包括:得到水稻全景图片;得到预处理后的水稻图片;生成包含训练集、验证集和测试集的矩形框标注数据集;对YOLOv8网络进行改进,得到改进后的YOLOv8网络即水稻幼苗检测模型;得到训练后的水稻幼苗检测模型;对待预测的水稻图片进行预处理,输入训练后的水稻幼苗检测模型,训练后的水稻幼苗检测模型输出无人机拍摄水稻幼苗计数结果。本发明使得预测的特征图不仅具备了高度的语义信息,还包含了丰富的位置信息,为模型提供了更全面、更准确的信息基础,从而提高了目标检测任务的精度和鲁棒性,这个颈部网络的设计不仅提高了模型对目标的识别能力,也使得模型在处理复杂场景和遮挡情况下表现更加出色。
-
-
-
-
-
-
-
-
-