-
公开(公告)号:CN114119574B
公开(公告)日:2024-08-13
申请号:CN202111443534.8
申请日:2021-11-30
Applicant: 安徽农业大学
Abstract: 本发明公开了一种基于机器视觉的采摘点检测模型构建方法及采摘点定位方法,属于人工智能检测技术领域。采集采摘目标多角度RGB图像和深度图像通过视角映射生成采摘目标的第一点云集合作为训练集;采用三维重建方法实时重建采摘本体树冠层第二点云集合作为验证集和测试集,训练采摘点检测模型Alpha‑VoteNet。采摘时,采用三维重建方法实时三维重建采摘对象树冠层第三点云集合,利用采摘点检测模型获取采摘对象树冠层的所有采摘目标的采摘区域标注框,并根据标注框底面顶点计算底面中心获取采摘点三维坐标。本方法克服了传统方法中无法获取采摘目标的三维信息和因障碍物遮挡造成识别精度不高的问题,具有检测精度高、识别速度快和泛化能力强等特点。
-
公开(公告)号:CN118038451B
公开(公告)日:2024-06-21
申请号:CN202410431523.5
申请日:2024-04-11
Applicant: 安徽农业大学
IPC: G06V20/68 , G06V10/80 , G06V10/74 , G06V10/774 , G06V10/762
Abstract: 本发明公开了一种开放世界果实检测模型构建方法、检测方法及电子设备,属于计算机视觉和自然语言处理技术领域。本发明构建所得检测模型包括:文本编码模块,用于生成输入文本的文本特征向量;图像编码模块,用于生成输入图像的图像特征向量;图文特征融合模块,用于多层融合和交互文本特征和图像特征,生成融合后的图像特征向量和文本特征向量;深度估计模块,用于生成输入图像的深度估计特征;目标检测头,用于进一步融合和提取所得的融合后的图像特征向量、文本特征向量和深度估计特征,得到预测结果。本发明结合图像、深度估计算法和开放文本,实现了未见类别的果实检测和定位。
-
公开(公告)号:CN117540111B
公开(公告)日:2024-03-26
申请号:CN202410028020.3
申请日:2024-01-09
Applicant: 安徽农业大学
IPC: G06F16/9536 , G06F16/906 , G06F16/9535 , G06N3/042 , G06N3/0495 , G06N3/044 , G06N3/0464 , G06N3/045 , G06N3/088
Abstract: 本发明公开了一种基于图神经网络的偏好感知社会化推荐方法,属于社会化推荐方法技术领域,包括以下步骤:S1:输入用户社交信息和用户与物品间交互信息;S2:构建用户社交图和用户物品交互图,初始化用户和物品嵌入;S3:确定最终的一阶用户嵌入;S4:将用户物品交互图分为多个子图;S5:确定二阶或高阶用户嵌入;S6:确定一阶至高阶用户嵌入和物品嵌入进行加权求和,得到最终的用户嵌入和物品嵌入;S7:内积计算用户对物品的偏好程度;S8:根据偏好程度降序排序并生成推荐列表;本发明不仅通过社会化推荐方法解决了传统推荐模型的冷启动和数据稀疏问题,而且解决现有社会化推荐系统的精度低问题,提升推荐模型的推荐精度。
-
公开(公告)号:CN117256545B
公开(公告)日:2024-02-02
申请号:CN202311553506.0
申请日:2023-11-21
Applicant: 安徽农业大学
Abstract: 本发明公开一种智能饲养监测装置及其监测系统,涉及智能监测技术领域,智能饲养监测装置,包括浮船,浮船周侧至少两边呈对称设有气囊;投料组件,投料组件包括可升降的饵料托盘,饵料托盘位于浮船下方;调节组件,用以调节气囊相对浮船竖直方向的位置高度,以控制饵料托盘的入水深度;监测组件,监测组件位于饵料托盘的上方,采集饵料托盘上的图像上传至边缘计算设备终端。本实施例通过可升降调节的饵料托盘以及气囊,进而对饵料托盘的入水状态进行切换,以便于饵料的放置和龙虾的喂养,进一步通过监测组件对龙虾的进食进行监测,获取龙虾的生长状况以及饵料的余量,实现龙虾的科学饲养。
-
公开(公告)号:CN112418043B
公开(公告)日:2022-10-28
申请号:CN202011280768.0
申请日:2020-11-16
Applicant: 安徽农业大学
IPC: G06V20/10 , G06V10/44 , G06V10/82 , G06N3/04 , G06N3/08 , G06T7/136 , G06T7/187 , G06T7/62 , G06T7/70
Abstract: 本发明适用人工智能技术领域,提供玉米杂草遮挡确定方法、装置、机器人、设备及存储介质,包括:根据预设深度网络模型,在玉米和杂草图像数据集中确定玉米识别框和杂草识别框及其轮廓坐标信息;当判断玉米识别框和杂草识别框存在重合面积时,则分别提取存在重合面积的玉米识别框和杂草识别框中的图像信息,对其进行阈值分割及轮廓提取处理,得到玉米识别框和杂草识别框内图像信息的轮廓坐标信息;当判断玉米识别框和杂草识别框内图像信息的轮廓坐标信息存在超过预设重合轮廓坐标点数量阈值时,确定玉米和杂草存在遮挡关系。本发明将深度学习、图像处理与田间除草相结合,实现精确判断玉米与杂草之间的遮挡情况,在机器人除草领域具高实用价值。
-
公开(公告)号:CN113361194A
公开(公告)日:2021-09-07
申请号:CN202110623651.6
申请日:2021-06-04
Applicant: 安徽农业大学
Abstract: 本发明公开了一种基于深度学习的传感器漂移校准方法、电子设备及存储介质,属于传感器校准技术领域。该方法采用数据增广方法扩充数据样本,为传感器漂移校准提供了数据保障,所提出的传感器漂移校准方法包括漂移特征提取和漂移校准两个部分,分别对应于漂移特征提取模块和校准模块。漂移特征提取模块通过多尺度卷积层提取数据中隐藏在不同尺度上时间和频率的漂移关键特征,为校准模块奠定基础;校准模块采用基于自注意力的一维残差卷积神经网络有效利用邻近传感器间数据相关性对漂移数据进行漂移补偿,能够同时校准传感器群组中多个传感器的漂移。该方法能充分利用数据的时间和空间特征,有效提取数据中的漂移特征,提高了数据采集质量。
-
公开(公告)号:CN112418043A
公开(公告)日:2021-02-26
申请号:CN202011280768.0
申请日:2020-11-16
Applicant: 安徽农业大学
Abstract: 本发明适用人工智能技术领域,提供玉米杂草遮挡确定方法、装置、机器人、设备及存储介质,包括:根据预设深度网络模型,在玉米和杂草图像数据集中确定玉米识别框和杂草识别框及其轮廓坐标信息;当判断玉米识别框和杂草识别框存在重合面积时,则分别提取存在重合面积的玉米识别框和杂草识别框中的图像信息,对其进行阈值分割及轮廓提取处理,得到玉米识别框和杂草识别框内图像信息的轮廓坐标信息;当判断玉米识别框和杂草识别框内图像信息的轮廓坐标信息存在超过预设重合轮廓坐标点数量阈值时,确定玉米和杂草存在遮挡关系。本发明将深度学习、图像处理与田间除草相结合,实现精确判断玉米与杂草之间的遮挡情况,在机器人除草领域具高实用价值。
-
公开(公告)号:CN112352523A
公开(公告)日:2021-02-12
申请号:CN202010941855.X
申请日:2020-09-09
Applicant: 安徽农业大学
IPC: A01C23/04 , A01C21/00 , G06K9/62 , G06F16/2458
Abstract: 本发明公开了一种基于智能决策的茶园水肥灌溉控制方法和系统,该方法包括:构建茶园灌溉及施肥的决策模型,所述决策模型以与茶园灌溉、施肥需求相关的多种属性数据为输入,以灌溉、施肥的决策需求为输出;采集茶园的多种属性数据,将其输入至茶园灌溉及施肥的决策模型中,输出灌溉和/或施肥的决策需求;以及根据灌溉需求和/或施肥的决策需求,结合预先设置的水量和施肥量对茶园进行水肥一体灌溉。与传统方法相比,使用数据挖掘算法对茶园水肥灌溉进行决策,避免了人为凭经验进行灌溉的弊端。由于输入了多种影响灌溉及施肥的属性,使得决策能够更加准确。
-
公开(公告)号:CN111167045A
公开(公告)日:2020-05-19
申请号:CN202010036363.6
申请日:2020-01-14
Applicant: 安徽农业大学
Abstract: 本发明属于智能灭火技术领域,尤其涉及一种基于双机器人协作的竹林灭火系统及其控制方法。所述基于双机器人协作的竹林灭火系统包括隔离带制作机器人和灭火机器人;所述隔离带制作机器人用于竹子的定向砍伐以制作防火隔离带,包括定向伐竹模块、小型履带智能移动平台、第一测距模块、相机除尘装置、第一温度监控模块、第一电池模块以及第一控制模块;所述灭火机器人包括大型履带智能移动平台、灭火模块、相机防尘及除尘复合装置、第二温度监控模块、第二测距模块、第二控制模块、第二电池模块。本发明提供的双机器人灭火系统通过隔离带制作机器人的伐竹与灭火机器人的灭火相互配合,可以保证机器人本身的安全,提高了系统的可靠性。
-
公开(公告)号:CN109511356A
公开(公告)日:2019-03-26
申请号:CN201910015198.3
申请日:2019-01-08
Applicant: 安徽农业大学
IPC: A01D34/64 , A01D34/00 , A01D34/82 , A01D43/063 , A01D43/14 , B25J5/00 , B25J9/16 , B25J11/00 , B25J19/04
Abstract: 本发明公开了一种基于深度视觉的智能除草机器人,属于智能机器人技术领域,其包括工控机、动力模块、小车主体、履带行驶轮、液压爪和除草设备,所述小车主体上安装有受行驶轮驱动装置驱动的履带行驶轮,液压爪和除草设备通过用于调整二者姿态的除草机械臂装置安装在小车主体上,行驶轮驱动装置、液压爪和除草设备均由动力模块提供动力且均受工控机控制,还包括用于测量杂草、农作物和小车主体三者相对位置关系的深度相机模块,本发明的有益效果是:通过单机械臂的交互操作就可以实现双机械臂的交互功能,同时采用精准化除草的方式,在保证除草效率和精度的前提下,有效降低了对农作物的二次伤害,大大推进了智能除草机器人的应用与发展。
-
-
-
-
-
-
-
-
-