一种机器人视觉导航中视觉里程计构建方法

    公开(公告)号:CN112184763B

    公开(公告)日:2024-09-10

    申请号:CN202010939522.3

    申请日:2020-09-09

    Abstract: 本发明提供了一种机器人视觉导航中视觉里程计构建方法,包括:提取图像特征点;获取物体边界框的位置;判断提取到的特征点是否在检测得到的物体边界框内,若不是,则剔除特征点;若在物体边界框内,则通过光流跟踪物体边界框内的特征点,并通过光流极线法进行动态点的判断,若物体边界框内动态点数目大于阈值,则认为该物体边界框内物体是运动的,将其中所有特征点剔除。若未超过阈值,则认为该物体边界框内物体是静止的,物体边界框内的特征点是有效特征点。根据有效特征点估算相机运动轨迹,恢复出相机旋转和平移运动,估计出相机位姿,完成视觉里程计的构建。本发明解决了动态环境下位姿估计的不准确问题,提高了定位精度。

    一种基于实例分割的多人体姿态检测及状态判别方法

    公开(公告)号:CN111563452A

    公开(公告)日:2020-08-21

    申请号:CN202010371935.6

    申请日:2020-05-06

    Abstract: 本发明提供了一种基于实例分割的多人体姿态检测及状态判别方法,包括:采集课堂视频的原始分帧图像;分割出学生个体和非学生个体,以不同颜色的掩码标注不同学生个体,同时进行姿态检测,提取出各学生人体姿态的关键点,并进行标注连接;对学生的听课状态进行具体判别,对学生脸部进行识别和定位,判断所有学生个体是否能检测到正面人脸,如果能,则初步说明该同学处于听课状态,并判断该同学是否处于举手状态;如果无法检测出人脸,则进一步判断其是否处于不听课状态。结合每个学生个体听课状态对学生听课效率进行评估。本发明为实现学生听课状态的判别与分析提供解决方法,具有可实时识别,识别精度高,抗复杂环境干扰性强等优点。

    一种机器人视觉导航中视觉里程计构建方法

    公开(公告)号:CN112184763A

    公开(公告)日:2021-01-05

    申请号:CN202010939522.3

    申请日:2020-09-09

    Abstract: 本发明提供了一种机器人视觉导航中视觉里程计构建方法,包括:提取图像特征点;获取物体边界框的位置;判断提取到的特征点是否在检测得到的物体边界框内,若不是,则剔除特征点;若在物体边界框内,则通过光流跟踪物体边界框内的特征点,并通过光流极线法进行动态点的判断,若物体边界框内动态点数目大于阈值,则认为该物体边界框内物体是运动的,将其中所有特征点剔除。若未超过阈值,则认为该物体边界框内物体是静止的,物体边界框内的特征点是有效特征点。根据有效特征点估算相机运动轨迹,恢复出相机旋转和平移运动,估计出相机位姿,完成视觉里程计的构建。本发明解决了动态环境下位姿估计的不准确问题,提高了定位精度。

    一种基于限值学习的异常电量数据辨识方法

    公开(公告)号:CN111401460A

    公开(公告)日:2020-07-10

    申请号:CN202010213305.6

    申请日:2020-03-24

    Abstract: 本发明公开了一种基于限值学习的异常电量数据辨识方法。该方法首先通过异常电量数据分析得出异常电量数据的类型和鉴别算法;然后通过对OneClassSVM算法分析研究,对异常电量数据的鉴别限值进行学习,得到限值学习表,通过限值学习表校核历史数据的异常电量数据,接着通过分析基于密度的聚类算法DBSCAN算法校核历史数据中的离群值,实现基于限值学习的异常电量数据辨识;最后对同样基于密度的聚类算法LOF算法进行分析研究,结合两种基于密度的聚类算法进行实验,同时对多维数据进行离群值辨识,实现了基于密度聚类算法的多维电量数据离群值辨识。

    基于多尺度预测CNN及龙芯芯片的多类别目标识别方法

    公开(公告)号:CN111950451B

    公开(公告)日:2024-11-22

    申请号:CN202010806204.X

    申请日:2020-08-12

    Abstract: 本发明公开了一种基于多尺度预测CNN及龙芯芯片的多类别目标识别方法,包括:将目标图像输入到搭建好的多尺度背景预测卷积神经网络,输出分类结果;将分类结果为物体的候选框,去除重复的候选框;对多尺度背景预测卷积神经网络充分训练,得到训练好的多尺度背景预测卷积神经网络;视觉摄像头采集视频文件,并且统一尺寸大小;将训练好的多尺度背景预测卷积神经网络模型移植到基于龙芯芯片的嵌入式系统中完成对多类别目标的识别。本发明充分考虑了目标识别快速准确的特点,设计了多尺度背景预测卷积神经网络,利用多尺度网络模型来对多类别目标进行识别,提高了对于多类别目标的识别准确率和速度,并且具有很高的可移植性,应用前景广泛。

    一种穿戴式导航装备中视觉导航特征点提取与匹配方法

    公开(公告)号:CN111460941B

    公开(公告)日:2023-06-09

    申请号:CN202010206651.1

    申请日:2020-03-23

    Abstract: 本发明提供了一种穿戴式导航装备中视觉导航特征点提取与匹配方法,包括:读取两帧原始图像,构建图像的高斯‑拉普拉斯金字塔,生成高斯‑拉普拉斯差分尺度空间;进行特征点检测,将局部极值点作为特征点提取出来;计算出特征点的方向;基于BRIEF算子生成特征点的描述符,对每个点对进行二进制赋值,形成一个二进制编码;基于前一步生成的描述子对两张图像进行特征点的匹配,测量前一帧图中的每一个特征点与后一帧图像中所有特征点的相似程度,将相似程度最大的匹配成一对;重复上一步匹配操作,直到两帧图像中的所有特征点匹配完成,这些匹配好的特征点对为视觉导航提供大量的基础信息,提高导航定位结果的稳定性、环境适应性及抗干扰性能。

    一种基于优化交并比函数的道路抛洒物检测与识别方法

    公开(公告)号:CN112232240A

    公开(公告)日:2021-01-15

    申请号:CN202011129588.2

    申请日:2020-10-21

    Abstract: 本发明公开了一种基于优化交并比函数的道路抛洒物检测与识别方法,包括如下步骤:搭建基于优化交并比函数的道路抛洒物检测与识别模型;采集道路交通监控视频并进行分帧处理生成道路抛洒物数据集,对训练集图像进行标注,生成标签文件;将训练集全部图像和标签文件输入道路抛洒物检测与识别模型中进行训练,得到训练好的模型;将测试集图像输入训练好的道路抛洒物检测与识别模型进行检测识别,输出对于道路抛洒物的检测识别结果。本发明能够在复杂道路交通背景下对道路抛洒物进行检测和识别,能够输出道路抛洒物位置信息、类别信息以及大致形状特征,对于小目标有较好的检测识别效果,检测速度快、识别精度高。

    基于多尺度预测CNN及龙芯芯片的多类别目标识别方法

    公开(公告)号:CN111950451A

    公开(公告)日:2020-11-17

    申请号:CN202010806204.X

    申请日:2020-08-12

    Abstract: 本发明公开了一种基于多尺度预测CNN及龙芯芯片的多类别目标识别方法,包括:将目标图像输入到搭建好的多尺度背景预测卷积神经网络,输出分类结果;将分类结果为物体的候选框,去除重复的候选框;对多尺度背景预测卷积神经网络充分训练,得到训练好的多尺度背景预测卷积神经网络;视觉摄像头采集视频文件,并且统一尺寸大小;将训练好的多尺度背景预测卷积神经网络模型移植到基于龙芯芯片的嵌入式系统中完成对多类别目标的识别。本发明充分考虑了目标识别快速准确的特点,设计了多尺度背景预测卷积神经网络,利用多尺度网络模型来对多类别目标进行识别,提高了对于多类别目标的识别准确率和速度,并且具有很高的可移植性,应用前景广泛。

Patent Agency Ranking