-
公开(公告)号:CN116866703A
公开(公告)日:2023-10-10
申请号:CN202310514341.X
申请日:2023-05-09
申请人: 北京航空航天大学 , 杭州海康威视数字技术股份有限公司
摘要: 本发明公开了一种摄像机参数自适应调整方法。该方法包括:在准确度量场景间的背景差异的基础上自适应调整摄像机的成像参数(S1),其中,通过照度估计、色偏估计和散射估计度量场景间的背景差异(S1‑1);在此基础上针对不同的背景差异自适应调整对应的成像参数,(S1‑2)。在准确度量场景间的目标差异的基础上自适应调整运动控制参数(S2),其中,通过检测跟踪得到检测跟踪结果(S2‑1);通过计算标签偏移和特征偏移度量场景的目标差异(S2‑2);在此基础上,如果当前场景的目标信息不足,通过目标状态建模、目标快速定位和基于多目标感知结果计算运动控制参数序列(S2‑3)。与现有方法不同,本发明方法不仅提高图像视觉质量,对提升目标检测算法在新场景下的性能也有显著提升。
-
公开(公告)号:CN114299399B
公开(公告)日:2024-06-11
申请号:CN202111363657.0
申请日:2021-11-17
申请人: 北京航空航天大学
摘要: 本发明公开了一种基于骨架线关系的飞机目标确认方法,主要包括以下步骤:S1.获取实时遥感图像,对所述实时遥感图像进行自适应二值化,以二值图表示边缘提取结果,其中白色像素点为边缘点,黑色像素点为非边缘点;S2.飞机目标骨架线关系提取;S3.对飞机关键点进行检测;S4.目标检测结果置信度矫正。本发明提高了目标检测结果的可解释性和确定性,并具有较高的计算效率。
-
公开(公告)号:CN110659598A
公开(公告)日:2020-01-07
申请号:CN201910867333.7
申请日:2019-09-12
申请人: 北京航空航天大学
摘要: 本发明提供一种基于Wi-Fi信号的人体动作分层解析和识别方法及装置。其中,该方法包括以下步骤:(A)对原始信号进行预处理操作得到主成分分析信号及频谱图;(B)根据动作特点设计动作层次关系并设计相应的特征;(C)使用(B)中的特征训练多个分类器,并根据动作层次关系构建分类架构;(D)对未知信号进行步骤A至C得到分类结果,即为动作识别结果;同时,本发明中设计了一种基于Wi-Fi信号的人体动作分层解析和识别装置,包括两台计算机分别作为收发端、若干天线及天线延长线和一个移动实验台。本发明提供了一种使用Wi-Fi信号进行人体动作识别的完整流程及方法;使用该方法搭建的识别系统可以很好的完成人体动作识别任务,并且对环境变化具有鲁棒性。
-
公开(公告)号:CN110659598B
公开(公告)日:2022-07-01
申请号:CN201910867333.7
申请日:2019-09-12
申请人: 北京航空航天大学
摘要: 本发明提供一种基于Wi‑Fi信号的人体动作分层解析和识别方法及装置。其中,该方法包括以下步骤:(A)对原始信号进行预处理操作得到主成分分析信号及频谱图;(B)根据动作特点设计动作层次关系并设计相应的特征;(C)使用(B)中的特征训练多个分类器,并根据动作层次关系构建分类架构;(D)对未知信号进行步骤A至C得到分类结果,即为动作识别结果;同时,本发明中设计了一种基于Wi‑Fi信号的人体动作分层解析和识别装置,包括两台计算机分别作为收发端、若干天线及天线延长线和一个移动实验台。本发明提供了一种使用Wi‑Fi信号进行人体动作识别的完整流程及方法;使用该方法搭建的识别系统可以很好的完成人体动作识别任务,并且对环境变化具有鲁棒性。
-
公开(公告)号:CN114299399A
公开(公告)日:2022-04-08
申请号:CN202111363657.0
申请日:2021-11-17
申请人: 北京航空航天大学
摘要: 本发明公开了一种基于骨架线关系的飞机目标确认方法,主要包括以下步骤:S1.获取实时遥感图像,对所述实时遥感图像进行自适应二值化,以二值图表示边缘提取结果,其中白色像素点为边缘点,黑色像素点为非边缘点;S2.飞机目标骨架线关系提取;S3.对飞机关键点进行检测;S4.目标检测结果置信度矫正。本发明提高了目标检测结果的可解释性和确定性,并具有较高的计算效率。
-
公开(公告)号:CN116862934A
公开(公告)日:2023-10-10
申请号:CN202310525562.7
申请日:2023-05-11
申请人: 北京航空航天大学
摘要: 本发明公开了一种针对机器人自由度受限场景的实时主动遮挡规避方法,包括:构建场景的二维环境地图,基于机器人在场景中的实时移动轨迹,结合机器人有效观测区遍历二维环境地图,提取机器人当前视野平面内的深度图像;获取目标障碍物在深度图像中的位置,并从目标障碍物中心点向外扩散式搜索,获得遮挡边界;获取遮挡边界在机器人当前视野平面内的二维投影,计算遮挡边界线朝向目标障碍物自身的边界外侧方向的法向量合量;基于法向量合量方向规划机器人的移动路径,直至获得目标障碍物自身的完整边界。本发明针对自由度受限的机器人目标搜寻场景下,通过深度和环境信息的计算,决策出在实际环境中可执行的动作能够实时快速获得目标的无遮挡图像。
-
公开(公告)号:CN116560367A
公开(公告)日:2023-08-08
申请号:CN202310529017.5
申请日:2023-05-11
申请人: 北京航空航天大学
IPC分类号: G05D1/02
摘要: 本发明公开了一种开放环境指定目标的自主搜寻方法,属于目标搜索技术领域。包括:基于SLAM技术构建场景探索地图,并基于场景探索地图建立目标探索地图,所述目标探索地图用于标记机器人探索过程中的探索区域、未探索区域及障碍物;基于目标探索地图对机器人探索视野内的路径点进行遍历,判断所述目标探索地图内是否存在探索目标;当所述目标探索地图中存在探索目标时,判断探索目标设定距离和角度内是否存在遮挡物;当探索目标设定距离内存在遮挡物时,基于深度图像信息提取目标遮挡边界,驱动机器人进移动规避,获取无遮挡目标图像。本发明实现了在未知场景中快速搜寻目标,并最终给出目标在视野与环境中的位置以及无遮挡图像。
-
公开(公告)号:CN114067147B
公开(公告)日:2022-12-16
申请号:CN202111341721.5
申请日:2021-11-12
申请人: 北京航空航天大学
摘要: 本发明公开了一种基于局部形状匹配的舰船目标确认方法,包括:获取神经网络检测模型预测的原始图像中目标检测框的区域图像,进行预处理,提取预处理后图像中目标二值化图像的最大外轮廓图;获取模板图像的二值化图像,并提取模板图像的二值化图像的最大外轮廓图;分别对两个最大外轮廓图进行点采样,得到模板图像船头/尾的点集和目标二值化图像左/右区域的点集;构造模板图像船头船尾的特征描述子和目标图像左右区域的特征描述子,进行局部形状匹配,最后确定原始图像中目标检测框的区域图像是否为舰船目标。该方法可以有效的解决因深度神经网络检测模型结果的不确定性而导致检测结果中存在大量虚警的问题;速度快、开销小、精度高。
-
公开(公告)号:CN112767452B
公开(公告)日:2022-08-05
申请号:CN202110019695.8
申请日:2021-01-07
申请人: 北京航空航天大学
IPC分类号: G06T7/292 , G06T7/70 , G06V40/20 , G06V40/10 , G06V20/40 , G06V20/52 , G06V10/764 , G06V10/82 , G06K9/62 , G06N3/04
摘要: 本发明设计了一个面向视频监控的主动感知方法及系统。提出了一种主从摄像机高效协同控制方法。采用启发式算法自动调整相机参数建立主从摄像机坐标映射模型,并构建从摄像机和场景之间的几何模型,实现了从摄像机对目标快速定位。提出一种基于目标状态感知的行人属性识别方法。根据人体关键点进行行人状态判断,以指导行人目标属性识别结果的有效性评判。在此基础上,基于多帧图像序列更新行人目标属性识别结果,进而获得完整的行人属性识别结果。提出了一种基于主从协同的数据自动标注方法。利用从摄像机对主摄像机检测到的目标进行确认,主摄像机定期生成背景图像,将确认的目标与生成的背景图像进行融合,形成新的标注数据,进而对主摄像机目标检测模型进行调优,提升了目标检测方法对新场景的适应能力。
-
公开(公告)号:CN114067147A
公开(公告)日:2022-02-18
申请号:CN202111341721.5
申请日:2021-11-12
申请人: 北京航空航天大学
摘要: 本发明公开了一种基于局部形状匹配的舰船目标确认方法,包括:获取神经网络检测模型预测的原始图像中目标检测框的区域图像,进行预处理,提取预处理后图像中目标二值化图像的最大外轮廓图;获取模板图像的二值化图像,并提取模板图像的二值化图像的最大外轮廓图;分别对两个最大外轮廓图进行点采样,得到模板图像船头/尾的点集和目标二值化图像左/右区域的点集;构造模板图像船头船尾的特征描述子和目标图像左右区域的特征描述子,进行局部形状匹配,最后确定原始图像中目标检测框的区域图像是否为舰船目标。该方法可以有效的解决因深度神经网络检测模型结果的不确定性而导致检测结果中存在大量虚警的问题;速度快、开销小、精度高。
-
-
-
-
-
-
-
-
-