-
公开(公告)号:CN117953015A
公开(公告)日:2024-04-30
申请号:CN202410347796.1
申请日:2024-03-26
申请人: 武汉工程大学 , 中国人民解放军海军工程大学 , 湖北文理学院
IPC分类号: G06T7/246 , G06V40/10 , G06V20/40 , G06T3/4053
摘要: 本发明公开了基于视频超分辨率多行人跟踪方法、系统、设备及介质,涉及超分辨率领域以及多目标跟踪领域技术领域,方法包括:获取检测区域的视频,对视频进行视频帧插值及超分辨率处理,对每一帧进行目标检测得到检测框,对重叠度满足条件的检测框进行融合;提取检测框的可见区域标签,根据可见区域标签计算当前帧的检测框和前一帧的检测框的特征距离,将特征距离经过匈牙利算法计算得到最终结果,将最终结果整合输出得到行人轨迹。本发明融合了不同视觉任务,能够实现多视觉任务的相互促进,提高了检测与跟踪的性能,解决了多行人跟踪在低质量成像场景下视频帧模糊难以处理、漏检和误检高概率等问题。
-
公开(公告)号:CN117953015B
公开(公告)日:2024-07-09
申请号:CN202410347796.1
申请日:2024-03-26
申请人: 武汉工程大学 , 中国人民解放军海军工程大学 , 湖北文理学院
IPC分类号: G06T7/246 , G06V40/10 , G06V20/40 , G06T3/4053
摘要: 本发明公开了基于视频超分辨率多行人跟踪方法、系统、设备及介质,涉及超分辨率领域以及多目标跟踪领域技术领域,方法包括:获取检测区域的视频,对视频进行视频帧插值及超分辨率处理,对每一帧进行目标检测得到检测框,对重叠度满足条件的检测框进行融合;提取检测框的可见区域标签,根据可见区域标签计算当前帧的检测框和前一帧的检测框的特征距离,将特征距离经过匈牙利算法计算得到最终结果,将最终结果整合输出得到行人轨迹。本发明融合了不同视觉任务,能够实现多视觉任务的相互促进,提高了检测与跟踪的性能,解决了多行人跟踪在低质量成像场景下视频帧模糊难以处理、漏检和误检高概率等问题。
-
公开(公告)号:CN117953590A
公开(公告)日:2024-04-30
申请号:CN202410354226.5
申请日:2024-03-27
申请人: 武汉工程大学 , 湖北文理学院 , 中国电力科学研究院有限公司
IPC分类号: G06V40/20 , G06V10/22 , G06V10/764 , G06V10/80 , G06V10/77 , G06V10/82 , G06N3/0455 , G06N3/082
摘要: 本发明涉及一种三元交互动作检测方法、系统、设备及介质,方法包括:获取待测三元关系交互动作图像;确定待测三元关系交互动作图像的降维特征图;为降维特征图上每个预设区域添加位置信息,确定全局信息图;利用预设的多头注意力机制,将全局信息图和预设的查询规则进行融合,确定预测交互动作信息;将预测交互动作信息转换为三元检测框信息和交互动作类别。解决了现有技术无法对三元交互动作信息进行完整的描述,不仅降低了预测出的该交互动作信息的区域范围的准确性,还降低了该交互动作信息对应的交互动作类别的准确性的问题。
-
公开(公告)号:CN117953589A
公开(公告)日:2024-04-30
申请号:CN202410354224.6
申请日:2024-03-27
IPC分类号: G06V40/20 , G06V10/22 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/082 , G06N3/096
摘要: 本发明涉及一种交互动作检测方法、系统、设备及介质,方法包括:获取待测三元交互动作图像;对待测三元交互动作图像进行特征提取,获得至少一个第一人物框、至少一个第一工具框和至少一个第一物体框;若任意一个第一人物框、任意一个第一工具框和任意一个第一物体框三个框具有第一重合区域,则将每个第一重合区域对应的三个框组合而成的区域作为一个交互动作检测候选框;对每个交互动作检测候选框进行识别,确定每个交互动作检测候选框对应的交互动作类别。解决了目前的动作交互动作检测方法只能检测出当前图像场景中人与物体的交互动作,无法检测出人、工具与物体之间的三元交互动作的问题。
-
公开(公告)号:CN117953590B
公开(公告)日:2024-07-05
申请号:CN202410354226.5
申请日:2024-03-27
申请人: 武汉工程大学 , 湖北文理学院 , 中国电力科学研究院有限公司
IPC分类号: G06V40/20 , G06V10/22 , G06V10/764 , G06V10/80 , G06V10/77 , G06V10/82 , G06N3/0455 , G06N3/082
摘要: 本发明涉及一种三元交互动作检测方法、系统、设备及介质,方法包括:获取待测三元关系交互动作图像;确定待测三元关系交互动作图像的降维特征图;为降维特征图上每个预设区域添加位置信息,确定全局信息图;利用预设的多头注意力机制,将全局信息图和预设的查询规则进行融合,确定预测交互动作信息;将预测交互动作信息转换为三元检测框信息和交互动作类别。解决了现有技术无法对三元交互动作信息进行完整的描述,不仅降低了预测出的该交互动作信息的区域范围的准确性,还降低了该交互动作信息对应的交互动作类别的准确性的问题。
-
公开(公告)号:CN118521518A
公开(公告)日:2024-08-20
申请号:CN202410583424.9
申请日:2024-05-11
申请人: 武汉工程大学 , 湖北文理学院 , 武汉市烽视威科技有限公司 , 武汉烽火技术服务有限公司
摘要: 本发明涉及一种基于空域增强的上采样方法、系统及计算设备。方法包括:实时获取机房巡检机器人的至少一帧巡检特征图;提高所述巡检特征图的通道数至第一预设倍数以获得通道特征图,并对所述通道特征图进行通道特征重组和卷积处理,获得第一待融合特征图;对所述巡检特征图上采样第二预设倍数以获得上采样特征图,并对所述上采样特征图进行维度调序、池化和拼接操作,获得第二待融合特征图;将所述第一待融合特征图和所述第二待融合特征图进行融合,获得目标特征图。该方法能够提高目标特征图中空域信息表达的能力,以使上采样后所获得的目标特征图中所丢失的信息较少,从而提高机房巡检机器人的巡检精度。
-
公开(公告)号:CN117953589B
公开(公告)日:2024-07-05
申请号:CN202410354224.6
申请日:2024-03-27
IPC分类号: G06V40/20 , G06V10/22 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/082 , G06N3/096
摘要: 本发明涉及一种交互动作检测方法、系统、设备及介质,方法包括:获取待测三元交互动作图像;对待测三元交互动作图像进行特征提取,获得至少一个第一人物框、至少一个第一工具框和至少一个第一物体框;若任意一个第一人物框、任意一个第一工具框和任意一个第一物体框三个框具有第一重合区域,则将每个第一重合区域对应的三个框组合而成的区域作为一个交互动作检测候选框;对每个交互动作检测候选框进行识别,确定每个交互动作检测候选框对应的交互动作类别。解决了目前的动作交互动作检测方法只能检测出当前图像场景中人与物体的交互动作,无法检测出人、工具与物体之间的三元交互动作的问题。
-
公开(公告)号:CN111008956B
公开(公告)日:2024-06-28
申请号:CN201911103773.1
申请日:2019-11-13
申请人: 武汉工程大学
IPC分类号: G06T7/00 , G06T3/4038 , G06T7/60
摘要: 本发明涉及一种基于图像处理的梁底裂纹检测方法、系统、装置和介质,方法包括获取桥梁底面的多个原始裂纹图像,并对所有原始裂纹图像进行预处理,得到多个处理裂纹图像;从所有处理裂纹图像中获取多个待拼接裂纹图像,基于SURF图像处理方法,将所有待拼接裂纹图像进行拼接,得到待检测裂纹图像;获取预设的神经网络裂纹检测模型,并利用所述神经网络裂纹检测模型对所述待检测裂纹图像进行检测,得到目标裂纹图像;对所述目标裂纹图像进行分析,得到裂纹检测数据。本发明能避免图像拍摄距离对梁底裂纹识别和检测的影响,提高裂纹检测精度,能够避免微小裂纹的图像被当做噪声过滤掉,极其适用于微小裂纹的检测。
-
公开(公告)号:CN112069983B
公开(公告)日:2024-03-26
申请号:CN202010917093.X
申请日:2020-09-03
申请人: 武汉工程大学
IPC分类号: G06V40/10 , G06V10/80 , G06V10/774 , G06V10/84 , G06V20/52 , G06V10/82 , G06N3/0464 , G06N3/08
摘要: 本发明公开了一种基于多任务特征融合共享学习的低光照行人检测方法及系统,获取正常、低光照行人数据集;利用正常、低光照行人数据集对图像光照增强网络进行预训练;利用正常光照行人数据集对行人检测网络进行预训练;设计能够融合上下游任务之间特征的多任务特征融合模块,对两个网络进行特征融合与共享,构建多任务特征融合共享学习的低光照行人检测网络;将两个预训练模型导入低光照行人检测网络,并利用正常、低光照数据集进行训练,得到多任务特征融合共享学习的低光照行人检测模型;利用多任务特征融合共享学习的低光照行人检测模型对被检测图像进行检测,得到图像中行人的位置。本发明能够准确、高效的在低光照的图像中检测出行人的位置。
-
公开(公告)号:CN117611443A
公开(公告)日:2024-02-27
申请号:CN202311409592.8
申请日:2023-10-27
申请人: 武汉工程大学
IPC分类号: G06T3/4053 , G06V20/62 , G06V10/80 , G06V10/44
摘要: 本发明涉及一种车牌超分辨率重建方法及系统,方法包括:获取样本车牌图像对应的低分辨率车牌图;提取低分辨率车牌图的浅层特征,获得浅层车牌特征图;提取浅层车牌特征图的精细特征,获得精细车牌特征图;提取浅层车牌特征图的边缘轮廓信息,获得边缘信息特征图;将精细车牌特征图和边缘信息特征图进行特征融合,获得融合车牌特征图;将融合车牌特征图进行卷积操作,获得高分辨率车牌图。解决了利用传统方法对低分辨率车牌图像进行超分辨率重建时,相较于只有英文和数字的车牌,中文车牌在重建时图像容易失真,使得重建后的高分辨率中文车牌信息与原始车牌信息的差异较大,导致重建后的高分辨率中文车牌的准确性较低的问题。
-
-
-
-
-
-
-
-
-