-
公开(公告)号:CN117953590A
公开(公告)日:2024-04-30
申请号:CN202410354226.5
申请日:2024-03-27
Applicant: 武汉工程大学 , 湖北文理学院 , 中国电力科学研究院有限公司
IPC: G06V40/20 , G06V10/22 , G06V10/764 , G06V10/80 , G06V10/77 , G06V10/82 , G06N3/0455 , G06N3/082
Abstract: 本发明涉及一种三元交互动作检测方法、系统、设备及介质,方法包括:获取待测三元关系交互动作图像;确定待测三元关系交互动作图像的降维特征图;为降维特征图上每个预设区域添加位置信息,确定全局信息图;利用预设的多头注意力机制,将全局信息图和预设的查询规则进行融合,确定预测交互动作信息;将预测交互动作信息转换为三元检测框信息和交互动作类别。解决了现有技术无法对三元交互动作信息进行完整的描述,不仅降低了预测出的该交互动作信息的区域范围的准确性,还降低了该交互动作信息对应的交互动作类别的准确性的问题。
-
公开(公告)号:CN117953590B
公开(公告)日:2024-07-05
申请号:CN202410354226.5
申请日:2024-03-27
Applicant: 武汉工程大学 , 湖北文理学院 , 中国电力科学研究院有限公司
IPC: G06V40/20 , G06V10/22 , G06V10/764 , G06V10/80 , G06V10/77 , G06V10/82 , G06N3/0455 , G06N3/082
Abstract: 本发明涉及一种三元交互动作检测方法、系统、设备及介质,方法包括:获取待测三元关系交互动作图像;确定待测三元关系交互动作图像的降维特征图;为降维特征图上每个预设区域添加位置信息,确定全局信息图;利用预设的多头注意力机制,将全局信息图和预设的查询规则进行融合,确定预测交互动作信息;将预测交互动作信息转换为三元检测框信息和交互动作类别。解决了现有技术无法对三元交互动作信息进行完整的描述,不仅降低了预测出的该交互动作信息的区域范围的准确性,还降低了该交互动作信息对应的交互动作类别的准确性的问题。
-
公开(公告)号:CN118521518A
公开(公告)日:2024-08-20
申请号:CN202410583424.9
申请日:2024-05-11
Applicant: 武汉工程大学 , 湖北文理学院 , 武汉市烽视威科技有限公司 , 武汉烽火技术服务有限公司
Abstract: 本发明涉及一种基于空域增强的上采样方法、系统及计算设备。方法包括:实时获取机房巡检机器人的至少一帧巡检特征图;提高所述巡检特征图的通道数至第一预设倍数以获得通道特征图,并对所述通道特征图进行通道特征重组和卷积处理,获得第一待融合特征图;对所述巡检特征图上采样第二预设倍数以获得上采样特征图,并对所述上采样特征图进行维度调序、池化和拼接操作,获得第二待融合特征图;将所述第一待融合特征图和所述第二待融合特征图进行融合,获得目标特征图。该方法能够提高目标特征图中空域信息表达的能力,以使上采样后所获得的目标特征图中所丢失的信息较少,从而提高机房巡检机器人的巡检精度。
-
公开(公告)号:CN117953589B
公开(公告)日:2024-07-05
申请号:CN202410354224.6
申请日:2024-03-27
IPC: G06V40/20 , G06V10/22 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/082 , G06N3/096
Abstract: 本发明涉及一种交互动作检测方法、系统、设备及介质,方法包括:获取待测三元交互动作图像;对待测三元交互动作图像进行特征提取,获得至少一个第一人物框、至少一个第一工具框和至少一个第一物体框;若任意一个第一人物框、任意一个第一工具框和任意一个第一物体框三个框具有第一重合区域,则将每个第一重合区域对应的三个框组合而成的区域作为一个交互动作检测候选框;对每个交互动作检测候选框进行识别,确定每个交互动作检测候选框对应的交互动作类别。解决了目前的动作交互动作检测方法只能检测出当前图像场景中人与物体的交互动作,无法检测出人、工具与物体之间的三元交互动作的问题。
-
公开(公告)号:CN117953015A
公开(公告)日:2024-04-30
申请号:CN202410347796.1
申请日:2024-03-26
Applicant: 武汉工程大学 , 中国人民解放军海军工程大学 , 湖北文理学院
IPC: G06T7/246 , G06V40/10 , G06V20/40 , G06T3/4053
Abstract: 本发明公开了基于视频超分辨率多行人跟踪方法、系统、设备及介质,涉及超分辨率领域以及多目标跟踪领域技术领域,方法包括:获取检测区域的视频,对视频进行视频帧插值及超分辨率处理,对每一帧进行目标检测得到检测框,对重叠度满足条件的检测框进行融合;提取检测框的可见区域标签,根据可见区域标签计算当前帧的检测框和前一帧的检测框的特征距离,将特征距离经过匈牙利算法计算得到最终结果,将最终结果整合输出得到行人轨迹。本发明融合了不同视觉任务,能够实现多视觉任务的相互促进,提高了检测与跟踪的性能,解决了多行人跟踪在低质量成像场景下视频帧模糊难以处理、漏检和误检高概率等问题。
-
公开(公告)号:CN117953015B
公开(公告)日:2024-07-09
申请号:CN202410347796.1
申请日:2024-03-26
Applicant: 武汉工程大学 , 中国人民解放军海军工程大学 , 湖北文理学院
IPC: G06T7/246 , G06V40/10 , G06V20/40 , G06T3/4053
Abstract: 本发明公开了基于视频超分辨率多行人跟踪方法、系统、设备及介质,涉及超分辨率领域以及多目标跟踪领域技术领域,方法包括:获取检测区域的视频,对视频进行视频帧插值及超分辨率处理,对每一帧进行目标检测得到检测框,对重叠度满足条件的检测框进行融合;提取检测框的可见区域标签,根据可见区域标签计算当前帧的检测框和前一帧的检测框的特征距离,将特征距离经过匈牙利算法计算得到最终结果,将最终结果整合输出得到行人轨迹。本发明融合了不同视觉任务,能够实现多视觉任务的相互促进,提高了检测与跟踪的性能,解决了多行人跟踪在低质量成像场景下视频帧模糊难以处理、漏检和误检高概率等问题。
-
公开(公告)号:CN117953589A
公开(公告)日:2024-04-30
申请号:CN202410354224.6
申请日:2024-03-27
IPC: G06V40/20 , G06V10/22 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/082 , G06N3/096
Abstract: 本发明涉及一种交互动作检测方法、系统、设备及介质,方法包括:获取待测三元交互动作图像;对待测三元交互动作图像进行特征提取,获得至少一个第一人物框、至少一个第一工具框和至少一个第一物体框;若任意一个第一人物框、任意一个第一工具框和任意一个第一物体框三个框具有第一重合区域,则将每个第一重合区域对应的三个框组合而成的区域作为一个交互动作检测候选框;对每个交互动作检测候选框进行识别,确定每个交互动作检测候选框对应的交互动作类别。解决了目前的动作交互动作检测方法只能检测出当前图像场景中人与物体的交互动作,无法检测出人、工具与物体之间的三元交互动作的问题。
-
公开(公告)号:CN114648457B
公开(公告)日:2025-03-21
申请号:CN202210272822.X
申请日:2022-03-18
Applicant: 中铁大桥局集团有限公司 , 中铁大桥科学研究院有限公司 , 武汉工程大学
IPC: G06T5/92 , G06N3/0464 , G06N3/08 , G06T5/60
Abstract: 本发明提供一种图像增强方法、装置、设备及可读存储介质,图像增强方法包括:对每张低光照图像分别进行光照增强处理;以每张低光照图像和其对应的初步光照增强图像以及正常光照图像作为一个训练图像对;使用多个训练图像对交替训练增强生成器网络、降质生成器网络、增强判别器网络和降质判别器网络,得到训练好的增强生成器网络。通过本发明,将低光照图像进行初步光照增强,在增强生成器网络的基础上增加了降质生成器网络,将正常光照图像进行反向的降质学习训练,由于判别器和生成器之间的互斥,使得增强的图像和降质的图像都与对应的真实光照图像越来越相似,通过本发明,可以生成更高质量的正常光照图像。
-
公开(公告)号:CN115017511B
公开(公告)日:2025-01-10
申请号:CN202210469716.0
申请日:2022-04-28
Applicant: 武汉工程大学 , 武汉引行科技有限公司
IPC: G06F21/57 , G06F21/56 , G06F18/214 , G06F8/41 , G06N3/042 , G06N3/0464 , G06N3/0442 , G06N3/084
Abstract: 本发明提供一种源代码漏洞检测方法、装置以及存储介质,属于代码检测技术领域,方法包括:S1:分别对各个原始源代码数据的数据预处理得到预处理后源代码数据;S2:按照预设比例对多个预处理后源代码数据的划分得到训练集,验证集和测试集;S3:对训练集的代码图编码得到多个代码图数据;S4:根据多个代码图数据、验证集和测试集对训练模型的模型分析得到检测模型;S5:通过检测模型对待检测源代码数据的检测分析得到检测结果。本发明实现了函数级的自动代码漏洞检测,能在源代码中快速、高效地完成代码漏洞检测任务,解决了代码静态分析工具进行漏洞检测上存在的误报率高、漏报率高的技术问题。
-
公开(公告)号:CN118333896B
公开(公告)日:2024-12-31
申请号:CN202410272717.5
申请日:2024-03-11
Applicant: 武汉工程大学
Abstract: 本发明公开了一种误差分解网络的全色锐化方法、系统、设备及介质,涉及遥感图像处理技术领域,方法包括:获取目标区域的全色影像和初始分辨率多光谱影像,对初始分辨率多光谱影像进行下采样操作得到低空间分辨率多光谱影像;根据全色锐化的光谱响应理论和全色影像的预设误差项构建分解网络模型,将全色影像输入到分解网络模型中,得到分解后的伪多光谱影像;将低空间分辨率多光谱影像进行上采样操作得到的多光谱影像和伪多光谱影像输入到融合网络模型中,得到最终融合遥感影像。本发明能够避免全色锐化技术存在的光谱响应不重叠现象,全色影像中存在着误差信息对融合遥感影像的干扰等问题。
-
-
-
-
-
-
-
-
-