-
公开(公告)号:CN118196394A
公开(公告)日:2024-06-14
申请号:CN202410466152.4
申请日:2024-04-18
申请人: 天津理工大学
IPC分类号: G06V10/25 , G06V10/44 , G06V10/80 , G06V10/764 , G06V10/766 , G06V10/82 , G06V20/05 , G06N3/0464 , G06N3/084 , G06N3/048
摘要: 本发明公开了一种自适应特征融合与递进金字塔池化的水下目标检测方法,其步骤包括:利用YOLOV7骨干网络对其进行特征提取;将输出特征输入到空间金字塔池化F‑SPPCSP模块进行互相关操作;将输出特征输入到特征融合区域,最终将特征输出到基于自适应空间特征融合检测头。本发明的YOLOv7方法专为水下目标检测而设计,解决了传统方法在应对水下特有挑战时的不足。在本方法中,目标存在的可能性通过目标置信度损失计算,而物体的类别则通过类别置信度损失确定,同时,预测框与实际框之间的偏差通过坐标回归损失评估。这三种损失函数共同作用,综合决定了最终的预测结果,从而在水下环境中提高了目标检测的准确性和可靠性。实现了对水下目标的检测。
-
公开(公告)号:CN115497165A
公开(公告)日:2022-12-20
申请号:CN202211171503.6
申请日:2022-09-26
申请人: 天津理工大学
IPC分类号: G06V40/20 , G06V20/40 , G06V10/40 , G06V10/80 , G06V10/82 , G06V10/764 , G06V10/766 , G06N3/04
摘要: 本发明属于计算机视觉和模式识别技术领域,具体地说,涉及基于锚自由和关键段激活的视频动作检测方法、装置、设备和计算机可读存储介质。基于锚自由和关键段激活的视频动作检测方法包括:视频特征提取;搭建基于锚自由和关键段激活的视频动作检测网络模型;构建基于锚自由和关键段激活的视频动作检测的损失函数;基于锚自由和关键段激活的视频动作检测模型。本发明对长视频的动作进行定位并进行动作识别,创新性地提出基于关键段激活的视频动作检测网络模型,完成在有监督的情况下对长视频中动作的定位和分类,解决了传统时序动作检测方法在长视频中边界定位模糊,动作分类不准确的问题,提升了动作定位和识别效果。本发明尤适用于公共安全领域。
-
公开(公告)号:CN114202769A
公开(公告)日:2022-03-18
申请号:CN202111295907.1
申请日:2021-11-03
申请人: 天津理工大学
摘要: 一种基于图像曲线化调整和颜色重分布的数据增强算法,通过利用三角函数调整图像的姿势、利用改进的漫水填充算法调整行人的颜色信息,并将新生成的图片数据应用到深度学习网络的训练过程中,通过分别扩增图片的姿势和外观信息,以达到对数据集样本充分增广的效果,从而使深度学习模型获取更多的数据特征进行训练,以得到更高的行人重识别准确率;本方法基于传统算法和数学三角函数,实现容易,而且效果提升显著,便于作为一个数据预处理模块嵌入到其它深度学习网络中。
-
公开(公告)号:CN111797814A
公开(公告)日:2020-10-20
申请号:CN202010708119.X
申请日:2020-07-21
申请人: 天津理工大学
摘要: 本发明公开了一种基于通道融合和分类器对抗的无监督跨域动作识别方法(CAFCCN),实现了基于源域有标签数据集和目标域无标签训练集对目标域测试集的高效动作识别。方法的具体步骤如下:(1)动作识别模型的选择;(2)双流深度网络结构的优化;(3)基于双流网络的目标函数构建;(4)基于双流网络的无监督跨域动作识别模型搭建;(5)数据集的构建。本发明的优点是基于已知数据集可对其他训练集无标签的数据集进行高效的动作识别,能够有效地解决目标数据集训练集数据无标签的问题。应用对抗的方法,能够同时实现类别和域的混淆,获得域级别和类级别的不变特征,并且方法收敛速度快,可以实现动作的高效识别。
-
公开(公告)号:CN114067359B
公开(公告)日:2024-05-07
申请号:CN202111294660.1
申请日:2021-11-03
申请人: 天津理工大学
IPC分类号: G06V40/10 , G06V40/20 , G06V10/25 , G06V10/764 , G06V10/774
摘要: 一种融合人体关键点与可见部位注意力特征的行人检测方法,通过引入人体关键点注意力机制和可见部位注意力机制来对严重遮挡的行人特征进行优化,在抑制遮挡物的特征信息的同时使更多的特征信息聚集在行人上,减少遮挡物对模型的干扰,使得模型能够较好地检测处于严重遮挡状态的行人目标,同时为了提升检测框的质量,本方法通过衰减低质量样本的置信度来提升检测的精准度。基于本方法的行人检测在Citypersons数据集上的漏检率为40.59%,相比其他方法有更低的漏检率,对于严重遮挡的行人检测任务具有一定的实用价值。
-
公开(公告)号:CN116563749A
公开(公告)日:2023-08-08
申请号:CN202310412098.0
申请日:2023-04-18
申请人: 山东省人工智能研究院 , 天津理工大学
摘要: 本发明提供了一种基于时空信息和视频上下文信息挖掘的视频动作检测方法,属于计算机视觉和模式识别技术领域,准确地实现了对视频中动作实例的定位和分类;该发明方法的具体步骤如下:(1)视频特征提取;(2)基于时空信息和视频上下文信息挖掘的视频动作检测方法的网络模型搭建;(3)基于时空信息和视频上下文信息挖掘的视频动作检测方法的目标函数构建;(4)基于时空信息和视频上下文信息挖掘的视频动作检测方法;本发明基于已知数据集对视频中的动作实例进行高效定位和分类,并且方法收敛速度快。
-
公开(公告)号:CN116129473B
公开(公告)日:2023-07-14
申请号:CN202310401773.X
申请日:2023-04-17
申请人: 山东省人工智能研究院 , 天津理工大学
IPC分类号: G06V40/10 , G06V10/74 , G06V10/82 , G06N3/08 , G06N3/0464
摘要: 本发明属于计算机视觉技术领域,提供了一种基于身份引导的联合学习换衣行人重识别方法及系统。本发明方法包括以下步骤:获取待检索的行人图像;将所述待检索的行人图像输入预训练的换衣行人重识别模型,提取与衣服不相关的身份鲁棒特征作为检索特征;所述换衣行人重识别模型通过衣服注意力退化网络指导模型自适应地削弱衣服信息带来的干扰,利用人体语义注意力与拼图模块突出人体语义信息,使用行人身份增强模块引导模型提取更有利的身份鲁棒表征;将所述检索特征与检索库中的行人图像特征进行相似度匹配。本发明测试成本更低,效率更高效,可以高效的应对换衣场景。
-
公开(公告)号:CN110458038A
公开(公告)日:2019-11-15
申请号:CN201910653579.4
申请日:2019-07-19
申请人: 天津理工大学
摘要: 本发明公开了一种基于双链深度双流网络的小数据跨域动作识别方法,实现了基于源域数据集对其他小规模数据集的高效动作识别;同时,提出了一个用在跨域动作识别任务上的数据集CDSAR;方法的具体步骤如下:(1)视频预处理;(2)基于双链深度双流网络模型搭建;(3)基于双链深度双流网络的目标函数构建;(4)基于双链深度双流网络的小数据跨域动作识别方法;本发明基于已知数据集可对其他仅有少量样本的数据集进行高效的动作识别,能够有效地解决目标数据集数据量少以及不同数据集之间数据分布不一致的问题,并且方法收敛速度快。
-
公开(公告)号:CN104463242A
公开(公告)日:2015-03-25
申请号:CN201410632838.2
申请日:2014-11-12
申请人: 天津理工大学
IPC分类号: G06K9/66
CPC分类号: G06K9/00315
摘要: 本发明公开了一种基于特征变换和词典学习的多特征动作识别方法,实现了对基于多特征动作识别的不同特征内在关系的挖掘。具体包含以下步骤:(1)视频预处理,(2)不同特征提取,(3)码书构建和基于“词袋”方法的特征归一化,(4)基于特征变换和词典学习的模型构建,(5)基于多特征重建和特征变换的动作识别模型构建,(6)基于稀疏表征的动作识别。本发明的优点是通过对特征变换和词典同时进行学习,充分挖掘不同特征的内在关联特性,实现人体动作的高效识别。
-
公开(公告)号:CN118154906B
公开(公告)日:2024-08-30
申请号:CN202410564619.9
申请日:2024-05-09
申请人: 齐鲁工业大学(山东省科学院) , 山东省人工智能研究院 , 天津理工大学 , 山东中联视听信息科技股份有限公司
IPC分类号: G06V10/74 , G06V10/32 , G06V10/80 , G06V10/44 , G06N3/0455 , G06N3/0464
摘要: 本发明涉及图像处理技术领域,尤其涉及一种基于特征相似性和多尺度边缘注意力的图像篡改检测方法,包括以下步骤:处理待输入图像,获取待检测图像的多源信息,将多源信息输入骨干网络提取特征;多尺度边缘注意力网络;特征相似性学习;多级特征融合编码;多损失函数联合监督。本发明利用多尺度边缘特征辅助篡改区域的定位,通过特征相似性探索不同篡改类型的一般特征,并通过对不同尺度上的特征进行有效的融合,充分挖掘篡改区域和真实区域的差异。
-
-
-
-
-
-
-
-
-