-
公开(公告)号:CN109544514B
公开(公告)日:2020-07-24
申请号:CN201811307821.4
申请日:2018-11-05
申请人: 华侨大学 , 厦门吉信德集团有限公司
摘要: 本发明提供了一种融合表观特征的锯材身份辨识方法、装置及设备,方法包括:提取所有木材的表观特征,并将每个木材的木材ID以及对应的表观特征存入数据库;其中,所述表观特征包括每个木材的颜色直方图以及每个木材在多个表面上的缺陷位置;获取在传送带上传送的待识别木材的木材图像;根据所述木材图像获取待识别木材的表观特征;将所述待识别木材的在多个表面上的缺陷位置以及所述数据库中的木材在多个表面上的缺陷位置进行匹配,获取与所述待识别木材对应的木材ID集合;基于本发明可以有效的解决了木材的准确快速识别问题,促进森工生产线的柔性化、定制化加工。
-
公开(公告)号:CN118656797A
公开(公告)日:2024-09-17
申请号:CN202411146635.2
申请日:2024-08-21
申请人: 华侨大学
摘要: 本发明提供了用于动态流标签的偏标签特征选择方法、装置、设备及介质,包括:根据样本的概率分布动态调整候选标签为真标签的置信度,以实现标记的动态消歧;分析新到达标签与已消歧标签之间的动态关系,评估其对特征质量的影响,定义特征增强项,量化上述影响,减轻噪声标签对特征评估的误差;在此基础上,设计了基于最大条件相关和最小条件冗余的特征评估准则,该准则同时权衡了特征相对于当前标签和消歧后标签的重要性;构建一种特征融合策略,将动态流标签对应的特征集合进行融合,以获得最终的一组高质量特征。旨在处理标签动态到达的情况,消除标签噪声,并通过最大条件相关和最小条件冗余策略评估特征质量,从而提高学习模型的分类性能。
-
公开(公告)号:CN111914947B
公开(公告)日:2024-04-16
申请号:CN202010841858.6
申请日:2020-08-20
申请人: 华侨大学
摘要: 本发明提供一种基于特征融和图像实例分割方法、装置、设备及存储介质,方法包括:获取待分割图像,将所述待分割图像通过去除BN层的ResNet卷积单元提取特征,获取特征图;将所述特征图与原始特征图输入到特征融合单元进行相加融合,将所述融合特征图输入到3×3的卷积单元,重新调整特征图,通过池化链从调整后特征图中提取背景上下文信息,融合多个不同感受野的特征图,获得池化后的特征图;将所述池化后的特征图输入到一个卷积单元,整合所述池化链的结果,获得整合后特征图;根据整合后特征图通过分类分割,获得实例分割结果。本发明通过自定义的特征融和模块进行处理,更高效的利用特征图信息,使最终处理的mask图信息更丰富,精确度更高。
-
公开(公告)号:CN117557972A
公开(公告)日:2024-02-13
申请号:CN202311393449.4
申请日:2023-10-25
申请人: 华侨大学
IPC分类号: G06V20/54 , G06V10/26 , G06V10/774 , G06V10/764 , G06V10/80 , G06V10/77 , G06V10/82 , G06N3/0464 , G06N3/09
摘要: 本发明提供了一种车辆重识别的方法、装置、设备及可读存储介质,先通过获取车辆图像,调用车辆重识别模型对所述车辆图像分割并采用滑动窗口进行处理,以生成为多个相同尺寸且包含重叠像素的图块,接着,将多个相同尺寸且包含重叠像素的所述图块处理成序列,并在所述序列之前添加可学习的分类标记后将位置信息和非视觉信息一起编码生成图像编码特征;再接着,将所述图像编码特征分别输入进全局特征分支和局部特征分支进行编码以生成全局特征和局部特征;最后,根据所述全局特征生成一组特征权重,所述局部特征基于所述特征权重生成聚合特征,融合所述全局特征和所述聚合特征生成融合特征,其中,车辆重识别模型能够基于所述融合特征与所述车辆图像关联的检索序列。解决了不同场景的同一车辆难以区分的问题。
-
公开(公告)号:CN112733796B
公开(公告)日:2023-12-05
申请号:CN202110089858.X
申请日:2021-01-22
申请人: 华侨大学
IPC分类号: G06V40/20 , G06V20/40 , G06V10/44 , G06V10/766 , G06V10/774 , G06V10/80 , G06V10/82
摘要: 本发明实施例提供一种体育运动质量的评估方法、装置、设备,存储介质,涉及行为识别技术领域。其中,这种评估方法包括如下步骤:S101、获取包含特定体育运动的运动过程的视频,并根据体育运动的类型将视频分割成多个视频阶段。S102、将多个视频阶段输入至骨干网络模型,获得与多个视频阶段对应的多个特征表示。S103、构建回归网络模型。其中,回归网络模型采用基于难度系数的总得分为训练标签的方法训练。S104、将多个特征表示输入至回归网络模型,获得视频中的运动过程的评分。骨干网络模型保证评分过程中的动作特征能够完整,且语义信息足够丰富。回归网络模型大大提高了动作质量评估方法的性能。
-
公开(公告)号:CN115497022A
公开(公告)日:2022-12-20
申请号:CN202211152789.3
申请日:2022-09-21
申请人: 华侨大学
摘要: 本发明实施例提供基于全局感知与提名关系挖掘的时序动作定位方法,涉及视频识别技术领域。其中,这种时序动作定位方法,其包含步骤S1至步骤S4。S1、获取待识别视频。S2、根据待识别视频,提取视觉特征。S3、将视觉特征输入预先训练好的时序提名生成网络模型,获取时序提名。S4、将时序提名输入预先训练好的时序提名分类网络模型,获取定位结果。定位结果包括动作类别和动作起止时间。时序提名生成网络模型通过图建模的方式动态捕获特征之间的关联性,实现动作边界与动作特征之间的信息交互,达到全局感知动作、背景、边界之间关系的目的。时序提名分类网络模型挖掘提名之间的潜在关系,实现更精准地定位与动作分类。
-
公开(公告)号:CN113642554A
公开(公告)日:2021-11-12
申请号:CN202110843568.X
申请日:2021-07-26
申请人: 华侨大学
摘要: 本发明提供了一种图像识别的网络构建方法、装置及设备,属于机器视觉领域,方法包括:获取待识别图像,对所述待识别图像的目标区域进行定位,以获取目标区域;对所述目标区域进行破坏,生成区域拼图;获取所述区域拼图的细节信息,结合网络损失函数建立所述待识别图像的网络模型。解决了因过度关注某一细节信息而忽略次要的显著判别性区域的问题。
-
公开(公告)号:CN113642420A
公开(公告)日:2021-11-12
申请号:CN202110843573.0
申请日:2021-07-26
申请人: 华侨大学
摘要: 本发明提供了一种唇语的识别方法、装置及设备,包括:获取视频数据,并对所述视频数据进行处理,以获得唇部图像序列;对所述图像序列进行双向时序的特征提取,生成所述唇部图像序列的表观特征;调用LSTM模型,对所述表观特征的变化进行镜头转换的边界检测并生成检测结果,根据所述检测结果初始化所述LSTM模型的隐含层和记忆层;提取所述隐含层的编码特征,并根据所述编码特征获取单词预测序列。减少现有的唇语识别算法的复杂度、时间复杂度的同时保持较高的准确率。
-
公开(公告)号:CN113609948A
公开(公告)日:2021-11-05
申请号:CN202110861491.9
申请日:2021-07-29
申请人: 华侨大学
摘要: 本发明提供了一种视频时序动作的检测方法、装置及设备,方法包括:获取视频数据,并提取所述视频数据的视频特征;将所述视频特征输入至锚分支网络以及无锚分支网络,以获取所述锚分支网络输出的第一输出结果,及所述无锚分支网络输出的第二输出结果,其中,所述锚分支网络以及所述无锚分支网络并行处理所述视频特征;调用对齐损失函数对所述第一输出结果及所述第二输出结果进行融合处理,生成时序动作定位结果集。解决了现有技术中对数据集的动作标注往往很模糊的问题。
-
公开(公告)号:CN111914803A
公开(公告)日:2020-11-10
申请号:CN202010827853.8
申请日:2020-08-17
申请人: 华侨大学
摘要: 本发明提供一种唇语关键词检测方法、装置、设备及存储介质,其中方法包括:通过DNN方法训练,得到一个二分类的DNN模型;基于所述DNN模型,判断待检测的唇语视频中的每帧唇部图片的讲话状态,分离出所述唇语视频的讲话片段和非讲话片段;提取所述讲话片段,并通过唇语识别模型提取查询样例和讲话片段的每一帧唇部图片的特征,作为后验概率特征;基于所述后验概率特征构建相似度矩阵图;通过卷积神经网络分类模型对所述相似度矩阵图进行二分类,判断唇语视频中是否存在关键词。本发明通过端点检测、唇语识别器提取特征和构建相似度矩阵图,可降低未讲话片段对唇语关键词检测性能的影响,提高关键词检测的性能。
-
-
-
-
-
-
-
-
-