一种表格图片文本智能检测方法及系统

    公开(公告)号:CN113837152B

    公开(公告)日:2022-04-15

    申请号:CN202111410772.9

    申请日:2021-11-25

    Abstract: 本发明公开了一种表格图片文本智能检测方法及系统,系统包含文本自动检测模块、位置变换矩阵模块和位置加权模块。方法包括:S1,检测目标表格图片当中所有可能的文本;S2,自动生成相对位置关系的变换矩阵;S3,通过位置加权,计算最终检测结果。本发明针对表格图片文本,采用深度学习训练的方式,通过将通用自动文本检测方法与表格文本之间相对位置相结合,不仅依赖于文本目标自身的位置,还依赖于文本间的相对位置关系,最终以位置变换矩阵的形式表示,还通过对目标检测结果进行加权来确认每个目标的具体位置,从而提高表格图片文本检测精度。

    基于混合高斯模型的脉搏波身份认证方法、装置和介质

    公开(公告)号:CN114098691A

    公开(公告)日:2022-03-01

    申请号:CN202210090684.3

    申请日:2022-01-26

    Abstract: 本发明涉及非接触式生理信号检测领域,尤其涉及一种基于混合高斯模型的脉搏波身份认证方法、装置和介质,该方法首先利用血氧仪获取到的用户手指脉搏波信号,将脉搏波信号输入到手工特征提取模块中提取时域和频域特征并分别将其处理为动态特征,将得到的时域和频域的动态特征分别输入到特征提取网络中提取频域和时域的深层次特征;进一步的,将上一步得到的两种深层次特征通过概率线性判别分析算法进行特征筛选;最后,将筛选后的特征利用混合高斯模型算法进行身份识别。本方法能够有效应用于基于脉搏波的生物识别系统中。

    一种受阅读策略启发的跨模态视频检索方法

    公开(公告)号:CN114003770A

    公开(公告)日:2022-02-01

    申请号:CN202111084182.1

    申请日:2021-09-15

    Abstract: 本发明涉及视频跨模态检索技术领域,尤其涉及一种受阅读策略启发的跨模态视频检索方法,对于视频编码,采用预览分支和精读分支共同学习来表示视频,预览分支旨在简要地捕捉视频的概述信息,而精读分支旨在获取更深入的信息,本发明将从预览分支生成的较早的视频特征集成到精读分支中,对精读分支的特征提取做进一步指导,使得精读分支可以感知预览分支捕获的视频概述,用于提取更细粒度的特征,将两个分支的得到特征分别与文本特征映射到两个不同的混合空间中,在混合空间中进行跨模态匹配,从而实现文本到视频的跨模态检索。本发明使用端到端的方式训练模型,并在性能和模型复杂度上达到了最佳平衡。

    一种基于高光谱人脸视频的远程脉搏波重建方法

    公开(公告)号:CN113827234A

    公开(公告)日:2021-12-24

    申请号:CN202111412880.X

    申请日:2021-11-25

    Abstract: 本发明属于非接触式生理信号检测领域,涉及一种基于高光谱人脸视频的远程脉搏波重建方法,首先利用高光谱相机录制人脸视频,将录制好的人脸视频输入到光谱通道选择网络中,经过处理得到降维之后的特征;进一步的,将上一步得到的降维之后的特征输入进特征提取网络,输出为一段特征向量,最终将特征向量输入到信号重建网络中,得到重建的脉搏波信号。本发明通过光谱通道选择网络对大量的高光谱数据进行降维,提高了之后的推理速度;其次,在特征提取网络中,通过在组合数据集上的预训练加速了模型的收敛,并且通过注意力机制提高了网络对重要特征的关注程度;最后,在信号重建网络中,利用多层LSTM提取到网络的时序特征并以此对信号进行重建。

    一种基于单目相机的头部三维坐标的摔倒检测方法

    公开(公告)号:CN113793380A

    公开(公告)日:2021-12-14

    申请号:CN202110995023.0

    申请日:2021-08-27

    Abstract: 本发明公开了一种基于单目相机的头部三维坐标的摔倒检测方法,首先估计单目视频中头部三维坐标,再根据头部三维坐标的变化检测人员是否摔倒。单目头部三维坐标估计通过相机标定获得相机内参矩阵,通过头部检测获得头部在图像中的矩形框,利用相机内参、头部矩形框和预设的头部基本几何参数构建头部三维坐标求解方程,求解在相机坐标系下的头部三维坐标。通过系统标定获得世界坐标系到相机坐标系的变换矩阵,经过坐标变换,得到在世界坐标系下的头部三维坐标。当头部坐标z分量小于一定阈值时判定人员为摔倒状态。本方法利用单个摄像头即可估计头部的三维坐标,并判断人员是否摔倒,硬件成本低,可广泛应用于智能监控等领域。

    一种基于视觉的弹孔检测方法及系统

    公开(公告)号:CN113763471A

    公开(公告)日:2021-12-07

    申请号:CN202110997123.7

    申请日:2021-08-27

    Abstract: 本发明公开了一种基于视觉的弹孔检测方法及系统,方法包括:S1,获取打靶弹孔图像数据集并进行弹孔标注;S2,构造一种卷积特征与纹理特征深度融合的超轻量化网络,并基于弹孔图像数据,进行模型训练得到检测模型;S3,基于训练得到的检测模型进行推理,获取单帧弹孔检测结果;S4,基于多帧检测结果,构建当前帧的弹孔积分图;S5,基于当前帧弹孔积分图与前一帧的弹孔积分图,进行匹配和帧差,获取当前帧的新增弹孔;系统包括:聚焦层、嵌套瓶颈层、卷积层,以及由单尺度目标回归子网络、纹理特征提取单元、特征融合与优选模块构成的特征融合与单尺度目标回归模块;本发明降低了资源消耗,且检测准确度、鲁棒性好。

    一种基于多任务解耦学习的半监督夜间图像分类方法

    公开(公告)号:CN113657561A

    公开(公告)日:2021-11-16

    申请号:CN202111220897.5

    申请日:2021-10-20

    Abstract: 本发明公开了一种基于多任务解耦学习的半监督夜间图像分类方法,将白天带标签的样本与夜间无标签的样本,一同输入特征提取网络,其中白天样本提取的特征向量输入分类网络头,采用交叉熵损失函数进行监督;夜间样本提取的特征向量,首先输入分类网络头获得伪标签,再根据伪标签构造正负样本对后输入自监督网络头,采用角度对比损失函数进行监督训练;完成模型多任务训练后,将夜间数据集中少量带标签的样本输入特征提取网络与分类网络头,进行迭代自蒸馏学习,最终实现夜间数据集可以有效分类的效果。

    一种融合分割信息的全局局部感知行人重识别方法

    公开(公告)号:CN113657355A

    公开(公告)日:2021-11-16

    申请号:CN202111220354.3

    申请日:2021-10-20

    Abstract: 本发明提供一种融合分割信息的全局局部感知行人重识别方法,包括训练阶段和测试阶段,在训练阶段,通过公开的分割模型获取行人训练集每个行人的分割掩码,将所述分割掩码输入到掩码松弛模块获得松弛掩码,将行人图像分块与所述松弛掩码分块融合后输入至Transformer网络模型,得到全局特征和分块局部特征后进行损失计算,调整网络模型参数,训练并保存最优网络模型;所述测试阶段,输入待检索行人和底库行人图像至分割模型获取分割掩码,将所述分割掩码输入到掩码松弛模块获得松弛掩码,将行人图像分块与所述松弛掩码分块融合后输入至训练好的网络模型,获得全局特征和分块局部特征并归一化处理,后通过计算待检索行人和底库行人的相似度来识别行人。

Patent Agency Ranking