一种基于预训练生成模型的人脸超分辨方法

    公开(公告)号:CN113379606A

    公开(公告)日:2021-09-10

    申请号:CN202110934749.3

    申请日:2021-08-16

    Abstract: 本发明属于计算机视觉、图像处理领域,涉及一种基于预训练生成模型的人脸超分辨方法,包括:步骤一、采集并将低分辨率图像输入至特征提取模块,提取特征信息;步骤二、将特征信息输入至编码器,得到通道数为输入尺寸8倍的隐式矩阵,隐式矩阵通过分离模块特征分解后获得隐式向量,与人脸标签数据通过级联方式,分别输入至预训练生成模型中,得到生成特征;步骤三、将生成特征传递给解码器,并融合特征提取模块提取的特征信息,经解码操作后输出目标高分辨率图像。本发明可以将低分辨率的人脸进行高倍率的放大,最高可以获得64倍的超分结果,并且超分辨结果保持较好的保真性,使放大的图像在保真度和纹理真实度方面有更好的改进。

    一种基于单目视觉的焊接安全距离测量方法

    公开(公告)号:CN112802129A

    公开(公告)日:2021-05-14

    申请号:CN202110392460.3

    申请日:2021-04-13

    Abstract: 本发明公开了一种基于单目视觉的焊接安全距离测量方法,属于焊接安全领域。该方法具体为利用放置标志物的图像坐标及世界坐标,计算地面和映射平面高度的单应矩阵;并将图像数据集输入改进的Faster RCNN+FPN目标检测模型,输出目标检测结果;最后通过地面单应矩阵、映射平面高度单应矩阵和目标物检测结果,并针对实际焊接场景,获得一种明火高度测量方法,实现目标物间距离测量。本发明的焊接安全距离测量方法能有效检测易燃气瓶是否倾倒及测量目标物间距离,并在目标物间距离小于阈值时发出预警,减少人工监督成本和存在的安全隐患。

    一种吊装物体单阶检测方法、装置、电子设备及存储介质

    公开(公告)号:CN112215308B

    公开(公告)日:2021-03-30

    申请号:CN202011456486.1

    申请日:2020-12-13

    Abstract: 本发明公开了一种吊装物体单阶检测方法、装置、电子设备及存储介质,该方法包括:获取吊装物体图像,作为训练集;对训练集进行特征提取,获得目标坐标及旋转角度;使用基于深度卷积神经网络的检测模型作为吊装物体检测的基线网络架构,并按旋转框方式修改检测模型;使用所述训练集、目标坐标及旋转角度对修改后的检测模型进行训练,获得训练好的检测模型;使用训练好的检测模型对待检测的图像进行检测,获得图像中带旋转角度的吊装物体的检测结果。本发明实现方法简单,可移植性强,能够实现对监控摄像头拍摄的厂区、工地等作业场所中吊装物体的精准检测。

    一种基于多尺度卷积和感受野特征融合的人脸超分辨系统

    公开(公告)号:CN112507997A

    公开(公告)日:2021-03-16

    申请号:CN202110170037.9

    申请日:2021-02-08

    Abstract: 本发明公开了一种基于多尺度卷积和感受野特征融合的人脸超分辨系统,该系统包括依次连接的粗超分辨率模块、粗上采样模块、第一多尺度卷积模块、高低频增强模块、精超分辨率模块、精上采样模块、第三度尺度卷积模块、图像增强模块和对抗网络;人脸关键点提取网络和高低频增强模块分别与融合模块连接,所述融合模块、粗超分辨率模块分别与精超分辨率模块连接。该系统适用于人脸的增强,尤其是小分辨率的人脸,通过高低频特征交互增强和人脸先验知识的利用,具有放大倍数高,高频细节还原度高的特点;采用感受野模块有助于提取细节特征并降低计算复杂度。

    一种智能视频打靶实时检测方法

    公开(公告)号:CN112507827A

    公开(公告)日:2021-03-16

    申请号:CN202011370049.8

    申请日:2020-11-30

    Abstract: 本发明公开了一种智能视频打靶实时检测方法,包括如下步骤:获取射击打靶图像;将打靶图像转换为灰度图;采用高斯滤波对灰度图像进行预处理,减少图像中的噪声干扰;初始化获得有效第一帧图像为基准帧;计算当前帧与基准帧的帧差,对帧差图进行图像二值化,并采用中值滤波对二值化图像去噪;找出二值化图像中所有目标的轮廓,获得目标候选框;在进行弹孔检测;发现新的弹孔或者连续一组帧后未更新基准帧时,对基准帧进行更新;最后,通过统计每个弹孔在各靶环中的个数进行环值判定,获取射击打靶检测结果。本发明实现方法简单,可移植性强,速度快,能够实现对监控摄像头拍摄的打靶成绩的精准实时检测。

    基于量子测量的正实值概率幅度的快速测量估计方法

    公开(公告)号:CN112257022A

    公开(公告)日:2021-01-22

    申请号:CN202011488325.0

    申请日:2020-12-16

    Abstract: 本发明公开了一种正实值概率幅度的快速测量估计方法,包括如下步骤:S1,给定任意角度,建立旋转算子门;S2,对待测量量子态进行张量积运算;S3,对上述结果进行交叉酉操作,获得待测量量子态概率幅度角和给定角度的差值概率幅度;S4,对差值概率幅度进行投影测量,并判断测量结果正负号,如果测量结果为零,则得到了要估计的结果,停止操作,给定角度即是待测量量子态对应概率幅度的角度;否则,根据正负号更新给定角度,如果结果是正值,则把估计值用二分法更新减少,如果结果是负值,则把估计值用二分法更新增加,重复步骤S1至S4预设的次数或重复直到测量结果为零后,停止操作。

    一种基于特征检索的工服穿戴识别方法及系统

    公开(公告)号:CN111860471A

    公开(公告)日:2020-10-30

    申请号:CN202010993035.5

    申请日:2020-09-21

    Abstract: 本发明公开了一种基于特征检索的工服穿戴识别方法及系统,该方法包括特征检索库构建、行人检测、工服特征提取、工服检索识别四个步骤。人工选取不同类别工服中具有代表性的图像集,通过分类网络提取工服特征,构建特征检索库;将待测图像输入行人检测网络得到行人区域,裁剪图像中行人所在区域输入分类网络提取工服特征;将工服特征作为检索对象输入特征检索库,计算该对象与库中各特征的距离,最终输出该对象是否穿戴工服以及所穿工服的类别。本发明可通过简单的重建特征检索库实现对工服类别的灵活增减,有效避免重新训练模型的巨大成本,可用于工厂车间工服穿戴识别及警报系统。

    一种基于视觉的旋转设备作业手套佩戴检测方法及系统

    公开(公告)号:CN111507317B

    公开(公告)日:2020-10-23

    申请号:CN202010613767.7

    申请日:2020-06-30

    Abstract: 本发明公开了一种基于视觉的旋转设备作业手套佩戴检测方法及系统,包括:获取生产车间中实时生成的监控视频图像,在监控视频图像中绘制凸多边形规则框,使得整个旋转设备落于规则框内;基于人体目标检测神经网络模型对监控视频图像进行人体目标检测,获得目标人体;基于人体骨骼关键点检测神经网络模型对目标人体进行人体关键点检测,获得处于规则框内的目标人体的双手关键点;对双手关键点进行区域分割,得到感兴趣区域,并对感兴趣区域进行初始分类;对初始分类后的感兴趣区域进行跟踪,并通过联合投票算法得到感兴趣区域的最终分类结果。本发明可以降低漏检,提高手套检测及分类的准确率,并通过多线程流水线处理模式降低整个处理过程的耗时。

    一种基于单模型预测的安全帽佩戴检测方法及装置

    公开(公告)号:CN111723786A

    公开(公告)日:2020-09-29

    申请号:CN202010851025.8

    申请日:2020-08-21

    Abstract: 本发明公开了一种基于单模型预测的安全帽佩戴检测方法及装置,该方法包括将原始图像输入到一个深度卷积神经网络中,在深度卷积神经网络的不同层中提取出原始图像的表观特征,并采用特征金字塔网络在表观特征上获取不同尺度的特征图;将不同尺度的特征图分别输入到坐标回归网络和行人识别网络中,分别输出在原始图像中检测到的行人目标的位置和识别的置信度,通过非极大值抑制方法找到最佳的目标边界框,并消除冗余的边界框;将不同尺度的特征图输入到基于注意力机制的安全帽佩戴分类网络中,最终得到行人目标是否佩戴安全帽的检测结果。通过单个模型来对监控摄像头拍摄的厂区、工地等作业场所中工作人员是否佩戴安全帽的精准识别。

Patent Agency Ranking