一种利用光照均衡法改善人脸视频心率检测的方法

    公开(公告)号:CN112507930B

    公开(公告)日:2023-06-20

    申请号:CN202011489672.5

    申请日:2020-12-16

    Abstract: 本发明涉及一种利用光照均衡法改善人脸视频心率检测的方法,包括以下步骤:S1、利用可见光的摄像头获取人脸视频图像;S2、利用多任务卷积神经网络完成人脸的检测及定位;S3、选取人脸视频感兴趣区域;S4、利用快速引导滤波算法提取场景光照分量,构造改进的二维伽马函数,均衡人脸视频图像的光照分量;S5、利用FastICA算法,从混合信号中分离出独立源信号;S6、利用独立源信号做快速傅里叶变换,并计算心率值。本发明通过快速引导滤波算法提取光照分量,利用改进的二维伽马函数的自适应校正光照不均的光均衡法,改善人脸图像过亮与过暗区域的亮度,减少心率测量值的平均误差和标准差,提高测量精度。

    一种基于密钥生成器的多级接口设计方法

    公开(公告)号:CN112507357A

    公开(公告)日:2021-03-16

    申请号:CN202011433473.2

    申请日:2020-12-09

    Abstract: 本发明公开了一种基于密钥生成器的多级接口设计方法,包括以下步骤:S1、使用非线性逻辑函数构成多密钥生成器,每个密钥输出排序作为私钥对应一个序列号;S2、访问端在服务器注册账号密码通过公钥对称加密生成认证密文;S3、访问端每次访问前先从后台随机字符串,将随机字符串通过MD5算法散列得到私钥序列号,将请求参数根据对应的私钥加密得到请求密文;S4、访问端将认证密文和请求密文传送到后台一级接口url,一级接口对认证密文解密,认证成功后再将请求密文解密通过Bloom过滤器定位到二级接口url上。

    一种基于视频图像心率检测及活体检测的人脸识别系统

    公开(公告)号:CN112396011B

    公开(公告)日:2023-07-18

    申请号:CN202011335221.6

    申请日:2020-11-24

    Abstract: 本发明公开了一种基于视频图像心率检测及活体检测的人脸识别系统,该系统主要包括图像采集及预处理模块、人脸认证主机、后端数据服务器及身份信息与热成像图显示模块;本发明通过红外热成像摄像头和可见光摄像头分别获取人脸视频图像和人脸热成像,计算热成像图片中人脸温度平均值和根据光电容积脉搏波原理从人脸视频图像所检测出的心率值作为判断是否为活体的依据,将采集的人脸特征数据与后端数据服务器中人脸图像数据比对得出人脸识别结果;通过显示模块显示识别结果,并且能够实时显示当前人脸温度和心率值。本发明的心率检测进一步的减少了红外热像活体检测出现的误判现象,提高了人脸识别的安全系数和可靠性。

    一种基于移动端边缘计算的人脸识别检测方法及系统

    公开(公告)号:CN111241975B

    公开(公告)日:2023-03-31

    申请号:CN202010012499.3

    申请日:2020-01-07

    Abstract: 本发明公开了一种基于移动端边缘计算的人脸识别检测方法及系统,该方法的步骤包括:提取移动端监控设备拍摄视频中的图片;采用NCNN框架对图片的尺寸进行整合得到图片金字塔,通过神经网络输出两个特征谱进行前后景分类和边界框回归标识人脸框;采用MTCNN网络模型提取第一人脸信息特征向量;将第一人脸信息特征向量添加标签后保存为匹对数据;后端监控设备采集实时图片并提取图片的第二人脸信息特征向量,计算第一人脸信息特征向量和第二人脸信息特征向量的欧几里得距离,欧几里得距离与设定距离阈值对比,识别出实时图片中的人脸信息以及对应的标签。本发明能够筛选有效人脸,为后端减少了计算压力,从而保证高识别成功率的前提下有较快的识别速度。

    基于深度可分离卷积的人脸活体识别模型压缩和移植方法

    公开(公告)号:CN112861602A

    公开(公告)日:2021-05-28

    申请号:CN202011435882.6

    申请日:2020-12-10

    Abstract: 本发明涉及一种基于深度可分离卷积的人脸活体识别模型压缩和移植方法,包括如下步骤:S1、通过数据增强的方式获得一个训练数据集;S2、利用改进的卷积神经网络对图像进行训练,并保存训练后得到的卷积神经网络模型;S3、基于深度可分离卷积对模型进行压缩,削减模型大小,使得模型参数削减为原始模型的20%左右,使得其尺寸更适合于移动端。S4、通过对模型权重进行半精度Float16量化进一步地压缩模型,加快模型推理速度,使得模型大小压缩为S3步骤的50%,移动端识别速度缩短为400ms,完成模型在移动端软件的移植。本发明基于深度可分离卷积对模型进行压缩且Float16半精度量化。

    一种基于深度学习的动态场景异物入侵检测方法

    公开(公告)号:CN112766137A

    公开(公告)日:2021-05-07

    申请号:CN202110049881.6

    申请日:2021-01-14

    Abstract: 本发明公开了一种基于深度学习的动态场景异物入侵检测方法,该方法包括先利用监控设备采集所监控场景的RGB图像帧;然后利用训练好的目标分割模型对图像中的目标区域进行分割,获取目标区域二值化掩膜结果;利用训练好的目标检测模型对图像中的异物目标进行检测,获取异物目标的类别和位置信息;再计算出异物目标的位置边界框内目标区域像素占比P,并据此判断异物目标的入侵状态;根据异物目标的类别信息,判定异物目标的入侵等级;最后根据异物目标的入侵状态和等级,发出对应的安全预警。本发明只需单帧图像就可以完成异物入侵检测,同时获取异物目标的入侵状态和入侵等级,为动态场景下各活动的安全预告预警提供准确可靠的依据。

    一种结合人像行为信息的双目投影人机交互方法

    公开(公告)号:CN112657176A

    公开(公告)日:2021-04-16

    申请号:CN202011642041.2

    申请日:2020-12-31

    Abstract: 本发明公开了一种结合人像行为信息的双目投影人机交互方法,该方法包括:对摄像头捕获区域进行边缘检测;对边缘检测后的图像进行直线检测;通过单应性变换矩阵求解视角变换下的映射关系;利用YOLOv3目标检测算法对交互对象进行识别,获取从投影区域坐标映射到Unity3D开发场景中的游戏坐标;通过双目摄像头测距获得交互对象的深度信息;通过Kinect摄像头获得交互者的骨骼关键点位置,再在Uinty3D软件中虚拟化人物对象以及相应的交互动作;本发明能够利用深度学习的方法进行人机交互,同时结合双目摄像头测得的交互对象深度信息,以及交互者的人像行为信息,可以很大程度地提高投影人机交互系统的交互性。

    一种批量口罩人脸样本自动生成以及口罩人脸识别方法

    公开(公告)号:CN112507963A

    公开(公告)日:2021-03-16

    申请号:CN202011530655.1

    申请日:2020-12-22

    Abstract: 本发明涉及一种批量口罩人脸样本自动生成以及口罩人脸识别方法,包括以下步骤:S1、定位人脸库中的无佩戴口罩人脸的关键点;S2、分别找到无口罩人脸的下巴以及鼻梁定位点;S3、将口罩图片与人脸的下巴以及鼻梁定位点进行对齐,自动生成口罩人脸图片,并将图片入库;S4、识别人脸时,通过检查关键点是否被遮挡来判断是否戴口罩;S5、根据步骤S4的判断,选取相似度高于阈值且相似度最高的人脸所对应的人员,完成人脸识别。本发明通过人脸关键点定位找出口罩区域并自动生成口罩人脸图片入库,通过与口罩人脸进行比对,不需要单独拍摄戴口罩人脸图片入库,也可以实现对戴口罩的人脸识别的目的。

    一种批量口罩人脸样本自动生成以及口罩人脸识别方法

    公开(公告)号:CN112507963B

    公开(公告)日:2023-08-25

    申请号:CN202011530655.1

    申请日:2020-12-22

    Abstract: 本发明涉及一种批量口罩人脸样本自动生成以及口罩人脸识别方法,包括以下步骤:S1、定位人脸库中的无佩戴口罩人脸的关键点;S2、分别找到无口罩人脸的下巴以及鼻梁定位点;S3、将口罩图片与人脸的下巴以及鼻梁定位点进行对齐,自动生成口罩人脸图片,并将图片入库;S4、识别人脸时,通过检查关键点是否被遮挡来判断是否戴口罩;S5、根据步骤S4的判断,选取相似度高于阈值且相似度最高的人脸所对应的人员,完成人脸识别。本发明通过人脸关键点定位找出口罩区域并自动生成口罩人脸图片入库,通过与口罩人脸进行比对,不需要单独拍摄戴口罩人脸图片入库,也可以实现对戴口罩的人脸识别的目的。

    一种远程多目标的高效检测和识别方法

    公开(公告)号:CN112784709B

    公开(公告)日:2023-06-20

    申请号:CN202110014959.0

    申请日:2021-01-06

    Abstract: 本发明公开了一种远程多目标的高效检测及识别方法,包括下列步骤:S1、终端通过限流算法将视频流处理成图片集S2、对图片集原始图片归一化成固定大小的样本图像;S3、将样本图像的像素点作为节点,用所有节点的邻接矩阵表示无向图的状态;S4、获取每个节点的s纬特征向量;S5、预先构建完备向量化的标签字典,将输出的特征矩阵通过字典得到标签的预测值;S6、终端将标签的预测值通过阈值筛选;S7、服务器根据标签结果生成对应哈希码,通过哈希码进入不同的目标识别模型通道;S8、服务器预先将所有的已知目标识别后存储成特征向量库,有效图片进入对应模型通道后解析成特征向量,和特征向量库比对后得到结果,反馈到终端。

Patent Agency Ranking