-
公开(公告)号:CN113569594A
公开(公告)日:2021-10-29
申请号:CN202010350817.7
申请日:2020-04-28
申请人: 初速度(苏州)科技有限公司
IPC分类号: G06K9/00
摘要: 本发明实施例公开一种人脸关键点的标注方法及装置,该方法包括:获得多个图像采集设备在相同采集周期内采集的人脸图像;从每一人脸图像中,检测出目标人脸中各人脸关键点对应的图像位置信息;基于每一人脸图像中目标人脸中人脸关键点对应的图像位置信息以及预设关键点标注规则,确定每一人脸图像中目标人脸的各人脸关键点的标注位置信息,其中,预设关键点标注规则包括:基于目标人脸图像中人脸关键点对应的图像位置信息进行标注的规则,和/或基于每一人脸图像中遍历所得的满足指定位置条件的人脸关键点对应的图像位置信息进行标注的规则,目标人脸图像为:人脸图像中满足指定筛选规则的人脸图像,以实现提高人脸关键点的位置识别结果的准确性。
-
公开(公告)号:CN112084820A
公开(公告)日:2020-12-15
申请号:CN201910513685.2
申请日:2019-06-14
申请人: 初速度(苏州)科技有限公司
IPC分类号: G06K9/00
摘要: 本发明实施例公开一种基于头部信息的人员状态检测方法及装置,该方法包括:从包含目标人员的面部的人脸图像中,检测出面部中的人脸特征点的二维位置信息,人脸特征点包括:面部中上下眼睑的眼睑特征点;基于人脸特征点的二维位置信息以及预设的三维人脸模型,构建目标人员对应的目标三维人脸模型,目标三维人脸模型包括:基于眼睑特征点构建的人眼的上下眼睑;基于目标三维人脸模型和/或人脸图像,确定目标人员的头部的当前姿态信息;基于目标三维人脸模型中上下眼睑的三维位置信息,确定人眼的上下眼睑之间的当前开闭长度;基于当前姿态信息以及当前开闭长度,确定目标人员的当前状态,以实现提高对目标人员的当前状态的检测结果的准确性。
-
公开(公告)号:CN112084821A
公开(公告)日:2020-12-15
申请号:CN201910513791.0
申请日:2019-06-14
申请人: 初速度(苏州)科技有限公司
IPC分类号: G06K9/00
摘要: 本发明实施例公开一种基于多面部信息的人员状态检测方法及装置,该方法包括:从人脸图像中,检测出面部中的人脸特征点;基于人脸特征点以及预设的三维人脸模型,构建人员对应的目标三维人脸模型;基于目标三维人脸模型中第一眼睑空间点、第一嘴唇空间点以及预设的投影矩阵,确定第一眼睑空间点以及第一嘴唇空间点在人脸图像中的投影点;基于第一眼睑空间点和对应的投影点及人脸图像中相应的眼睑特征点,确定上下眼睑的当前开合长度;基于第一嘴唇空间点和对应的投影点及人脸图像中相应的嘴唇特征点,确定上下唇的当前张合度;基于当前张合度以及当前开合长度,确定人员的当前状态,以实现提高对目标人员的当前状态的检测结果的准确性。
-
公开(公告)号:CN112016347A
公开(公告)日:2020-12-01
申请号:CN201910457032.7
申请日:2019-05-29
申请人: 初速度(苏州)科技有限公司
IPC分类号: G06K9/00
摘要: 本发明实施例公开一种基于眼睑特征信息的人员状态检测方法及装置,该方法包括:获得包含目标人员面部的人脸图像;从人脸图像中检测出人脸特征点的二维位置信息;结合预设的三维人脸模型,构建目标三维人脸模型;进而结合投影矩阵,确定指定位置处的眼睑空间点在人脸图像中的投影位置信息;基于人脸图像中指定位置对应的位置处的眼睑特征点的二维位置信息、指定位置处的眼睑空间点的三维位置信息以及投影位置信息,确定上下眼睑的当前开闭长度;基于当前开闭长度,确定出目标人员的当前状态,以实现确定人眼的眼睑特征信息,利用眼睑特征信息,实现对人眼开闭状态的检测结果的准确性的提高,提高对人员的当前状态的检测结果的准确性。
-
公开(公告)号:CN110956071A
公开(公告)日:2020-04-03
申请号:CN201910541988.5
申请日:2019-06-21
申请人: 初速度(苏州)科技有限公司
IPC分类号: G06K9/00
摘要: 本发明实施例公开一种眼部关键点的标注及其检测模型的训练方法和装置。方法包括:获得人脸图像及人脸图像对应的标注眼睑曲线;针对每一标注眼睑曲线,基于数学积分原理,对标注眼睑曲线进行积分,确定标注眼睑曲线中标注上眼睑曲线的第一曲线长度和标注下眼睑曲线的第二曲线长度;从标注上眼睑曲线和标注下眼睑曲线中,确定出多个待利用眼睑点;基于标注上眼睑曲线的第一曲线长度、标注下眼睑曲线的第二曲线长度、待利用眼睑点及预设等分点数,从标注上眼睑曲线和标注下眼睑曲线中,分别确定出等分上眼睑点和等分下眼睑点,进而结合标注眼角点,确定每一人脸图像对应的眼部关键点,以实现标注出具有较明显语义特征的眼部关键点且提高标注效率。
-
公开(公告)号:CN113221599A
公开(公告)日:2021-08-06
申请号:CN202010069906.4
申请日:2020-01-21
申请人: 初速度(苏州)科技有限公司
摘要: 本发明实施例公开一种眼睑曲线的构建方法及装置,该方法包括:从多个图像采集设备同时拍摄所得的脸部图像中,检测出其中目标眼睛的第一眼角点的第一位置信息、第二眼角点的第二位置信息及眼睑点的第三位置信息;基于每一图像采集设备的相关信息、第一位置信息及第二位置信息,确定出第一眼角点对应的第一三维位置信息和第二眼角点对应的第二三维位置信息;基于上述三维位置信息、第一数值、第二数值及三次参数曲线方程,构建第一眼角约束;基于三次参数曲线方程、每一图像采集设备的相关信息及第三位置信息,构建眼睑对应的重投影误差约束;基于重投影误差约束及第一眼角约束,构建眼睑曲线,以实现对眼睑的眼睑曲线的构建。
-
公开(公告)号:CN110956068A
公开(公告)日:2020-04-03
申请号:CN201910456538.6
申请日:2019-05-29
申请人: 初速度(苏州)科技有限公司
IPC分类号: G06K9/00
摘要: 本发明实施例公开一种基于人眼状态识别的疲劳检测方法及装置,该方法包括:获得图像采集设备针对目标人员进行拍摄时,采集到的包含目标人员的面部的人脸图像;对人脸图像进行检测,得到面部特征点以及面部中人眼的上下眼睑的眼睑特征点;基于预设的三维人脸模型、面部特征点以及眼睑特征点,构建目标人员对应的目标三维人脸模型,其中,目标三维人脸模型包括:基于眼睑特征点构建的人眼的上下眼睑;基于目标三维人脸模型中人眼的上下眼睑,确定人眼的上下眼睑之间的当前开闭长度;基于当前开闭长度,确定出目标人员的当前疲劳程度,以实现确定出人眼的空间信息,提高对人眼状态的检测结果的准确性,进而提高对目标人员的疲劳程度的检测结果的准确性。
-
公开(公告)号:CN113221600A
公开(公告)日:2021-08-06
申请号:CN202010069966.6
申请日:2020-01-21
申请人: 初速度(苏州)科技有限公司
摘要: 本发明实施例公开一种图像特征点的标定方法及装置,该方法包括:获得多个图像采集设备在相同采集周期内采集的待标定图像;从每一待标定图像中检测出面部特征点的检测位置信息及对应的语义信息;基于每一面部特征点对应的语义信息,对待标定图像进行分组,得到每一语义信息对应的待标定图像组;利用每一待标定图像组对应的语义信息所对应面部特征点的检测位置信息,及对应的设备位姿信息和设备内参信息,确定出目标语义信息所对应面部特征点对应的空间位置信息;进而,结合每一待标定图像对应的设备位姿信息和设备内参信息,确定每一待标定图像中每一目标语义信息所对应面部特征点的标注位置信息,以实现对图像特征点的准确性自动标注。
-
公开(公告)号:CN113208591A
公开(公告)日:2021-08-06
申请号:CN202010069773.0
申请日:2020-01-21
申请人: 初速度(苏州)科技有限公司
摘要: 本发明实施例公开一种眼睛开闭距离确定方法及装置,该方法包括:获得待检测人员的目标三维人脸模型;基于第一指定特征点、第二指定特征点和第三指定特征点对应的三维位置信息,以及目标眼睛的上眼睑点、下眼睑点和两个眼角点对应的三维位置信息,拟合出目标眼睛所对应眼球球心对应的三维位置信息;基于目标眼睛所对应眼球球心对应的三维位置信息,以及上眼睑点和下眼睑点对应的三维位置信息,确定投影至目标眼睛所对应眼球表面的上眼睑点对应的第一投影位置信息和下眼睑点对应的第二投影位置信息;基于第一投影位置信息和第二投影位置信息,确定目标眼睛的开闭距离,以实现提高对眼睛的开闭距离的确定的准确性。
-
公开(公告)号:CN110956067A
公开(公告)日:2020-04-03
申请号:CN201910443046.3
申请日:2019-05-26
申请人: 初速度(苏州)科技有限公司
IPC分类号: G06K9/00
摘要: 本发明实施例公开一种人眼眼睑曲线的构建方法及装置,该方法包括:从每一图像采集设备在同一时刻采集的人眼图像中,识别人眼的第一眼角点的第一位置信息、第二眼角点的第二位置信息以及眼睑点的第三位置信息;基于每一图像采集设备的位姿信息和内参信息、第一位置信息以及第二位置信息,确定出第一眼角点和第二眼角点对应的三维位置信息;基于上述三维位置信息、预设的曲线方程、第一数值以及第二数值,构建第一眼角约束和第二眼角约束;再结合每一眼睑点的第三位置信息,构建眼睑点对应的重投影误差约束;基于上述三个约束,构建用于表征人眼的上眼睑和\或下眼睑的眼睑空间曲线方程,以实现对人眼眼睑曲线的构建,得到人眼眼睑的空间信息。
-
-
-
-
-
-
-
-
-