-
公开(公告)号:CN111046924A
公开(公告)日:2020-04-21
申请号:CN201911171882.7
申请日:2019-11-26
Applicant: 成都旷视金智科技有限公司 , 北京旷视科技有限公司
IPC: G06K9/62
Abstract: 本发明提供了一种数据处理方法、装置、系统及存储介质,方法包括:从训练集中获取预定数量的训练数据作为当前轮训练数据子集,并基于当前轮训练数据子集对神经网络进行训练,确定当前轮的训练参数,当前轮训练数据子集包括N类训练样本集,N为正整数;根据训练参数确定下一轮训练数据子集中各类训练数据的占比;基于下一轮训练数据子集对神经网络进行训练,得到数据处理模型;利用数据处理模型对待处理数据进行分类,确定待处理数据的分类结果。根据本发明的方法、装置、系统及存储介质,通过计算当前轮训练的训练参数确定下一轮训练数据的各类数据的占比训练得到模型进行数据处理,提高了数据处理的效率和准确性。
-
公开(公告)号:CN110348460A
公开(公告)日:2019-10-18
申请号:CN201910601151.5
申请日:2019-07-04
Applicant: 成都旷视金智科技有限公司 , 北京旷视科技有限公司
Abstract: 本发明的方面涉及图像处理领域,提供一种基于角度的目标检测训练方法、目标检测方法及装置。基于角度的目标检测训练方法,其中,包括:获取图像步骤,获取训练图像;获取预测框步骤,根据获取的训练图像,通过神经网络获取预测框;获取标记点步骤,获取标注框的第一顶点、与第一顶点位置对应的预测框的第二顶点、以及标注框中的第三点;获取损失步骤,基于目标损失得到损失,其中,目标损失包括角度损失,角度损失基于第一顶点和第三点的连线与第二顶点和第三点的连线之间的夹角进行获取;优化步骤,基于目标损失训练神经网络。通过引入角度损失函数对目标检测过程进行约束,用于增强标注框与预测框之间重叠度的约束力,从而提升目标检测的精度。
-
公开(公告)号:CN110008907A
公开(公告)日:2019-07-12
申请号:CN201910281839.X
申请日:2019-04-09
Applicant: 成都旷视金智科技有限公司 , 北京旷视科技有限公司
Abstract: 本发明提供了一种年龄的估计方法、装置、电子设备和计算机可读介质,涉及图像处理的技术领域,包括获取待处理图像,其中,所述待处理图像中包含待识别对象,且所述待处理图像的尺度小于预设尺度;利用年龄估计网络确定所述待处理图像中待识别对象的年龄信息,其中,所述年龄估计网络包括:卷积网络和全连接网络,所述卷积网络和所述全连接网络相连接,所述卷积网络中包括多个卷积模块,所述全连接网络中包括多个全连接模块,本申请缓解了现有的年龄估计模型运算量大导致的现有的年龄估计模型难以满足实际应用需求的技术问题。
-
公开(公告)号:CN110008835A
公开(公告)日:2019-07-12
申请号:CN201910163152.6
申请日:2019-03-05
Applicant: 成都旷视金智科技有限公司 , 北京旷视科技有限公司
Abstract: 本申请涉及一种视线预测方法、装置、系统和可读存储介质。所述方法包括:获取待处理的目标眼睛图像;将所述目标眼睛图像输入预先训练的视线预测模型,输出所述目标眼睛图像的预测视线向量;其中,所述视线预测模型是基于眼睛渲染图像训练样本的重构损失和预测视线损失、以及眼睛真实图像训练样本的重构损失训练得到的;所述预测视线损失包括:所述眼睛渲染图像训练样本的预测视线向量和标注视线向量之间的损失,所述眼睛渲染图像训练样本的预测视线向量是从所述眼睛渲染图像训练样本的眼睛图像中提取眼睛特征并预测得到的。采用本方法能够实现渲染域与真实域的跨域,可以提高视线预测的准确性。
-
公开(公告)号:CN109815881A
公开(公告)日:2019-05-28
申请号:CN201910051226.7
申请日:2019-01-18
Applicant: 成都旷视金智科技有限公司 , 北京旷视科技有限公司
Abstract: 本发明提供了一种行为识别模型的训练方法、行为识别方法、装置及设备,涉及人工智能技术领域,该方法包括:获取训练集;分别检测每张图像的目标区域;计算训练集对应于目标区域的平均亮度信息;将每张图像的目标区域分割为前景和背景,并将背景标记为黑色;根据平均亮度信息调节每张图像的前景的亮度,得到预处理后的图像;将预处理后的图像输入神经网络进行训练,直至神经网络收敛,将收敛情况下的神经网络作为行为识别模型。本发明实施例可以消除背景的影响,增强对复杂场景识别的鲁棒性,可以应用在现实光线复杂的场景中,提高了识别准确率,避免过度曝光或光线不足产生的准确度下降问题。
-
公开(公告)号:CN110796003B
公开(公告)日:2022-04-26
申请号:CN201910907004.0
申请日:2019-09-24
Applicant: 成都旷视金智科技有限公司 , 北京旷视科技有限公司
Abstract: 本申请实施例提供了车道线检测方法、装置及电子设备,该方法包括:将前视图图像和俯视图图像输入到车道线检测网络,得到车道线检测网络输出的车道线检测结果,车道线检测网络包括:第一编码网络、第二编码网络、特征图转换单元、解码网络,特征图转换单元被配置为:对于所有编码器中的除了第一编码网络中的最后一个编码器和第二编码网络中的最后一个编码器之外的每一个编码器,基于编码器输出的特征图和用于与编码器输出的特征图进行特征融合的特征图,生成编码器的下一个编码器的输入,以及基于第一编码网络输出的特征图和第二编码网络输出的特征图,生成解码网络的输入;解码网络被配置为:基于解码网络的输入,生成车道线检测结果。
-
公开(公告)号:CN110533740A
公开(公告)日:2019-12-03
申请号:CN201910702526.7
申请日:2019-07-31
Applicant: 成都旷视金智科技有限公司 , 北京旷视科技有限公司
Abstract: 本发明提供了一种图像着色方法、装置、系统及存储介质,所述方法包括:将待着色图像转换为Lab颜色空间格式得到所述待着色图像的L通道值;获取用于着色的图像或所述待着色图像的ab通道值,其中,所述用于着色的图像包括与所述待着色图像至少部分相同的图像;将所述L通道值和所述ab通道值输入至图像着色神经网络,得到用于着色的ab通道值;将所述用于着色的ab通道值与所述L通道值融合得到所述待着色图像的图像着色结果。根据本发明的方法、装置、系统及存储介质,通过神经网络得到着色的颜色通道值与待着色图像的亮度通道融合实现图像着色,改善现有的图像着色偏色、漏色、缺色等问题,提高了图像着色的效率以及着色效果。
-
公开(公告)号:CN111046924B
公开(公告)日:2023-12-19
申请号:CN201911171882.7
申请日:2019-11-26
Applicant: 成都旷视金智科技有限公司 , 北京旷视科技有限公司
IPC: G06F18/214
Abstract: 本发明提供了一种数据处理方法、装置、系统及存储介质,方法包括:从训练集中获取预定数量的训练数据作为当前轮训练数据子集,并基于当前轮训练数据子集对神经网络进行训练,确定当前轮的训练参数,当前轮训练数据子集包括N类训练样本集,N为正整数;根据训练参数确定下一轮训练数据子集中各类训练数据的占比;基于下一轮训练数据子集对神经网络进行训练,得到数据处理模型;利用数据处理模型对待处理数据进行分类,确定待处理数据的分类结果。根据本发明的方法、装置、系统及存储介质,通过计算当前轮训练的训练参数确定下一轮训练数据的各类数据的占比训练得到模型进行数据处理,提高了数据处理的效率和准确性。
-
公开(公告)号:CN110348460B
公开(公告)日:2021-10-22
申请号:CN201910601151.5
申请日:2019-07-04
Applicant: 成都旷视金智科技有限公司 , 北京旷视科技有限公司
Abstract: 本发明的方面涉及图像处理领域,提供一种基于角度的目标检测训练方法、目标检测方法及装置。基于角度的目标检测训练方法,其中,包括:获取图像步骤,获取训练图像;获取预测框步骤,根据获取的训练图像,通过神经网络获取预测框;获取标记点步骤,获取标注框的第一顶点、与第一顶点位置对应的预测框的第二顶点、以及标注框中的第三点;获取损失步骤,基于目标损失得到损失,其中,目标损失包括角度损失,角度损失基于第一顶点和第三点的连线与第二顶点和第三点的连线之间的夹角进行获取;优化步骤,基于目标损失训练神经网络。通过引入角度损失函数对目标检测过程进行约束,用于增强标注框与预测框之间重叠度的约束力,从而提升目标检测的精度。
-
公开(公告)号:CN110008907B
公开(公告)日:2021-10-01
申请号:CN201910281839.X
申请日:2019-04-09
Applicant: 成都旷视金智科技有限公司 , 北京旷视科技有限公司
Abstract: 本发明提供了一种年龄的估计方法、装置、电子设备和计算机可读介质,涉及图像处理的技术领域,包括获取待处理图像,其中,所述待处理图像中包含待识别对象,且所述待处理图像的尺度小于预设尺度;利用年龄估计网络确定所述待处理图像中待识别对象的年龄信息,其中,所述年龄估计网络包括:卷积网络和全连接网络,所述卷积网络和所述全连接网络相连接,所述卷积网络中包括多个卷积模块,所述全连接网络中包括多个全连接模块,本申请缓解了现有的年龄估计模型运算量大导致的现有的年龄估计模型难以满足实际应用需求的技术问题。
-
-
-
-
-
-
-
-
-