基于视频在线学习的跟踪方法和装置

    公开(公告)号:CN107292918B

    公开(公告)日:2020-06-19

    申请号:CN201610931660.0

    申请日:2016-10-31

    IPC分类号: G06T7/292 G06K9/62 G06K9/66

    摘要: 本发明提供一种基于视频在线学习的跟踪方法和装置,该方法包括步骤:A1.经初始化后,将视频帧送入检测模块,由检测模块检测运动目标,产生样本,生成样本集;同时,跟踪模块和检测模块并行进行,跟踪模块估计运动目标出现的坐标,生成运动轨迹;其中,跟踪模块包括MOSSE滤波器;A2.将样本集和运动轨迹输入P‑N学习模块,由P‑N学习模块进行评估和校正,把置信度最高的记为正样本,其余作为负样本,生成训练数据;A3.P‑N学习模块评估得到当前帧运动目标出现的最可信的一个位置,作为跟踪的结果进行跟踪;同时P‑N学习模块利用生成的正负样本和新坐标,反作用于跟踪模块和检测模块,更新检测模块的样本集和跟踪模块的滤波模型。通过采用MOSSE滤波器,提高了处理速度和运算效率,且减少了光照变化等引发跟踪失败的几率,更具有鲁棒性。

    基于视频在线学习的跟踪方法和装置

    公开(公告)号:CN107292918A

    公开(公告)日:2017-10-24

    申请号:CN201610931660.0

    申请日:2016-10-31

    IPC分类号: G06T7/292 G06K9/62 G06K9/66

    摘要: 本发明提供一种基于视频在线学习的跟踪方法和装置,该方法包括步骤:A1.经初始化后,将视频帧送入检测模块,由检测模块检测运动目标,产生样本,生成样本集;同时,跟踪模块和检测模块并行进行,跟踪模块估计运动目标出现的坐标,生成运动轨迹;其中,跟踪模块包括MOSSE滤波器;A2.将样本集和运动轨迹输入P-N学习模块,由P-N学习模块进行评估和校正,把置信度最高的记为正样本,其余作为负样本,生成训练数据;A3.P-N学习模块评估得到当前帧运动目标出现的最可信的一个位置,作为跟踪的结果进行跟踪;同时P-N学习模块利用生成的正负样本和新坐标,反作用于跟踪模块和检测模块,更新检测模块的样本集和跟踪模块的滤波模型。通过采用MOSSE滤波器,提高了处理速度和运算效率,且减少了光照变化等引发跟踪失败的几率,更具有鲁棒性。

    一种基于级联残差神经网络的图像去噪方法

    公开(公告)号:CN106204467B

    公开(公告)日:2021-07-09

    申请号:CN201610481440.2

    申请日:2016-06-27

    IPC分类号: G06T5/00

    摘要: 本发明公开了一种基于级联残差神经网络的图像去噪方法,包括以下步骤:搭建级联残差神经网络模型,所述级联残差神经网络模型由多个残差单元串联而成,其中每个所述残差单元包括多个卷积层、每个所述卷积层后的激活层和单位跳跃连接单元;选取训练集,并设置所述级联残差神经网络模型的训练参数;根据所述级联残差神经网络模型及其训练参数,以最小化损失函数为目标训练所述级联残差神经网络模型形成图像去噪神经网络模型;将待处理的图像输入到所述图像去噪神经网络模型,输出去噪后的图像。本发明公开的基于级联残差神经网络的图像去噪方法,极大地增强神经网络的学习能力,建立起噪声图像到干净图像的准确映射,可以实现实时去噪。

    对包含人像的图像的多人骨骼关键点检测方法及装置

    公开(公告)号:CN109583341B

    公开(公告)日:2021-02-05

    申请号:CN201811376208.8

    申请日:2018-11-19

    IPC分类号: G06K9/00 G06T7/00

    摘要: 本发明公开了一种对包含人像的图像的多人骨骼关键点检测方法及装置,该方法包括:对原始含人像的RGB图像进行显著性检测,得到图像中各位置的显著性值;根据显著性值对所述RGB图像进行裁剪;对所述裁剪后的图像进行骨骼关键点检测,得到各类关键点位置的分布热图;对所述分布热图根据显著性值进行加权,并根据加权后的分布热图计算出裁剪后图像的骨骼关键点检测结果;最后计算所述原始RGB图像中每个人的骨骼关键点的最终检测结果。本发明的方法和装置能得到高精度的人体骨骼关键点检测结果。

    一种基于激光线扫描成像的测距方法

    公开(公告)号:CN110031830B

    公开(公告)日:2020-11-03

    申请号:CN201910359635.3

    申请日:2019-04-29

    IPC分类号: G01S11/12

    摘要: 本发明提出一种基于激光线扫描成像的测距方法,能够有效抑制极端天气对成像造成的干扰,此方法包括以下步骤:对固定好的激光线扫描系统采集先验的参考图案,参考白板分别放置在不同距离远处,线激光打到白板由相机采集到参考图案;将激光线扫描设备放置于真实场景中,对不同角度分别发射线激光,同时用相机采集每个扫描角度的图像;利用基于激光线扫描的测距算法,将采集得到的真实场景扫描图像与先验参考图案融合计算,提取出周围物体的距离信息,实现环境感知。

    基于卷积神经网络的视频编码后置滤波方法

    公开(公告)号:CN107197260B

    公开(公告)日:2019-09-13

    申请号:CN201710439132.8

    申请日:2017-06-12

    摘要: 基于卷积神经网络的视频编码后置滤波方法,包括卷积神经网络模型训练步骤和滤波步骤,训练步骤包括:设置视频压缩的量化参数为20至51对原始视频进行编码压缩,得到压缩视频;对所有视频进行帧提取得到多个压缩视频帧‑原始视频帧的帧对;将提取得到帧对按帧类型和量化参数的不同划分为多个组;搭建卷积神经网络框架并初始化网络参数,使用前述划分的组分别对神经网络进行训练,得到对应于不同量化参数和帧类型的多个神经网络模型。滤波步骤包括:将得到的多个神经网络模型嵌入至视频编码器的后置滤波环节;对待处理的原始视频执行前述的编码压缩和帧提取得到待处理帧对,并依据待处理帧对的量化参数和帧类型选择对应的神经网络模型进行滤波处理。

    一种基于深度神经网络的视频帧间预测增强方法

    公开(公告)号:CN106713929B

    公开(公告)日:2019-06-28

    申请号:CN201710084742.0

    申请日:2017-02-16

    摘要: 本发明公开了一种基于深度神经网络的视频帧间预测增强方法,对不同内容的视频序列分组,并同时对不同的量化参数进行压缩,产生多个不同压缩率的训练集序列、验证集序列对并进行分组,从每个组的所有视频序列对中提取出图片,组成不同压缩率分组下的训练集、验证集图像对;基于深度卷积神经网络训练该压缩率分组下的视频帧间预测增强模型;测试帧间预测增强模型的有效性,在有效的情况下将训练得到模型移植入编码器视频帧间预测模块中;基于GPU利用并行开发工具将测试网络并行化,并编译为动态链接库文件,导入编码器中进行时间复杂度上的优化;既避免了每个量化参数下都分别需要训练的情况,同时也提高了在使用场景下的鲁棒性。

    基于光场的高光图像修复方法及装置

    公开(公告)号:CN105023249B

    公开(公告)日:2017-11-17

    申请号:CN201510366055.9

    申请日:2015-06-26

    IPC分类号: G06T5/00

    摘要: 一种基于光场的高光图像修复方法及装置,该方法包括:深度估计步骤,联合散焦和立体视点匹配进行光场图像深度估计;高光检测步骤,基于对角多视点颜色空间投影差异进行高光检测;以及高光去除步骤,从深度估计结果中获取检测到的高光点对应的深度值,重聚焦找到高光点对应的宏像素,按亮度强弱将该宏像素中的像素聚为两类,用双色反射模型对该两类构建方程组求解后得到高光点的镜面反射分量,去除该镜面反射分量,实现高光去除。该装置包括实现上述步骤的深度估计模块、高光检测模块以及高光去除模块。其能准确地识别高光像素,复原结果更具有真实性和鲁棒性。

    基于卷积神经网络的视频编码后置滤波方法

    公开(公告)号:CN107197260A

    公开(公告)日:2017-09-22

    申请号:CN201710439132.8

    申请日:2017-06-12

    摘要: 基于卷积神经网络的视频编码后置滤波方法,包括卷积神经网络模型训练步骤和滤波步骤,训练步骤包括:设置视频压缩的量化参数为20至51对原始视频进行编码压缩,得到压缩视频;对所有视频进行帧提取得到多个压缩视频帧‑原始视频帧的帧对;将提取得到帧对按帧类型和量化参数的不同划分为多个组;搭建卷积神经网络框架并初始化网络参数,使用前述划分的组分别对神经网络进行训练,得到对应于不同量化参数和帧类型的多个神经网络模型。滤波步骤包括:将得到的多个神经网络模型嵌入至视频编码器的后置滤波环节;对待处理的原始视频执行前述的编码压缩和帧提取得到待处理帧对,并依据待处理帧对的量化参数和帧类型选择对应的神经网络模型进行滤波处理。