一种基于超像素的光场图像拼接方法

    公开(公告)号:CN109064410B

    公开(公告)日:2023-03-14

    申请号:CN201811241579.5

    申请日:2018-10-24

    发明人: 金欣 王培 戴琼海

    IPC分类号: G06T3/40

    摘要: 本发明公开了一种基于超像素的光场图像拼接方法,包括:输入待拼接的光场数据以得到光场子孔径图像,进行特征点提取、匹配和筛选,并根据特征点对预测全局单应性变换矩阵;对光场子孔径图像进行超像素分割,依据当前深度假设下的特征点对预测每个超像素对应的单应性变换矩阵,根据单应性变换矩阵映射光场,并评价筛选出最优的深度假设作为超像素分层图;建立局部映射的权值矩阵,再根据全局单应性变换矩阵和局部映射的权值矩阵预测每个超像素的最优单应性变换矩阵,根据每个超像素的最优单应性变换矩阵映射光场;对光场进行融合得到光场拼接结果。本发明解决了较大视差变化造成结果错位和重影的问题,实现了精确的视差容忍的光场拼接方法。

    一种基于动量梯度的散射波前光场估计加速方法

    公开(公告)号:CN110008585B

    公开(公告)日:2022-12-23

    申请号:CN201910263248.X

    申请日:2019-04-02

    IPC分类号: G06T7/557 G06T3/40

    摘要: 本发明公开了基于动量梯度的散射波前光场估计加速方法,包括:在散射光场成像系统中于深度z1、z2下采集光强为|Y1|2、|Y2|2的两个光强图像;以光强的算术平方根分别作为深度z1、z2的散射波前光场估计初始值,并设定对应的动量梯度初始值为与两个光强具有相同维数的零值矩阵;利用基于光场幅值约束的散射波前光场估计迭代算法估计两个深度的散射波前光场;迭代过程利用光场的传播以及幅值替换得到的初始梯度更新动量梯度,并利用动量梯度更新散射波前光场估计值直至迭代收敛时,得到两个深度的散射波前光场估计值Y'1和Y'2;使用光场的二次传播算法将Y'1和Y'2传播到目标深度,并对得到的两个传播散射波前光场在复数域求平均,得到目标深度的散射波前光场估计值。

    一种基于级联残差神经网络的图像去噪方法

    公开(公告)号:CN106204467B

    公开(公告)日:2021-07-09

    申请号:CN201610481440.2

    申请日:2016-06-27

    IPC分类号: G06T5/00

    摘要: 本发明公开了一种基于级联残差神经网络的图像去噪方法,包括以下步骤:搭建级联残差神经网络模型,所述级联残差神经网络模型由多个残差单元串联而成,其中每个所述残差单元包括多个卷积层、每个所述卷积层后的激活层和单位跳跃连接单元;选取训练集,并设置所述级联残差神经网络模型的训练参数;根据所述级联残差神经网络模型及其训练参数,以最小化损失函数为目标训练所述级联残差神经网络模型形成图像去噪神经网络模型;将待处理的图像输入到所述图像去噪神经网络模型,输出去噪后的图像。本发明公开的基于级联残差神经网络的图像去噪方法,极大地增强神经网络的学习能力,建立起噪声图像到干净图像的准确映射,可以实现实时去噪。

    一种基于频域能量分布的光场深度估计方法

    公开(公告)号:CN109993764B

    公开(公告)日:2021-02-19

    申请号:CN201910266825.0

    申请日:2019-04-03

    IPC分类号: G06T7/13 G06T7/50

    摘要: 本发明公开了基于频域能量分布的光场深度估计方法,包括:提取光场图的中心子孔径图像,划分为空间块进行频域变换;针对每一空间块,从频域分布提取一致性描述子和方向性描述子;根据每个空间块的一致性描述子来判断空间块为遮挡区域或非遮挡区域,并将判断结果应用于空间块对应的角度块;对于遮挡区域,结合角度块的中心角像素、空间块的边缘像素和方向性描述子选择符合一致性描述的子角度块;针对非遮挡区域,提取整个角度块的聚焦张量;针对遮挡区域,提取子角度块的聚焦张量;建立代价方程;最大化代价方程实现光场深度估计。本发明在保证非遮挡区域深度准确性的同时提高了遮挡区域的深度准确性,使深度突变处的细节更加丰富。

    对包含人像的图像的多人骨骼关键点检测方法及装置

    公开(公告)号:CN109583341B

    公开(公告)日:2021-02-05

    申请号:CN201811376208.8

    申请日:2018-11-19

    IPC分类号: G06K9/00 G06T7/00

    摘要: 本发明公开了一种对包含人像的图像的多人骨骼关键点检测方法及装置,该方法包括:对原始含人像的RGB图像进行显著性检测,得到图像中各位置的显著性值;根据显著性值对所述RGB图像进行裁剪;对所述裁剪后的图像进行骨骼关键点检测,得到各类关键点位置的分布热图;对所述分布热图根据显著性值进行加权,并根据加权后的分布热图计算出裁剪后图像的骨骼关键点检测结果;最后计算所述原始RGB图像中每个人的骨骼关键点的最终检测结果。本发明的方法和装置能得到高精度的人体骨骼关键点检测结果。

    一种基于近邻优化的光场视频运动估计方法

    公开(公告)号:CN110062243B

    公开(公告)日:2020-12-11

    申请号:CN201910330519.9

    申请日:2019-04-23

    摘要: 本发明公开了一种基于近邻优化的光场视频运动估计方法,包括S1、分别计算K1个空域和K2个时域相对于宏像素的当前预测块的近邻同位块;S2、分别对K1个空域近邻同位块和K2个时域近邻同位块按照预定义的优先级进行可用性判断,并选出M个可用的近邻同位块作为参考块;S3、分别对M个参考块的运动向量进行基于近邻宏像素位置约束下的校正,得到M个候选运动向量预测量;S4、采用代价模型分别计算M个候选运动向量预测量导出的候选参考块与当前编码块的代价,将代价最小的候选运动向量预测量作为最终的运动向量预测量进行运动搜索,完成运动估计。本发明可以为整个压缩过程节省更多的码流,提高了光场视频的压缩率。

    一种基于激光线扫描成像的测距方法

    公开(公告)号:CN110031830B

    公开(公告)日:2020-11-03

    申请号:CN201910359635.3

    申请日:2019-04-29

    IPC分类号: G01S11/12

    摘要: 本发明提出一种基于激光线扫描成像的测距方法,能够有效抑制极端天气对成像造成的干扰,此方法包括以下步骤:对固定好的激光线扫描系统采集先验的参考图案,参考白板分别放置在不同距离远处,线激光打到白板由相机采集到参考图案;将激光线扫描设备放置于真实场景中,对不同角度分别发射线激光,同时用相机采集每个扫描角度的图像;利用基于激光线扫描的测距算法,将采集得到的真实场景扫描图像与先验参考图案融合计算,提取出周围物体的距离信息,实现环境感知。

    一种基于手持式光场相机的空间光场恢复方法

    公开(公告)号:CN108364309B

    公开(公告)日:2020-09-01

    申请号:CN201810135955.6

    申请日:2018-02-09

    发明人: 金欣 刘莉 戴琼海

    IPC分类号: G06T7/557

    摘要: 本发明公开了一种基于手持式光场相机的空间光场恢复方法,包括:输入光场相机参数,输出物体空间上任一点的点扩散函数;离散化点扩散函数,并将光场相机成像重构为矩阵表达的线性系统,输出光场相机单深度物体光场恢复模型;提取物体在各个微透镜下的成像结果,输入到单深度物体光场恢复模型中,输出每个微透镜下的成像结果在多个深度下的单深度光场恢复结果;计算单深度光场恢复结果在不同深度下恢复效果的相似度,提取相似度最高处所对应的深度为物体所在深度,然后再提取该深度下微透镜恢复的物体信息,输出物体空间光场。本发明提出的方法实现了准确的物体原始信息的恢复。

    基于视频在线学习的跟踪方法和装置

    公开(公告)号:CN107292918B

    公开(公告)日:2020-06-19

    申请号:CN201610931660.0

    申请日:2016-10-31

    IPC分类号: G06T7/292 G06K9/62 G06K9/66

    摘要: 本发明提供一种基于视频在线学习的跟踪方法和装置,该方法包括步骤:A1.经初始化后,将视频帧送入检测模块,由检测模块检测运动目标,产生样本,生成样本集;同时,跟踪模块和检测模块并行进行,跟踪模块估计运动目标出现的坐标,生成运动轨迹;其中,跟踪模块包括MOSSE滤波器;A2.将样本集和运动轨迹输入P‑N学习模块,由P‑N学习模块进行评估和校正,把置信度最高的记为正样本,其余作为负样本,生成训练数据;A3.P‑N学习模块评估得到当前帧运动目标出现的最可信的一个位置,作为跟踪的结果进行跟踪;同时P‑N学习模块利用生成的正负样本和新坐标,反作用于跟踪模块和检测模块,更新检测模块的样本集和跟踪模块的滤波模型。通过采用MOSSE滤波器,提高了处理速度和运算效率,且减少了光照变化等引发跟踪失败的几率,更具有鲁棒性。

    基于卷积神经网络的视频编码后置滤波方法

    公开(公告)号:CN107197260B

    公开(公告)日:2019-09-13

    申请号:CN201710439132.8

    申请日:2017-06-12

    摘要: 基于卷积神经网络的视频编码后置滤波方法,包括卷积神经网络模型训练步骤和滤波步骤,训练步骤包括:设置视频压缩的量化参数为20至51对原始视频进行编码压缩,得到压缩视频;对所有视频进行帧提取得到多个压缩视频帧‑原始视频帧的帧对;将提取得到帧对按帧类型和量化参数的不同划分为多个组;搭建卷积神经网络框架并初始化网络参数,使用前述划分的组分别对神经网络进行训练,得到对应于不同量化参数和帧类型的多个神经网络模型。滤波步骤包括:将得到的多个神经网络模型嵌入至视频编码器的后置滤波环节;对待处理的原始视频执行前述的编码压缩和帧提取得到待处理帧对,并依据待处理帧对的量化参数和帧类型选择对应的神经网络模型进行滤波处理。