-
公开(公告)号:CN108347549A
公开(公告)日:2018-07-31
申请号:CN201810160090.9
申请日:2018-02-26
申请人: 华东理工大学
摘要: 本发明提供一种基于视频帧的时间一致性来改善视频抖动的方法,包括:在原始视频中匹配任意两帧之间的对应像素及其对应区域;从原始视频选取一帧作为当前帧,计算当前帧与其他帧之间的对应度;根据计算得到的对应度确定当前帧的时间一致性对应帧集合;对时间一致性对应帧集合进行多次奇偶迭代处理,利用上一轮迭代结果的对应帧的输出帧来替代本轮迭代过程的未知对应帧的输出帧,重复上述匹配操作和迭代过程,重构每一输出帧。相比于现有技术,本发明基于视频帧的时间一致性,能够在不了解具体的图像处理方法的前提下,改善或去除由于该图像处理方法逐帧运用到视频中所造成的视频抖动。
-
公开(公告)号:CN106997599A
公开(公告)日:2017-08-01
申请号:CN201710249458.4
申请日:2017-04-17
申请人: 华东理工大学
摘要: 本发明提供一种光照敏感的视频运动目标分割方法,包括:提出了一种新的八方向敏感滤波器(OSF),从像素的八个方向计算邻域像素的贡献值,它可以用作局部描述子来衡量块间的相似度。对于输入的原始视频,每次分段处理视频的连续若干帧。将OSF引入到变分模型,计算前景物体区域,从而获得前景和背景的种子点。利用OSF描述子对物体进行追踪,并更新种子点位置,最后将OSF引入到图切割中,利用种子点分割出前景目标。本发明提出的OSF具有光照不变特征量,将其作为局部描述子引入到本发明提出的分割方法,对于视频场景中发生光照变化的情形下仍具有鲁棒性。
-
公开(公告)号:CN108924385A
公开(公告)日:2018-11-30
申请号:CN201810682319.5
申请日:2018-06-27
申请人: 华东理工大学
IPC分类号: H04N5/21
摘要: 本发明提供一种基于宽度学习的视频去抖动方法,根据原始视频的当前待处理帧、处理过的视频对应帧、非学习型处理方法的输出视频的对应帧的上一帧,获得训练集的输入数据以及测试集的输入数据,然后利用映射函数来提取视频时间连续性的初级特征,接着利用激活函数对初级特征进行特征增强,得到增强特征;将初级特征以及增强特征联立,得到第n个网络中提取到的所有特征,在训练集中构建以视频时间连续性和视频内容保真度为约束条件的能量函数,通过最小角回归法求解满足上述能量函数中的权重,并将其连接特征层与输出层的目标权重,最后在测试集中根据目标权重与提取到的所有特征获得测试集的视频去抖动的输出帧。
-
公开(公告)号:CN108924385B
公开(公告)日:2020-11-03
申请号:CN201810682319.5
申请日:2018-06-27
申请人: 华东理工大学
IPC分类号: H04N5/21
摘要: 本发明提供一种基于宽度学习的视频去抖动方法,根据原始视频的当前待处理帧、处理过的视频对应帧、非学习型处理方法的输出视频的对应帧的上一帧,获得训练集的输入数据以及测试集的输入数据,然后利用映射函数来提取视频时间连续性的初级特征,接着利用激活函数对初级特征进行特征增强,得到增强特征;将初级特征以及增强特征联立,得到第n个网络中提取到的所有特征,在训练集中构建以视频时间连续性和视频内容保真度为约束条件的能量函数,通过最小角回归法求解满足上述能量函数中的权重,并将其连接特征层与输出层的目标权重,最后在测试集中根据目标权重与提取到的所有特征获得测试集的视频去抖动的输出帧。
-
公开(公告)号:CN108389217A
公开(公告)日:2018-08-10
申请号:CN201810094623.8
申请日:2018-01-31
申请人: 华东理工大学
CPC分类号: G06T7/194 , G06T5/50 , G06T2207/10016 , G06T2207/20221 , H04N5/265
摘要: 本发明提供一种基于梯度域混合的视频合成方法,包括:输入源视频序列和目标视频序列;标记源视频序列的目标物体及目标视频序列的感兴趣区域,并利用运动补偿来一次映射得出每一帧的内边界和外边界;将当前帧的内边界和外边界间的环形区域作为当前帧的融合边界;根据上一帧中每个像素点位置的梯度混合系数,利用梯度域的时间一致性和空间一致性来计算得到当前帧的梯度混合系数;使用闭型抠取技术来局部平滑均值坐标插值;以及将平滑值与目标物体对应的像素值相加,逐帧处理完毕从而得到融合视频。相比于现有技术,本发明能够在光照强度显著变化时,提取源视频的目标物体,并无缝地将其融合进目标视频的感兴趣区域内,获取期望的视频合成效果。
-
公开(公告)号:CN108347549B
公开(公告)日:2020-11-10
申请号:CN201810160090.9
申请日:2018-02-26
申请人: 华东理工大学
摘要: 本发明提供一种基于视频帧的时间一致性来改善视频抖动的方法,包括:在原始视频中匹配任意两帧之间的对应像素及其对应区域;从原始视频选取一帧作为当前帧,计算当前帧与其他帧之间的对应度;根据计算得到的对应度确定当前帧的时间一致性对应帧集合;对时间一致性对应帧集合进行多次奇偶迭代处理,利用上一轮迭代结果的对应帧的输出帧来替代本轮迭代过程的未知对应帧的输出帧,重复上述匹配操作和迭代过程,重构每一输出帧。相比于现有技术,本发明基于视频帧的时间一致性,能够在不了解具体的图像处理方法的前提下,改善或去除由于该图像处理方法逐帧运用到视频中所造成的视频抖动。
-
公开(公告)号:CN106997599B
公开(公告)日:2019-08-30
申请号:CN201710249458.4
申请日:2017-04-17
申请人: 华东理工大学
摘要: 本发明提供一种光照敏感的视频运动目标分割方法,包括:提出了一种新的八方向敏感滤波器(OSF),从像素的八个方向计算邻域像素的贡献值,它可以用作局部描述子来衡量块间的相似度。对于输入的原始视频,每次分段处理视频的连续若干帧。将OSF引入到变分模型,计算前景物体区域,从而获得前景和背景的种子点。利用OSF描述子对物体进行追踪,并更新种子点位置,最后将OSF引入到图切割中,利用种子点分割出前景目标。本发明提出的OSF具有光照不变特征量,将其作为局部描述子引入到本发明提出的分割方法,对于视频场景中发生光照变化的情形下仍具有鲁棒性。
-
公开(公告)号:CN105608711A
公开(公告)日:2016-05-25
申请号:CN201610032163.7
申请日:2016-01-18
申请人: 华东理工大学
CPC分类号: G06T7/20 , G06T2207/10016 , G06T2207/20156 , G06T2207/30232
摘要: 本发明提出一种基于局部敏感直方图的视频动态目标追踪提取方法,该方法步骤如下:a.在视频第一帧中为目标选取种子点,并记录下来;b.采用基于局部敏感直方图的视频目标追踪算法,在视频当前帧中对目标进行定位,并记录下该位置;c.当视频帧不为第一帧时,根据目标在视频当前帧和上一帧中的位置信息,推算出目标在这两帧间的位移,并用该位移更新种子点位置;d.对当前种子点的像素值执行基于衰减的操作;e.基于当前种子点,在视频当前帧中利用基于RGB的随机游走算法提取出目标轮廓;f.若仍存在未经计算的视频帧,则转到当前帧的下一帧,回到步骤b继续执行。利用这种方式追踪提取视频中的动态目标,在光照变化的情形下仍具有较好的效果。
-
公开(公告)号:CN104835154A
公开(公告)日:2015-08-12
申请号:CN201510219683.4
申请日:2015-05-03
申请人: 华东理工大学
IPC分类号: G06T7/00
CPC分类号: G06T7/10
摘要: 本发明创新技术核心是提出了一种基于随机游走的彩色图像目标获取方法。该技术属于用户交互的图像目标分割方法,方法输入要求有两个方面,一是彩色图像,二是用户给定的初始的前景和背景的种子点。专利技术步骤包括:(1)计算图像在HSV空间中各个特征分量的方差;(2)构建彩色图像的带权图模型,图的结点为像素点,边的权值由HSV空间像素点特征距离构成;(3)构建像素点权值之间的拉普拉斯矩阵,权值计算以方差为基础;(4)计算非种子点到种子点的概率,该步骤通过求解狄利克雷问题完成;(5)根据概率判断非种子点是否属于目标区域。大量实验证明,这种方法目标获取速度快,相比于原始的随机游走算法,能够更加精确的从彩色图像中获取目标。
-
-
-
-
-
-
-
-