-
公开(公告)号:CN114598833B
公开(公告)日:2023-02-10
申请号:CN202210305381.9
申请日:2022-03-25
Applicant: 西安电子科技大学
IPC: H04N7/01 , G06T7/269 , G06N3/0464 , G06N3/08
Abstract: 本发明提出了一种基于时空联合注意力的视频插帧方法,实现步骤为:(1)获取训练数据集和数据集;(2)构建基于时空联合注意力的视频插帧网络;(3)对视频插帧网络模型迭代训练;(4)获取视频插帧结果。本发明所构建的基于时空联合注意力的视频插帧模型,利用时空注意力机制去捕获输入帧之间的时空关系,并对复杂运动进行建模,完成了高质量的视频插帧。与现有的大多数网络相比,本算法不使用额外的光流输入,避免了光流估计带来的额外误差,同时使得网络参数量低,有实际应用价值。
-
公开(公告)号:CN114598833A
公开(公告)日:2022-06-07
申请号:CN202210305381.9
申请日:2022-03-25
Applicant: 西安电子科技大学
Abstract: 本发明提出了一种基于时空联合注意力的视频插帧方法,实现步骤为:(1)获取训练数据集和数据集;(2)构建基于时空联合注意力的视频插帧网络;(3)对视频插帧网络模型迭代训练;(4)获取视频插帧结果。本发明所构建的基于时空联合注意力的视频插帧模型,利用时空注意力机制去捕获输入帧之间的时空关系,并对复杂运动进行建模,完成了高质量的视频插帧。与现有的大多数网络相比,本算法不使用额外的光流输入,避免了光流估计带来的额外误差,同时使得网络参数量低,有实际应用价值。
-