通过自适应卷积的视频帧插值——CGB
论文链接:https://arxiv.org/abs/1703.07514 论文题目: Video Frame Interpolation via Adaptive Convolution (通过自适应卷积的视频帧插值) 发表时间: 2017 年 CVPR 作者及其背景: Simon Niklaus, Long Mai, Feng Liu (波特兰州立大学 Portland State University ) 1.提出问题 传统视频帧插值方法是两步走:运动估计和像素合成。运动估计一般使用光流法 optical flow ,光流法的难点在于遮挡,污渍和突然的光环境变化。基 于流的像素综合也不能很可靠地处理遮挡的问题。 2.解决办法 之前的插值是两步走的:运动估计 motion estimation 和像素合成 pixel synthesis 。文章提出了一种鲁棒的视频帧插值方法,该方法使用深度卷积 神经网络实现帧插值,而无需将其明确划分为单独的步骤。这个方法中用来生成插值帧 interpolated frame 的“像素合 成”法 pixel synthesis ,就是作用在 两个输入图像之间局部卷积 local convolution ( 也就是说,对两张输入图片进行像素级别的卷积,可以生成一张 插值图片 )。这个卷积核作者号称可以捕获两帧图片之间的局部运动