分享一篇来自CVPR2024的视频插帧工作《Perception-Oriented Video Frame Interpolation via Asymmetric Blending》。
该论文提出的视频插帧算法PerVFI在视觉效果上实现了新的突破。同时,论文阐述了新的视频插帧范式,有效解决现有插帧算法的痛点。
https://openaccess.thecvf.com/content/CVPR2024/html/Wu_Perception-Oriented_Video_Frame_Interpolation_via_Asymmetric_Blending_CVPR_2024_paper.html
https://github.com/mulns/PerVFI
视频插帧技术一直是视频处理中的关键任务之一。给定特定时刻的视频图像(参考帧),视频插帧技术旨在合成中间时刻的图像,从而将低帧率的视频转化为高帧率视频。视频插帧技术可以被广泛用于多媒体行业,例如视频生成、视频质量优化、视频剪辑等。
尽管基于神经网络的视频插帧技术正在快速更新优化,现有的算法仍然面临以下问题:生成的视频普遍存在模糊、重影问题。这篇论文总结这类问题的产生原因如下:
1.对无法避免的运动误差考虑不足。无论使用光流算法还是插帧算法自带的运动估计器,都无法避免会存在运动误差,尤其是在图像运动幅度较大的情况下。在此情况下不加以特别处理的话,容易出现重影问题。
2.由于训练数据中的ground-truth图像并不是唯一解,且存在与目标时间不对齐的问题。在此情况下,训练时使用重建损失容易导致结果模糊。
在面向感知的图像质量评价指标LPIPS和视频插帧质量评价指标FloLPIPS、VFIPS上,PerVFI算法都远优于其他算法。
更多视觉质量可视化可以参考项目主页:
https://mulns.github.io/pervfi-page/