博客
关于我
ECCV18 Oral | MIT&谷歌视频运动放大让计算机辅助人眼“明察秋毫”
阅读量:106 次
发布时间:2019-02-26

本文共 939 字,大约阅读时间需要 3 分钟。

出处“来自微信公众号:我爱计算机视觉”

ECCV18 Oral | MIT&谷歌视频运动放大让计算机辅助人眼“明察秋毫”

原文:

本文来自ECCV 2018 选为Oral的论文《Learning-based Video Motion Magnification》,代码已开源,作者信息:

(欢迎关注“我爱计算机视觉”公众号,一个有价值有深度的公众号~)

什么是视频运动放大技术?
视频运动放大技术是一种从视频到视频的滤波处理,可以使我们能够看到在视频中肉眼看不到的小的运动,例如振动飞机机翼的动作,或者在风的影响下摇摆的建筑物等。这在衡量建筑物的结构健康程度和医疗环境中人体生命信号检测中有非常重要的应用。
由于这种运动往往很小,因此放大后的效果容易产生噪音或过度模糊。现有技术使用手工设计的滤波器来提取运动表示,往往不是最佳的。

在本文中,试图直接使用深度卷积神经网络从已有样本中学习滤波器。为了方便训练,该文仔细设计了一个人工合成的数据集,该数据集可以很好地捕捉视频中小的运动,用两帧图像作为输入就可以训练。
本文是第一个使用卷积神经网络在人工合成数据上学习运动放大滤波器的工作,实验证明经过学习得到的过滤器在真实视频上与之前的方法相比获得更高质量的视觉效果,明显减少了振铃伪像和噪声放大。

 

上图中原始视频的局部区域被截取出来,红色代表的是被放大的采样区域,波浪条纹代表着被放大的运动,原始图像看不出运动,中间的能看出波浪状的变形但有很明显的伪影,而右边使用本文方法的结果不仅波浪状变形被发现而且大大减少了伪影。
这是一个高速运动物体的例子,请看原始帧红色采样区域(请注意它非物体运动区域,不应该有运动)对应的算法处理结果,之前的方法出现了明显的伪影,而该文的方法则较好的保留了静止状态。

网络架构

数据合成方法

使用MSCOCO数据集中的200000幅图像做前景,使用PASCAL VOC数据集中7000个分割出的目标做背景,按照一定的运动系数、尺度系数等直接合成运动模拟图像。

处理结果示例:

论文:

https://arxiv.org/abs/1804.02684

代码已经开源:

https://github.com/12dmodel/deep_motion_mag

转载地址:http://uopz.baihongyu.com/

你可能感兴趣的文章
MongoDB出现Error parsing command line: unrecognised option ‘--fork‘ 的解决方法
查看>>
mxGraph改变图形大小重置overlay位置
查看>>
MongoDB可视化客户端管理工具之NoSQLbooster4mongo
查看>>
Mongodb学习总结(1)——常用NoSql数据库比较
查看>>
MongoDB学习笔记(8)--索引及优化索引
查看>>
mongodb定时备份数据库
查看>>
mppt算法详解-ChatGPT4o作答
查看>>
mpvue的使用(一)必要的开发环境
查看>>
MQ 重复消费如何解决?
查看>>
mqtt broker服务端
查看>>
MQTT 保留消息
查看>>
MQTT 持久会话与 Clean Session 详解
查看>>
MQTT介绍及与其他协议的比较
查看>>
MQTT工作笔记0007---剩余长度
查看>>
MQTT工作笔记0008---服务质量
查看>>
MQTT工作笔记0009---订阅主题和订阅确认
查看>>
Mqtt搭建代理服务器进行通信-浅析
查看>>
MS COCO数据集介绍
查看>>
MS Edge浏览器“STATUS_INVALID_IMAGE_HASH“兼容性问题
查看>>
ms sql server 2008 sp2更新异常
查看>>