全国免费咨询:

13245491521

VR图标白色 VR图标黑色
X

中高端软件定制开发服务商

与我们取得联系

13245491521     13245491521

2024-01-16_你们要的高清视频,它来了。。。

您的位置:首页 >> 新闻 >> 行业资讯

你们要的高清视频,它来了。。。 来源:机器之心 以后,就算是跑着拍视频,FMA-Net也能给你处理得非常满意。 Magnific 图像超分 & 增强工具还正在火热体验中,它强大的图像升频与再创能力收获一致好评。现在,视频领域也有了自己的 Magnific。 拍摄的街道视频一片模糊,仿佛高度近视没戴眼镜一样: 与之相比,下面的视频清晰度高了很多: 视频画面两边形成鲜明的对比:左边视频已经模糊的看不清人脸,而右边视频建筑物的纹理也看得清清楚楚: ? 行驶的汽车仿佛从一个模糊的世界穿越到高清世界: 不同的方法进行比较,明显看到右下角的视频在微小的细节恢复方面更加清晰: 通过上述展示,我们可以看出,视频超分辨率(VSR)就像是给模糊的老电影穿上了高清新衣。比如上面展示的一段道路监控录像,由于画质太低,细节看起来像是被涂抹过一样。这时候就需要 VSR 技术出场了,它能够把这些低分辨率的视频变得更加清晰。 不过,这个过程并不简单。常常因为摄像机晃动或拍摄物体的移动,视频就像是被风吹过的湖面,波纹模糊。这时,我们不仅需要提升视频的清晰度,还得「摆平」这些模糊的干扰。这就需要视频超分辨率和去模糊的联合修复(VSRDB),它要在保持视频清晰度的同时,还得处理模糊,确保最后呈现出来的视频既清晰又流畅。 为了实现上述效果,来自韩国科学技术院(KAIST)与中央大学的研究者们提出了 FMA-Net 框架。这个框架基于流引导的动态滤波(Flow-Guided Dynamic Filtering, FGDF)和迭代特征细化的多重注意力机制(Iterative Feature Refinement with Multi-Attention, FRMA),旨在实现从小到大的运动表示学习,并具有良好的联合恢复性能(见图 1)。FGDF 的关键之处在于执行滤波时要注意运动轨迹,而不是拘泥于固定位置,这样就能用较小的核有效处理较大的运动。 论文地址:https://arxiv.org/abs/2401.03707项目主页:http://kaist-viclab.github.io/fmanet-site/论文标题:FMA-Net: Flow-Guided Dynamic Filtering and Iterative Feature Refinement with Multi-Attention for Joint Video Super-Resolution and Deblurring 方法介绍 该研究的目标是同时实现视频超分辨率和去模糊(VSRDB)。对于一个模糊的 LR(低分辨率, low-resolution )输入序列,式中 T = 2N + 1、c 分别表示输入帧数和中心帧索引。VSRDB 的目标是预测一个清晰的 HR( 高分辨率,high-resolution )中心框架。如下图展示了 VSRDB 框架 FMA-Net。 FMA-Net 包括两部分:退化学习网络 Net^D ;修复网络 Net^R 。退化学习网络用于估计感知运动的时空变化退化核;修复网络利用这些预测出的退化核来恢复模糊的低分辨率视频。 其中,退化学习网络 Net^D 用来预测运动感知的时空变化退化,而 Net^R 以全局自适应的方式利用 Net^D 预测的退化来恢复中心帧 X_c。 Net^D 和 Net^R 具有相似的结构,它们由 FRMA( feature refinement with multiattention )块和 FGDF( flow-guided dynamic filtering )块组成。 下图 4 (a) 显示了第 (i+1) 步更新时 FRMA 块的结构,图 4 (b) 为多注意力结构。 下图 2 展示了 FGDF 概念。FGDF 看起来类似于可变形卷积(DCN),但不同之处在于 FGDF 学习的是位置相关的 n×n 动态滤波器系数,而 DCN 学习的是位置不变的 n×n 滤波器系数。 此外,新提出的多注意力机制,包括以中心为导向的注意力和退化感知注意力,使得 FMA-Net 能够专注于目标帧,并以全局适应的方式使用退化核进行视频超分辨率和去模糊。 训练策略 该研究采用两阶段的训练策略来训练 FMA-Net。首先对 Net^D 进行预训练,损失 L_D 为: 然后,为了提高性能,本文还提出了 TA 损失,即等式右侧的最后一项。 总的训练损失为: 实验结果 表 1 显示了在测试集 REDS4 上的定量比较结果。从表 1 可以看出: 级联 SR 和去模糊的序列方法会导致先前模型的错误传播,导致性能显著下降,并且使用两个模型还会增加内存和运行时成本;与序列级联方法相比,VSRDB 方法始终表现出优越的整体性能,表明这两个任务高度相关;FMA-Net 在 PSNR、SSIM 和 tOF 方面显著优于所有 SOTA 方法,具体来说,FMA-Net 比 SOTA 算法 RVRT * 和 BasicVSR++* 分别提高了 1.03 dB 和 1.77 dB。 表 2 为定量比较结果。当对两个测试集进行平均时,FMA-Net 的性能分别比 RVRT * 和 GShiftNet * 提高了 2.08 dB 和 1.93 dB。 下图为不同方法对 ×4 VSRDB 的可视化比较结果,表明 FMA-Net 生成的图像比其他方法生成的图像在视觉上更清晰。 不同方法在 REDS4、GoPro 和 YouTube 测试集上的可视化结果。放大观看效果最好。 了解更多技术细节,请阅读原文。推荐阅读 西电IEEE Fellow团队出品!最新《Transformer视觉表征学习全面综述》润了!大龄码农从北京到荷兰的躺平生活(文末有福利哟!)如何做好科研?这份《科研阅读、写作与报告》PPT,手把手教你做科研奖金675万!3位科学家,斩获“中国诺贝尔奖”!又一名视觉大牛从大厂离开!阿里达摩院 XR 实验室负责人谭平离职 最新 2022「深度学习视觉注意力 」研究概述,包括50种注意力机制和方法!【重磅】斯坦福李飞飞《注意力与Transformer》总结,84页ppt开放下载!2021李宏毅老师最新40节机器学习课程!附课件+视频资料 欢迎大家加入DLer-计算机视觉技术交流群! 大家好,群里会第一时间发布计算机视觉方向的前沿论文解读和交流分享,主要方向有:图像分类、Transformer、目标检测、目标跟踪、点云与语义分割、GAN、超分辨率、人脸检测与识别、动作行为与时空运动、模型压缩和量化剪枝、迁移学习、人体姿态估计等内容。 进群请备注:研究方向+学校/公司+昵称(如图像分类+上交+小明) ??长按识别,邀请您进群!

上一篇:2018-12-09_NeurIPS 2018 | 华为联合LSE提出KONG:有序近邻图的核函数 下一篇:2024-07-03_线下报名|腾讯研究院 AI&Society 高端研讨会第二期:AI时代的人机关系展望

TAG标签:

14
网站开发网络凭借多年的网站建设经验,坚持以“帮助中小企业实现网络营销化”为宗旨,累计为4000多家客户提供品质建站服务,得到了客户的一致好评。如果您有网站建设网站改版域名注册主机空间手机网站建设网站备案等方面的需求...
请立即点击咨询我们或拨打咨询热线:13245491521 13245491521 ,我们会详细为你一一解答你心中的疑难。
项目经理在线

相关阅读 更多>>

猜您喜欢更多>>

我们已经准备好了,你呢?
2022我们与您携手共赢,为您的企业营销保驾护航!

不达标就退款

高性价比建站

免费网站代备案

1对1原创设计服务

7×24小时售后支持

 

全国免费咨询:

13245491521

业务咨询:13245491521 / 13245491521

节假值班:13245491521()

联系地址:

Copyright © 2019-2025      ICP备案:沪ICP备19027192号-6 法律顾问:律师XXX支持

在线
客服

技术在线服务时间:9:00-20:00

在网站开发,您对接的直接是技术员,而非客服传话!

电话
咨询

13245491521
7*24小时客服热线

13245491521
项目经理手机

微信
咨询

加微信获取报价