全国免费咨询:

13245491521

VR图标白色 VR图标黑色
X

中高端软件定制开发服务商

与我们取得联系

13245491521     13245491521

2021-10-23_假3D场景逼真到火爆外网!超1亿像素无死角,被赞AI渲染新高度

您的位置:首页 >> 新闻 >> 行业资讯

假3D场景逼真到火爆外网!超1亿像素无死角,被赞AI渲染新高度 来源:量子位 先来看一段“视频”,有没有看出什么不对劲的地方? 其实,这仅仅是由一组照片渲染出来的(右下角为拍摄照片)! 生成的也不仅仅是一段视频,更是一个3D场景模型,不仅能任意角度随意切换、高清无死角,还能调节曝光、白平衡等参数,生成船新的照片: 在完全不同的场景下,例如一个坦克厂中,同样能用一组照片渲染出逼真3D场景,相同角度与真实拍摄图像几乎“完全一致”: 要知道,之前苹果虽然也做过一组照片生成目标物体3D模型的功能,但最多就是一件物体,例如一只箱子: 这次可是整个3D场景! 这是德国埃尔朗根-纽伦堡大学的几位研究人员做的项目,效果一出就火得不行,在国外社交媒体上赞数超过5k,阅读量达到36w+。 那么,这样神奇的效果,究竟是怎么生成的呢? 用照片还原整个3D场景图整体来说,这篇论文提出了一种基于点的可微神经渲染流水线ADOP(Approximate Differentiable One-Pixel Point Rendering),用AI分析输入图像,并输出新角度的新图像。 在输入时,由于需要建模3D场景,因此这里的照片需要经过严格拍摄,来获取整个场景的稀疏点云数据。 具体来说,作者在从照片获取点云数据时,采用了COLMAP。 先从多个不同的角度拍摄场景中的照片,其中每张照片的视角都会经过严格控制。 然后采用SfM(Structure From Motion,运动恢复结构)方法,来获取相机内外参数,得到整个场景的3D重建数据,也就是表示场景结构的稀疏点云: 然后,包含点云等信息的场景数据会被输入到流水线中,进行进一步的处理。 流水线(pipeline)主要分为三个部分:可微光栅化器、神经渲染器和可微色调映射器。 首先,利用多分辨率的单像素点栅格化可微渲染器(可微光栅化器),将输入的相机参数、重建的点云数据转换成稀疏神经图像。 其中,模型里关于图像和点云对齐的部分,采用了NavVis数据集来训练。 然后,利用神经渲染器,对稀疏神经图像进行阴影计算和孔洞填充,生成HDR图片。 最后,由于不是每个设备都支持HDR画面,因此在显示到LDR设备之前,还需要利用基于物理的可微色调映射器改变动态范围,将HDR图像变成LDR图像。 每个场景300+图像训练这个新模型的优势在哪里? 由于模型的所有阶段都可微,因此这个模型能够优化场景所有参数(相机模型、相机姿势、点位置、点颜色、环境图、渲染网络权重、渐晕、相机响应函数、每张图像的曝光和每张图像的白平衡),并用来生成质量更高的图像。 具体到训练上,作者先是采用了688张图片(包含73M个点)来训练这个神经渲染流水线(pipeline)。 针对demo中的几个场景(火车、灯塔、游乐园、操场等),作者们分别用高端摄像机拍摄了300~350张全高清图像,每个场景生成的像素点数量分别为10M、8M、12M和11M,其中5%的图像用作测试。 也就是说,制作这样一个3D场景,大约需要几百张图像,同时每张图像的拍摄需要经过严格的角度控制。 不过仍然有读者表示,拍几百张图像就能用AI做个场景出来,这个速度比当前人工渲染是要快多了。 功能上,模型既能生成可以调节参数的新角度照片,还能自动插值生成全场景的3D渲染视频,可以说是挺有潜力的。 那么,这个模型的效果与当前其他模型的渲染效果相比如何呢? 实时显示1亿+像素点场景据作者表示,论文中采用的高效单像素点栅格化方法,使得ADOP能够使用任意的相机模型,并实时显示超过1亿个像素点的场景。 肉眼分辨生成结果来看,采用同行几个最新模型生成的图片,或多或少会出现一些伪影或是不真实的情况,相比之下ADOP在细节上处理得都非常不错: 从数据来看,无论是火车、操场、坦克还是灯塔场景,在ADOP模型的渲染下,在VGG、LPIPS和PSNR上几乎都能取得最优秀的结果(除了坦克的数据)。 不过,研究本身也还具有一些局限性,例如单像素点渲染仍然存在点云稀疏时,渲染出现孔洞等问题。 但整体来看,实时显示3D场景的效果还是非常出类拔萃的,不少业内人士表示“达到了AI渲染新高度”。 已经有不少网友开始想象这项研究的用途,例如给电影制片厂省去一大波时间和精力: (甚至有电影系的学生想直接用到毕设上) 对游戏行业影响也非常不错: 在家就能搞3A大作的场景,是不是也要实现了?简直让人迫不及待。 还有人想象,要是能在iPhone上实现就好了(甚至已经给iPhone 15预定上了): 对于研究本身,有网友从行外人视角看来,感觉更像是插帧模型(也有网友回应说差不多是这样): 也有网友表示,由于需要的图像比较多,效果没有宣传中那么好,对研究潜力持保留态度: 虽然目前作者们已经建立了GitHub项目,但代码还没有放出来,感兴趣的同学们可以先蹲一波。 至于具体的开源时间,作者们表示“会在中了顶会后再放出来”。(祝这篇论文成功被顶会收录~) 论文地址: https://arxiv.org/abs/2110.06635 项目地址(代码还没po出来): https://github.com/darglein/ADOP 参考链接: [1]https://www.reddit.com/r/MachineLearning/comments/q9phnq/r_adop_approximate_differentiable_onepixel_point/ [2]https://twitter.com/ak92501/status/1448489762990563331 [3]https://developer.apple.com/augmented-reality/object-capture/ 推荐阅读【重磅】斯坦福李飞飞《注意力与Transformer》总结,84页ppt开放下载! 一文总结微软研究院Transformer霸榜模型三部曲! Swin Transformer为主干,清华等提出MoBY自监督学习方法,代码已开源 加性注意力机制!清华和MSRA提出Fastformer:又快又好的Transformer新变体! MLP进军下游视觉任务!目标检测与分割领域最新MLP架构研究进展! 周志华教授:如何做研究与写论文?(附完整的PPT全文) 都2021 年了,AI大牛纷纷离职!各家大厂的 AI Lab 现状如何? 常用 Normalization 方法的总结与思考:BN、LN、IN、GN 注意力可以使MLP完全替代CNN吗?未来有哪些研究方向? 欢迎大家加入DLer-计算机视觉&Transformer群! 大家好,这是计算机视觉&Transformer论文分享群里,群里会第一时间发布最新的Transformer前沿论文解读及交流分享会,主要设计方向有:图像分类、Transformer、目标检测、目标跟踪、点云与语义分割、GAN、超分辨率、视频超分、人脸检测与识别、动作行为与时空运动、模型压缩和量化剪枝、迁移学习、人体姿态估计等内容。 进群请备注:研究方向+学校/公司+昵称(如Transformer+上交+小明) ??长按识别,邀请您进群!

上一篇:2024-11-28_Lemaire的短片,氛围感如同一块磁铁 下一篇:2023-11-17_粉“斯”众测 | 专业动平衡液压云台 PH8 抢先体验!

TAG标签:

12
网站开发网络凭借多年的网站建设经验,坚持以“帮助中小企业实现网络营销化”为宗旨,累计为4000多家客户提供品质建站服务,得到了客户的一致好评。如果您有网站建设网站改版域名注册主机空间手机网站建设网站备案等方面的需求...
请立即点击咨询我们或拨打咨询热线:13245491521 13245491521 ,我们会详细为你一一解答你心中的疑难。
项目经理在线

相关阅读 更多>>

猜您喜欢更多>>

我们已经准备好了,你呢?
2022我们与您携手共赢,为您的企业营销保驾护航!

不达标就退款

高性价比建站

免费网站代备案

1对1原创设计服务

7×24小时售后支持

 

全国免费咨询:

13245491521

业务咨询:13245491521 / 13245491521

节假值班:13245491521()

联系地址:

Copyright © 2019-2025      ICP备案:沪ICP备19027192号-6 法律顾问:律师XXX支持

在线
客服

技术在线服务时间:9:00-20:00

在网站开发,您对接的直接是技术员,而非客服传话!

电话
咨询

13245491521
7*24小时客服热线

13245491521
项目经理手机

微信
咨询

加微信获取报价