全国免费咨询:

13245491521

VR图标白色 VR图标黑色
X

中高端软件定制开发服务商

与我们取得联系

13245491521     13245491521

2023-09-29_只需1%参数,效果超越ControlNet,新AI绘画控制大师来袭

您的位置:首页 >> 新闻 >> 行业资讯

只需1%参数,效果超越ControlNet,新AI绘画控制大师来袭 来源:量子位 “新·AI绘画细节控制大师”ControlNet-XS来啦! 敲重点的是参数只要原始ControlNet的1%。 就能做到蛋糕口味随意切换: △左图为改前改变一个人的行头也轻轻松松: 上图同款,身形不变艺术氛围感拉满: 自然风光也能hou住,一年四季任意切换: 还有这猫头鹰,直接从活物变雕塑: 参数很小的情况下,能做到这样的效果,网友也是直呼绝绝子,并迫不及待想看论文。 ControlNet-XS由海德堡大学计算机视觉实验室研发,目前相关论文、预训练模型还未公布。 但研究人员表示ControlNet-XSFID分数明显优于ControlNet。 且控制Stable Diffusion-XL和Stable Diffusion 2.1的代码将在不久后开源。 新生代控制大师 先来康康对StableDiffusion-XL的控制。 研究人员在评估了不同大小的控制模型后发现,控制模型甚至不必和2.6B参数的StableDiffusion-XL基础网络大小一样。 400M、104M和48M参数的ControlNet-XS控制也很明显。 深度图给出了更为直观的展示,根据图像内容的距离、深度,深度图呈现出准确的颜色深浅度: 要注意的是,这里研究人员设置的每行seed值不同,每列seed值相同。 此外,还有Canny边缘检测图,物体的边界、轮廓都能清晰地展现出来: 对StableDiffusion的控制,研究人员则是评估了491M、55M和14M参数的三个版本的ControlNet-XS。 结果表明1.6%的参数(865M)也能够可靠地控制生成过程。 那这是如何做到的呢? 从头开始训练原始ControlNet是StableDiffusion基础模型(base model)中U-Net编码器的副本,所以接收与基础模型相同的输入,并带有额外的引导信号,比如说边缘图。 然后,经过训练的ControlNet的中间输出被添加到基础模型的解码器层的输入中。在ControlNet的整个训练过程中,基础模型的权重保持冻结状态。 ControlNet-XS的研究者们认为这种方法存在问题,ControlNet不必这么庞大。 首先是Stable Diffusion最终输出图像,是在一系列步骤中迭代生成的。每个步骤会在U-Net网络结构的编码器(Encoder)和解码器(Decoder)两部分中执行。 每次迭代基础模型和控制模型的输入是前一个步骤生成的图像。控制模型还接收一个控制图像。 问题在于,在编码器阶段这两个模型都独立运行,而控制模型的反馈只在基础模型的解码阶段输入。 总之,结果就是一个延迟的校正/控制机制。 也就是说ControlNet必须执行两项任务:一边校正/控制,一边还要提前预测基本模型的编码器将犯哪些“错误”。 通过暗示图像生成和控制需要相似的模型容量,自然而然地可以用基础模型的权重初始化ControlNet的权重,然后进行微调。 而对于ControlNet-XS,研究人员表示从设计上就与基础模型不同,是从零开始训练ControlNet-XS权重,解决了延迟反馈的问题。 如上图所示,方法是从基础模型的编码器添加连接到控制编码器(A),这样校正过程可以更快地适应基础模型的生成过程。但这并不能完全消除延迟,因为基础模型的编码器仍然没有受到引导。 因此,研究人员从ControlNet-XS添加额外的连接到基础模型编码器,直接影响整个生成过程(B)。 此外,他们还评估了在ControlNet设置中使用镜像解码架构是否有用(C)。 最终,研究人员在COCO2017验证集上,针对Canny边缘引导的三种不同变体(A、B、C)与原始的ControlNet进行了FID分数性能评估。 结果所有变体都有了显著提升,同时仅使用了原始ControlNet参数的一小部分。 研究人员又拿出了变体B,分别使用Canny边缘图和深度图引导,针对StableDiffusion2.1和StableDiffusion-XL分别训练了三种不同大小的模型。 所以下一步就等相关论文、代码以及预训练模型公布啦~ 项目地址:https://vislearn.github.io/ControlNet-XS/ 推荐阅读 西电IEEE Fellow团队出品!最新《Transformer视觉表征学习全面综述》润了!大龄码农从北京到荷兰的躺平生活(文末有福利哟!)如何做好科研?这份《科研阅读、写作与报告》PPT,手把手教你做科研奖金675万!3位科学家,斩获“中国诺贝尔奖”!又一名视觉大牛从大厂离开!阿里达摩院 XR 实验室负责人谭平离职 最新 2022「深度学习视觉注意力 」研究概述,包括50种注意力机制和方法!【重磅】斯坦福李飞飞《注意力与Transformer》总结,84页ppt开放下载!2021李宏毅老师最新40节机器学习课程!附课件+视频资料 欢迎大家加入DLer-计算机视觉技术交流群! 大家好,群里会第一时间发布计算机视觉方向的前沿论文解读和交流分享,主要方向有:图像分类、Transformer、目标检测、目标跟踪、点云与语义分割、GAN、超分辨率、人脸检测与识别、动作行为与时空运动、模型压缩和量化剪枝、迁移学习、人体姿态估计等内容。 进群请备注:研究方向+学校/公司+昵称(如图像分类+上交+小明) ??长按识别,邀请您进群!

上一篇:2019-02-14_「全民体验」AlphaZero:FAIR田渊栋首次开源超级围棋AI 下一篇:2025-04-01_一脑多机!智源的新发布,让不同机器人轻松协作

TAG标签:

18
网站开发网络凭借多年的网站建设经验,坚持以“帮助中小企业实现网络营销化”为宗旨,累计为4000多家客户提供品质建站服务,得到了客户的一致好评。如果您有网站建设网站改版域名注册主机空间手机网站建设网站备案等方面的需求...
请立即点击咨询我们或拨打咨询热线:13245491521 13245491521 ,我们会详细为你一一解答你心中的疑难。
项目经理在线

相关阅读 更多>>

猜您喜欢更多>>

我们已经准备好了,你呢?
2022我们与您携手共赢,为您的企业营销保驾护航!

不达标就退款

高性价比建站

免费网站代备案

1对1原创设计服务

7×24小时售后支持

 

全国免费咨询:

13245491521

业务咨询:13245491521 / 13245491521

节假值班:13245491521()

联系地址:

Copyright © 2019-2025      ICP备案:沪ICP备19027192号-6 法律顾问:律师XXX支持

在线
客服

技术在线服务时间:9:00-20:00

在网站开发,您对接的直接是技术员,而非客服传话!

电话
咨询

13245491521
7*24小时客服热线

13245491521
项目经理手机

微信
咨询

加微信获取报价