全国免费咨询:

13245491521

VR图标白色 VR图标黑色
X

中高端软件定制开发服务商

与我们取得联系

13245491521     13245491521

2024-05-18_ICLR 2024爆火!杰出论文出炉!

您的位置:首页 >> 新闻 >> 行业资讯

ICLR 2024爆火!杰出论文出炉! 仅作学术分享,不代表本公众号立场,侵权联系删除 转载于:机器之心ICLR 全称为国际学习表征会议(International Conference on Learning Representations),今年举办的是第十二届,于 5 月 7 日至 11 日在奥地利维也纳展览会议中心举办。 在机器学习社区中,ICLR 是较为「年轻」的顶级学术会议,它由深度学习巨头、图灵奖获得者 Yoshua Bengio 和 Yann LeCun 牵头举办,2013 年才刚刚举办第一届。不过 ICLR 很快就获得了学术研究者们的广泛认可,被认为是深度学习的顶级会议。 本届会议共收到了 7262 篇提交论文,接收 2260 篇,整体接收率约为 31%,与去年持平(31.8%)。此外 Spotlights 论文比例为 5%,Oral 论文比例为 1.2%。 相比于往年,无论是参会人数还是论文提交量,ICLR 的热度可以说是有极大的提升。 历届 ICLR 论文数据图 在近日公布的获奖论文中,大会评选出了 5 篇杰出论文奖和 11 篇荣誉提名奖。 5 篇杰出论文奖 Outstanding Paper winners 论文:Generalization in diffusion models arises from geometry-adaptive harmonic representations 论文地址:https://openreview.net/pdf?id=ANvmVS2Yr0 机构:纽约大学、法兰西公学院 作者:Zahra Kadkhodaie 、Florentin Guth 、Eero P. Simoncelli 、Stéphane Mallat 本文对图像扩散模型的泛化和记忆方面进行了重要的深入分析。作者通过实证研究了图像生成模型何时从记忆输入切换到泛化模式,并通过几何自适应谐波表示与谐波分析的思想建立联系,从架构归纳偏差的角度进一步解释了这一现象。本文涵盖了我们对视觉生成模型理解中缺失的关键部分,对未来研究启发巨大。 论文:Learning Interactive Real-World Simulators 论文地址:https://openreview.net/forum?id=sFyTZEqmUY 机构:UC 伯克利、 Google DeepMind 、 MIT 、阿尔伯塔大学 作者:Sherry Yang、 Yilun Du 、 Kamyar Ghasemipour、Jonathan Tompson、Leslie Kaelbling、Dale Schuurmans、Pieter Abbeel 跨多个来源聚合数据以训练机器人基础模型是一个长期目标。由于不同的机器人具有不同的感知运动接口,这给跨大规模数据集的训练带来了重大挑战。 UniSim,是朝着这个方向迈出的重要一步,也是一项工程壮举,它利用了基于视觉感知和控制的文本描述的统一接口来聚合数据,并通过利用视觉和语言领域的最新发展来训练机器人模拟器。 总结而言,本文探索了通过生成模型学习真实世界交互的通用模拟器 UniSim,迈出了构建通用模拟器的第一步。例如 UniSim 可以通过模拟「打开抽屉」等高级指令和低级指令的视觉结果来模拟人类和智能体如何与世界交互。 本文将大量数据(包括互联网文本 - 图像对,来自导航、人类活动、机器人动作等的丰富数据,以及来自模拟和渲染的数据)结合到一个条件视频生成框架中。然后通过仔细编排沿不同轴的丰富数据,本文表明 UniSim 可以成功地合并不同轴数据的经验并泛化到数据之外,通过对静态场景和对象的细粒度运动控制来实现丰富的交互。 如下图 3 所示,UniSim 能够模拟一系列丰富动作,例如厨房场景中洗手、拿碗、切胡萝卜、擦干手这一系列动作;图 3 右上是按下不同的开关;图 3 下是两个导航场景。 对应上图 3 右下的导航场景 上图 3 右下的导航场景 论文:Never Train from Scratch: Fair Comparison of Long-Sequence Models Requires Data-Driven Priors 论文地址:https://openreview.net/forum?id=PdaPky8MUn 机构:特拉维夫大学、IBM 作者:Ido Amos、Jonathan Berant、Ankit Gupta 这篇论文深入探讨了最近提出的状态空间模型和 transformer 架构对建模长期序列依赖性的能力。 令人惊讶的是,作者发现从头开始训练 transformer 模型会导致其性能被低估,并且通过预训练和微调设置可以实现显著的性能提升。该论文在关注简洁性和系统性见解方面表现极佳。 论文:Protein Discovery with Discrete Walk-Jump Sampling 论文地址:https://openreview.net/forum?id=zMPHKOmQNb 机构:基因泰克、纽约大学 作者:Nathan C. Frey、Dan Berenberg、Karina Zadorozhny、Joseph Kleinhenz、Julien Lafrance-Vanasse、Isidro Hotzel、Yan Wu、Stephen Ra、Richard Bonneau、Kyunghyun Cho、Andreas Loukas、Vladimir Gligorijevic、Saeed Saremi 这篇论文解决了基于序列的抗体设计问题,这是蛋白质序列生成模型的一个及时而重要的应用。 为此,作者引入了一种创新而有效的新建模方法,用来专门针对处理离散蛋白质序列数据的问题。除了在硅中验证该方法外,作者还进行了大量的湿法实验室实验,以测量体外抗体结合亲和力,展示了他们生成方法的有效性。 论文:Vision Transformers Need Registers 论文地址:https://openreview.net/forum?id=2dnO3LLiJ1 机构:Meta 等 作者:Timothée Darcet、Maxime Oquab、Julien Mairal、Piotr Bojanowski 该篇论文识别了 vision transformer 网络的特征图中的人工痕迹,这些痕迹以低信息背景区域中的高范数 tokens 为特征。 作者提出了这种现象发生的关键假设,并提供了一个简单而优雅的解决方案,使用额外的 register tokens 来解决这些痕迹,从而增强了模型在各种任务上的性能。从这项工作中获得的见解还可以影响其他应用领域。 这篇论文行文极佳,为进行研究提供了一个很好的示范:「识别问题,理解其发生的原因,然后提出解决方案。」 11 篇荣誉提名 除了 5 篇杰出论文,ICLR 2024 还评选出了 11 篇荣誉提名奖。 论文:Amortizing intractable inference in large language models 机构:蒙特利尔大学、牛津大学 作者:Edward J Hu、Moksh Jain、Eric Elmoznino、Younesse Kaddar、Guillaume Lajoie、Yoshua Bengio、Nikolay Malkin 论文地址:https://openreview.net/forum?id=Ouj6p4ca60 这篇论文从贝叶斯推理的角度提出了一种在大型语言模型中替代自回归解码的有前景的方法,这可能会激发后续研究。 论文:Approximating Nash Equilibria in Normal-Form Games via Stochastic Optimization 机构:DeepMind 作者:Ian Gemp、Luke Marris、Georgios Piliouras 论文地址:https://openreview.net/forum?id=cc8h3I3V4E 这是一篇写得非常清晰的论文,对解决开发高效且可扩展的纳什求解器这一重要问题意义重大。 论文:Beyond Weisfeiler-Lehman: A Quantitative Framework for GNN Expressiveness 机构:北京大学、北京智源人工智能研究院 作者:张博航 盖景初 杜逸恒 叶启威 贺笛 王立威 论文地址:https://openreview.net/forum?id=HSKaGOi7Ar GNN 的表达能力是一个重要课题,而当前的解决方案仍然存在很大的局限性。作者提出了一种基于同态计数的新表达理论(expressivity theory)。 论文:Flow Matching on General Geometries 机构:Meta 作者:Ricky T. Q. Chen、Yaron Lipman 论文地址:https://openreview.net/forum?id=g7ohDlTITL 本文探讨了在一般几何流形上进行生成建模这一具有挑战性但又十分重要的问题,并提出了一种实用且高效的算法。本文的呈现非常出色,并在广泛的任务上进行了全面的实验验证。 论文:Is ImageNet worth 1 video? Learning strong image encoders from 1 long unlabelled video 机构:中佛罗里达大学、 Google DeepMind、阿姆斯特丹大学等 作者:Shashanka Venkataramanan、Mamshad Nayeem Rizve、Joao Carreira、Yuki M Asano、Yannis Avrithis 论文地址:https://openreview.net/forum?id=Yen1lGns2o 本文提出了一种新颖的自监督图像预训练方法,即通过从连续视频中学习。本文既贡献了新类型的数据,也贡献了一种从新数据中学习的方法。 论文:Meta Continual Learning Revisited: Implicitly Enhancing Online Hessian Approximation via Variance Reduction 机构:香港城市大学、腾讯 AI 实验室、西安交通大学等 作者:Yichen Wu、Long-Kai Huang、Renzhen Wang、Deyu Meng、魏颖(Ying Wei) 论文地址:https://openreview.net/forum?id=TpD2aG1h0D 作者提出了一种新的元连续学习方差减少方法。该方法表现良好,不仅具有实际影响,而且还得到了 regret 分析的支持。 论文:Model Tells You What to Discard: Adaptive KV Cache Compression for LLMs 机构:伊利诺伊大学厄巴纳 - 香槟分校、微软 作者:Suyu Ge、Yunan Zhang、Liyuan Liu、Minjia Zhang、Jiawei Han、Jianfeng Gao 论文地址:https://openreview.net/forum?id=uNrFpDPMyo 本文针对 KV 缓存压缩问题(该问题对基于 Transformer 的 LLM 影响很大),通过一个简单的想法来减少内存,并且无需耗费大量资源进行微调或重新训练即可部署。这种方法非常简单,事实证明它非常有效。 论文:Proving Test Set Contamination in Black-Box Language Models 机构:斯坦福大学、哥伦比亚大学 作者:Yonatan Oren、Nicole Meister、Niladri S. Chatterji、Faisal Ladhak、Tatsunori Hashimoto 论文地址:https://openreview.net/forum?id=KS8mIvetg2 本文使用了一个简单而优雅的方法,用于测试受监督的学习数据集是否已被包含在大型语言模型的训练中。 论文:Robust agents learn causal world models 机构:Google DeepMind 作者:Jonathan Richens、Tom Everitt 论文地址:https://openreview.net/forum?id=pOoKI3ouv1 这篇论文在奠定理论基础方面取得了长足进展,以便理解因果推理在智能体推广到新领域的能力中所起到的作用,对一系列相关领域也产生了影响。 论文:The mechanistic basis of data dependence and abrupt learning in an in-context classification task 机构:普林斯顿大学、哈佛大学等 作者:Gautam Reddy 论文地址:https://openreview.net/forum?id=aN4Jf6Cx69 这是一项及时而极其系统性的研究,探讨了我们在开始理解这些现象的时候,in-context 学习与 in-weight 学习之间的机制。 论文:Towards a statistical theory of data selection under weak supervision 机构:Granica Computing 作者:Germain Kolossov、Andrea Montanari、Pulkit Tandon 论文地址:https://openreview.net/forum?id=HhfcNgQn6p 这篇论文为数据子集选择建立了统计基础,并确定了流行的数据选择方法的缺点。 参考链接:https://blog.iclr.cc/2024/05/06/iclr-2024-outstanding-paper-awards/ 推荐阅读 MIT新晋副教授何恺明《计算机视觉进展》课程,附Slides与资料下载 西电IEEE Fellow团队出品!最新《Transformer视觉表征学习全面综述》如何做好科研?这份《科研阅读、写作与报告》PPT,手把手教你做科研奖金675万!3位科学家,斩获“中国诺贝尔奖”!最新 2022「深度学习视觉注意力 」研究概述,包括50种注意力机制和方法!【重磅】斯坦福李飞飞《注意力与Transformer》总结,84页ppt开放下载!2021李宏毅老师最新40节机器学习课程!附课件+视频资料 欢迎大家加入DLer-计算机视觉技术交流群! 大家好,群里会第一时间发布计算机视觉方向的前沿论文解读和交流分享,主要方向有:图像分类、Transformer、目标检测、目标跟踪、点云与语义分割、GAN、超分辨率、人脸检测与识别、动作行为与时空运动、模型压缩和量化剪枝、迁移学习、人体姿态估计等内容。 进群请备注:研究方向+学校/公司+昵称(如图像分类+上交+小明) ??长按识别,邀请您进群!

上一篇:2022-01-10_「美国金球奖」背后, 那些值得注意的细节! 下一篇:2024-10-07_Cursor创始团队最新访谈:如果Github整合o1,Cursor可能要倒闭了

TAG标签:

15
网站开发网络凭借多年的网站建设经验,坚持以“帮助中小企业实现网络营销化”为宗旨,累计为4000多家客户提供品质建站服务,得到了客户的一致好评。如果您有网站建设网站改版域名注册主机空间手机网站建设网站备案等方面的需求...
请立即点击咨询我们或拨打咨询热线:13245491521 13245491521 ,我们会详细为你一一解答你心中的疑难。
项目经理在线

相关阅读 更多>>

猜您喜欢更多>>

我们已经准备好了,你呢?
2022我们与您携手共赢,为您的企业营销保驾护航!

不达标就退款

高性价比建站

免费网站代备案

1对1原创设计服务

7×24小时售后支持

 

全国免费咨询:

13245491521

业务咨询:13245491521 / 13245491521

节假值班:13245491521()

联系地址:

Copyright © 2019-2025      ICP备案:沪ICP备19027192号-6 法律顾问:律师XXX支持

在线
客服

技术在线服务时间:9:00-20:00

在网站开发,您对接的直接是技术员,而非客服传话!

电话
咨询

13245491521
7*24小时客服热线

13245491521
项目经理手机

微信
咨询

加微信获取报价