4006-998-758
新闻动态

华人横扫ICLR 2025杰出论文奖,三篇均为华人一作,中科大何向南团队/清华姚班北大校友在列

2025-04-25
华人横扫ICLR 2025杰出论文奖,三篇均为华人一作,中科大何向南团队/清华姚班北大校友在列(图1)


ICLR 2025杰出论文揭晓!
从11672篇中突出重围,共有三篇获奖论文,他们均有华人参与——
包括清华姚班、北大校友,OpenAI、DeepMind大厂技术人员以及中科大何向南团队。
华人横扫ICLR 2025杰出论文奖,三篇均为华人一作,中科大何向南团队/清华姚班北大校友在列(图2)
获奖的论文分别是:

  • Safety Alignment Should be Made More Than Just a Few Tokens Deep
  • Learning Dynamics of LLM Finetuning * AlphaEdit: Null-Space Constrained Knowledge Editing for Language Models

华人横扫ICLR 2025杰出论文奖,三篇均为华人一作,中科大何向南团队/清华姚班北大校友在列(图3)
这三篇均是华人学生为一作:OpenAI研究员漆翔宇、不列颠哥伦比亚大学Yi Ren以及新国立的Junfeng Fang,中科大Houcheng Jiang。其中最后一篇是由全华人团队完成。
一起来看看这三篇论文说了啥。

▶均是华人学生为一作
论文1:Safety Alignment Should be Made More Than Just a Few Tokens Deep
华人横扫ICLR 2025杰出论文奖,三篇均为华人一作,中科大何向南团队/清华姚班北大校友在列(图4)
该研究由普林斯顿大学、DeepMind的研究人员完成,其中华人包括普林斯顿漆翔宇,他博士已毕业,目前在OpenAI当技术人员。
同样从普林斯顿博士毕业的还有吕凯风,今年6月他将前往清华叉院担任助理教授,本科毕业于清华姚班。还有DeepMind的Ma Xiao,本科毕业于北大。
这篇论文主要讨论了当前大语言模型在安全对齐方面存在的一个关键问题:安全对齐不够深入,仅仅停留在前几个输出token,并提出了相应的改进方法,包括数据增强、约束优化,都取得了很好的效果。
作者强调:未来的安全对齐不能只做 “表面功夫”,而要真正深入模型的生成逻辑。
论文2:Learning Dynamics of LLM Finetuning
华人横扫ICLR 2025杰出论文奖,三篇均为华人一作,中科大何向南团队/清华姚班北大校友在列(图5)
该研究由UBC(不列颠哥伦比亚大学)团队完成。
大语言模型微调对对齐人类偏好至关重要,但现有分析缺乏动态视角。本文引入学习动力学框架,解析大模型在指令微调(SFT)和偏好微调(如 DPO)中参数更新对预测的影响,旨在解释幻觉、重复生成等现象并优化对齐性能。
特别地,团队提出了一种假设性解释,说明为什么特定类型的幻觉在微调后会得到加强,例如,模型可能会使用问题B回答中的短语或事实来回答问题 A,或者模型可能会在生成回答时不断重复类似的简单短语。另外他们扩展了框架,强调了一种 “挤压效应”,来解释运行 DPO 时间过长甚至会降低预期输出的可能性。这一分析不仅为理解大模型的微调提供了一个新的视角,还启发了一种简单有效的方法来提高对齐性能。
论文3:AlphaEdit: Null-Space Constrained Knowledge Editing for Language Models
华人横扫ICLR 2025杰出论文奖,三篇均为华人一作,中科大何向南团队/清华姚班北大校友在列(图6)
该研究由中科大何向南团队、新加坡国立大学蔡达成团队等组成的全华人团队完成。
大型语言模型(LLM)经常会出现幻觉,产生错误或过时的知识。因此,为了实现有针对性的知识更新,模型编辑方法应运而生。为了实现这一目标,一种流行的范式是定位编辑法,这种方法首先定位有影响力的参数,然后通过引入扰动对其进行编辑。但这种扰动不可避免地会破坏LLMs 中原本保存的知识,尤其是在连续编辑的情况下。
这篇论文提出了AlphaEdit 大语言模型知识编辑方法,解决现有方法更新知识易破坏原有知识的问题。技术亮点是将参数扰动投影到保留知识的零空间,仅专注更新目标知识,自动保护原有知识,且可轻松集成到现有方法。在各种模型(包括 LLaMA3、GPT2-XL 和 GPT-J)上进行的大量实验表明,AlphaEdit 只需为投影添加一行代码,就能将大多数定位编辑方法的性能平均提高 36.7%。

杰出论文荣誉提名
论文 1:Data Shapley in One Training Run
华人横扫ICLR 2025杰出论文奖,三篇均为华人一作,中科大何向南团队/清华姚班北大校友在列(图7)
作者:Jiachen T. Wang, Prateek Mittal, Dawn Song, Ruoxi Jia
单位:普林斯顿大学、加州大学伯克利分校、弗吉尼亚理工学院
链接:https://openreview.net/forum?id=HD6bWcj87Y
数据 Shapley 值提供了一个用于归因数据在机器学习环境中贡献的系统框架。然而,传统的数据 Shapley 值概念需要在各种数据子集上重新训练模型,这对于大规模模型来说在计算上是不可行的。此外,这种基于重新训练的定义无法评估数据对特定模型训练过程的贡献,而这在实践中往往是人们关注的焦点。
本文引入了一个新概念——In-Run Data Shapley,它消除了模型重新训练的需求,专门用于评估数据对特定目标模型的贡献。In-Run Data Shapley 计算每次梯度更新迭代的 Shapley 值,并在整个训练过程中累积这些值。作者提出了几种技术,使 In-Run Data Shapley 能够高效扩展到基础模型的规模。在最优化的实现中,这一新方法与标准模型训练相比几乎不增加运行时间开销。
这一显著的效率提升使得对基础模型预训练阶段进行数据归因成为可能。作者在论文中展示了几个案例研究,这些研究为预训练数据的贡献提供了新见解,并讨论了它们对生成式人工智能中版权问题和预训练数据筛选的影响。
论文 2:SAM 2: Segment Anything in Images and Videos
华人横扫ICLR 2025杰出论文奖,三篇均为华人一作,中科大何向南团队/清华姚班北大校友在列(图8)
作者:Nikhila Ravi, Valentin Gabeur, Yuan-Ting Hu, Ronghang Hu, Chaitanya Ryali, Tengyu Ma, Haitham Khedr, Roman Rädle, Chloe Rolland, Laura Gustafson, Eric Mintun, Junting Pan, Kalyan Vasudev Alwala, Nicolas Carion, Chao-Yuan Wu, Ross Girshick, Piotr Dollar, Christoph Feichtenhofer
单位:Meta AI、斯坦福大学
链接:https://openreview.net/forum?id=Ha6RTeWMd0
在这篇论文中,Meta 提出了 Segment Anything Model 2(SAM 2),这是一种旨在解决图像和视频中可提示视觉分割(promptable visual segmentation)任务的基础模型。他们构建了一个数据引擎,该引擎可通过用户交互不断优化模型与数据,采集了迄今为止规模最大的视频分割数据集。他们的模型采用简单的 Transformer 架构,并引入流式内存,以支持实时视频处理。
基于这些数据训练得到的 SAM 2 在多项任务上展现出强大的性能。在视频分割中,SAM 2 在减少至原有方法约三分之一的交互次数的同时,准确率表现更佳。在图像分割任务中,SAM 2 的精度更高,并且速度相比之前的 SAM 提升了六倍。
主模型、数据集、交互式演示以及代码都已经开源发布,更多详情可参阅机器之心报道《Meta 开源「分割一切」2.0 模型,视频也能分割了》。
论文 3:Faster Cascades via Speculative Decoding
华人横扫ICLR 2025杰出论文奖,三篇均为华人一作,中科大何向南团队/清华姚班北大校友在列(图9)
作者:Harikrishna Narasimhan, Wittawat Jitkrittum, Ankit Singh Rawat, Seungyeon Kim, Neha Gupta, Aditya Krishna Menon , Sanjiv Kumar 
单位:Google Research, Google DeepMind, Mistral AI
链接:https://openreview.net/forum?id=vo9t20wsmd
级联和推测解码是两种常见的提高语言模型推理效率的方法。两者皆通过交替使用两个模型来实现,但背后机制迥异:级联使用延迟规则,仅在遇到「困难」输入时调用较大的模型,而推测解码则通过推测执行,主要并行调用较大的模型进行评分。这些机制提供了不同的优势:在经验上,级联提供了有说服力的成本-质量权衡,甚至常常优于大模型;而推测级联则提供了令人印象深刻的加速,同时保证了质量中立性。
在本文中,研究者通过设计新的推测级联技术,将延迟规则通过推测执行来实现,从而结合了这两种方法的优势。他们刻画了推测级联的最佳延迟规则,并采用了最佳规则的插件近似方法。通过在 Gemma 和 T5 模型上进行一系列语言基准测试的实验,结果表明他们的方法较之传统的级联和推测解码基线模型,在成本 - 质量权衡方面更具优势。

杰出论文选取流程
ICLR 官方在博客上简单介绍了他们的杰出论文选取流程。
具体来说,ICLR 2025 杰出论文委员会(Outstanding Paper Committee)采用了一种两阶段遴选流程,目标是展现本次大会上提出的卓越研究成果。
一开始,该委员会获得了一份包含 36 篇论文的清单,这些论文要么由领域主席推荐,要么获得了评审专家的优异评分。委员会成员会先进行初步评审,选出最终入围论文。
之后,所有入围论文再由委员会全体成员审阅,并根据理论洞见、实践影响、写作能力和实验严谨性等因素进行排名。最终由项目主席确认最终决定。

获奖论文链接:https://arxiv.org/abs/2406.05946https://arxiv.org/abs/2407.10490https://arxiv.org/abs/2410.02355
参考链接:https://blog.iclr.cc/2025/04/22/announcing-the-outstanding-paper-awards-at-iclr-2025/




这次的ICLR杰出论文评选也标志着中国高校AI领域强势崛起。即将于5月23-24日,在上海举办的“AI+研发数字峰会(AiDD)”以“拥抱AI,重塑研发”为主题。邀请60+工业界和学术界的技术专家与会分享,有来自上海交通大学、上海科技大学、东南大学、华东师范大学、华东理工大学、中山大学、浙江大学、西湖大学、西安交通大学等高校带来的精彩议题内容。这些议题将为参会者提供前沿的AI技术与应用视角,推动行业交流与发展。

顾小东.png

第1张


返回列表