ICML最佳论文曾被ICLR拒稿 Pika联创参与 一作已入职OpenAI

ICML 2024最佳论文出炉,结果发现其中一篇曾被ICLR 2024拒稿?

这篇论文来自斯坦福,Pika创始人之一孟晨琳(Chenlin Meng)也参与了。

它提出了一种新的离散扩散语言建模方法,通过引入分数熵损失函数,提高了离散扩散模型在语言建模任务中的性能。

实验结果和GPT-2比较,在多数任务中都完胜。

生成效果be like:

5位审稿人给出的分数分别是:88665。

但还是被AC一锤定音,最终reject……

这不禁让人想起Mamba。作为Transformer架构挑战者,它开创了大模型的一个新流派。结果却被ICLR拒稿。

当时这引发不小争议,包括ICLR创始人之一LeCun都下场表示不满:

还有人说:

这回又是咋回事?

又栽在实验不完善上?

这篇论文关注了扩散模型在文本等离散数据领域表现一直不佳的问题。

团队认为,标准扩散模型依赖于分数匹配(score matching)理论,但是这一机制推广到离散数据领域后效果不佳。

为了填补这一空白,他们提出了一种新的损失函数 分数熵 (score entropy),并构建了分数熵扩散模型(SEDD)。

在主要语言建模任务上,SEDD在目前所有语言扩散模型中表现最佳,和同规模自回归语言模型不相上下,在零样本困惑度任务上击败GPT-2。

同时SEDD可生成高质量无条件样本,可以方便在计算量和生成质量之间做权衡。通过直接参数化概率比,SEDD高度可控,可以使用提示词微调而无需专门训练。

5位审稿人中,有2位都给出8分高分。

大家普遍肯定了提出的论点。一位评审觉得论文推导过程写得也很不错,实验结果非常令人信服。

不过也有很多小问题被提出,比如拼写错误、忽略了对一些实验细节的解释。

从记录中可以看到,作者针对评审提出的问题进行了详尽的说明和修改(有的分2条才发完)。

有评审看到调整后的内容,也相应调整了分数。

不过最终AC还是拒收了这篇论文。

反驳的点就主要在于 实验部分不完整

尽管作者后续增加了一些实验,但是AC仍然认为不够完善,而且论文中提到此前扩散模型表现不及自回归模型的说法可能不够准确。

△作者后续补充内容

比如SSD-LM、TESS等模型的表现都比GPT-2表现更好,但是论文中却没有和这些结果做对比。

总之,AC认为论文提出了很好的idea,但是在实验和对比上不够完善。

有人表示,之前Mamba被拒也是类似的原因,后面完善了论文再拿best paper也很合理。

One More Thing

值得一提的是,这篇研究的作者中不光有Pika创始人之一孟晨琳。

一作最近也加入OpenAI,更近距离感受AGI了。他将在最近的ICML 2024上进一步讲解这项工作。

论文地址:https://arxiv.org/abs/2310.16834

  • 声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
  • 本文地址:https://m.srwj168.com.cn/chuangtou/288.html
不予回应 弱化低价策略 抖音电商
是房子 三年暴跌200多万 压垮打工人的不是裁员