国际机器学习顶会ICML公布2019年最佳论文奖,ICML两篇最佳论文分别是:
-
《挑战无监督解耦表示中的常见假设》,来自苏黎世联邦理工学院(ETH Zurich)、MaxPlanck 智能系统研究所及谷歌大脑;
-
《稀疏高斯过程回归变分的收敛速度》,来自英国剑桥大学。
ICML第一篇最佳论文的作者来自苏黎世联邦理工学院(ETH Zurich)、MaxPlanck 智能系统研究所及谷歌大脑。
论文标题:挑战无监督解耦表示中的常见假设
Challenging Common Assumptions in the Unsupervised Learning of Disentangled Representations
作者:Francesco Locatello, Stefan Bauer, Mario Lucic, Gunnar Rätsch, Sylvain Gelly, Bernhard Schölkopf, Olivier Bachem

这篇论文对无监督解耦表示学习的常见假设进行了质疑,通过大规模实验发现,没有归纳偏置和监督,解耦表示的学习几乎是不可能的。尽管方法能确保聚合后验维度不相关,但表示维度仍可能是相关的。此外,超参数和随机种子的影响可能大于模型选择,且未发现解耦对下游任务样本复杂性降低的证据。论文提出了未来研究的三个关键方向:归纳偏置与监督的作用、解耦表示的实际益处以及多样化的实验设置和数据。
最低0.47元/天 解锁文章
1231

被折叠的 条评论
为什么被折叠?



