本港台开奖现场直播 j2开奖直播报码现场
当前位置: 新闻频道 > IT新闻 >

从Yoav Goldberg与Yann LeCun争论,看当今的深度学习、(4)

时间:2017-06-11 04:13来源:天下彩论坛 作者:118KJ 点击:
我认为这篇论文不走进一个好的 NLP 会场,至少我希望如此。但让人悲伤的是,尽管(或者也许是由于)有这种显而易见夸大吹嘘存在,没有有意义的评价

我认为这篇论文不走进一个好的 NLP 会场,至少我希望如此。但让人悲伤的是,尽管(或者也许是由于)有这种显而易见夸大吹嘘存在,没有有意义的评价,也没有有意义的语言生成结果,我还是相信这篇论文可以进入 ICLR、NIPS 或 ICML 这样的机器学习会场,

毕竟,同样有很多缺陷的 Hu et al 的论文「Controllable Text Generation」也被 ICML 接收了。对于 Hu et al,我认为他们的成果比上面讨论的那个还好些。但目前这个是关于 GAN 和对抗的,直播,由于讨论了一个更加热门的话题,所以它们大概有同样大的机会入选。

因此,我想恳求评议者,尤其是机器学习评议者——如果你读到这个的话。

当评价一篇关于自然语言的论文时,请一直记住语言是非常复杂的,而且人们已经在这上面工作了很长时间。不要让你自己被那些宣称假装解决了这一问题的鬼话说服,结果那只是一点芝麻大的微不足道的问题。不要因为模型很性感就动摇,因为它们可能没有解决任何实际问题,或者存在一个更加简单、更加可靠的基线,atv,它们却没有提及。对于 arXiv 上的论文,不要受到作者或他们声誉的影响,尤其是当他们试图研究自己(和你)并不真正了解的东西的时候。试试去了解这一主题并透彻的思考一下(或者叫其他人看看)。看看他们真实的评价,而不是他们所宣称的东西。

我恳求大家,求求大家,不要要求 NLP 研究者在现实的设置和细致入微的任务之间拿这些设置和评议同自己比较,因为这些东西仅仅是由于它们出现在了 arxiv 或是一些机器学习会议上,结果拙劣的研究就得到了开创性的美名。

要说明的是,我不介意对非常困难的问题进行简单化的研究,这是一个获得进展的好方法。但是,这种工作需要澄清其正在做的事情,而不是宣称自己在做一些显然不是的事情。

然后,对于作者而言,请尊重语言。你们要去了解它,去接受那些挑战。你们要明白自己提交的数字是测量结果,还要明白它们是否真正与你力图去展示的东西相符。观察你正在使用的数据集和资源,明白你自己到底在干什么。如果你试图真的和语言打交道,那么请以真实的设置来处理(至少句子要完整,语词规模要合理),此外,你们还应该咨询语言领域的专业人士。如果你们对语言并不关心或者不想解决一个真正的语言任务,而只关心机器学习的部分,那么这也不是不可以。但是请诚实地对待你的工作,诚实地对待你们的听众和你么自己,不要假装自己在做一件和你不相关的事情。此外,无论在什么情况下,把你的工作至于其它工作的语境之下。注明那些很显而易见的底线。最重要的是,在论文中承认你们工作的限制性。这是一种魄力,不是缺点。要知道,科学因此而进步。

Yann LeCun 的回复

对于 Yoav Goldberg 的愤怒,Facebook 人工智能实验室主任 Yann LeCun 表示关注,这位知名人工智能学者认为 Yoav 过于偏激,作为同样把深度学习应用到 NLP 上的研究者,为何还要发出这样言论?随后,Yann LeCun 进一步分析了 arXiv 的模式、挖坑占坑现象,并给出了自己的观点。

将预印版论文发表在 arXiv 上是非常有意义的事,立旗子也是。

Yoav Goldberg 的文章在这几天传遍了整个网络。这篇文章主要抱怨 MILA 在文本生成论文中使用的方法,同时也在抱怨深度学习社区喜欢在 arXiv 上提前发表论文的习惯。我强烈反对他的观点。

我并不是在为这篇论文做辩护,我还没有仔细读它。但是 Yoav 的很多论点在我看来都是非常防御性的,也包括那句副标题:「for fxxks sake, DL people, leave language alone and stop saying you solve it」和那句声明:「I have a lot of respect for language. Deep-learning people seem not to」。很多人的共识是:神经网络/深度学习在很多领域获得了很棒的结果,20 世纪 90 年代初在字符识别上,2010 年左右在语音识别上,计算机识别则到了 2014 年,而现在是 NLP 了。我理解 Yoav 的理由,但他的话听起来非常像是一场防守之战,尤其是对于 Yoav 这样致力于将深度学习应用于 NLP 领域中的学者而言。

为公平起见,首先提醒大家,Yoav 已经在文章发出后又对他的观点进行了解释:

链接:https://medium.com/@yoav.goldberg/clarifications-re-adversarial-review-of-adversarial-learning-of-nat-lang-post-62acd39ebe0d

Nikos Paragios(一位「还没有那么老」的学者)也曾在 2016 年对于深度学习在计算机视觉上的应用有过类似的防御性看法

链接:https://www.linkedin.com/pulse/computer-vision-research-my-deep-depression-nikos-paragios

(责任编辑:本港台直播)
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
栏目列表
推荐内容