LeCun 的主要观点是:许多我们通常关心的问题都回避了人工智能最需要的重要部分(即蛋糕本身)——(LeCun 认为)无监督学习。在支持这一观点的论据中,最常见的是「大多数数据都没有标签」(所以为了使用这些数据,我们需要无监督学习)和「人类基本上就是靠无监督学习的」。所以如果我们想要实现人工智能的进一步发展,我们真的需要长期努力地思考所谓的「无监督」的意义。LeCun 提出了一个看待无监督学习的新角度,他称之为「预测学习(predictive learning)」。对此他的描述是: 从任何可用的信息中预测过去、现在和未来的规律的任何部分。 这听起来似乎有点定义不明。不过他还给出了几个预测学习的案例,比如说根据图像的一半预测另一半、以及 GAN 上面的所有工作。不过无监督学习要比监督学习难得多,LeCun 的蛋糕能够火出成效吸引更多人加入吗?让我们拭目以待。 Jürgen Schmidhuber 起波澜 LSTM 发明人、深度学习元老 Jürgen Schmidhuber 一直是一个颇有争议的人(参阅《》),在这次会议上,他又做出了一些有争议的事。 在 Ian Goodfellow 的演讲《Generative Adversarial Networks》进行的过程中,Schmidhuber 走向麦克风打断了他。很显然,有些人对这样的行为感到不爽,MetaMind 资深研究科学家 Stephen Merity 就发了一条推文批评这样的行为:
内容:Schmidhuber 打断了 GAN tutorial,这是在盗窃听众和学习者的时间。我不管你是谁,都不能做这种事。 NIPS 2016 资源 在主会议网站上,我们可以看到大量的视频资源,这里就不再一一列出了。 地址:https://nips.cc/Conferences/2016/Schedule 下面列出的一些是在网站上没有列出的或无法获取的幻灯片,主要是在 Twitter 上发现的: Peter Abbeel, “Tutorial: Deep Reinforcement Learning through Policy Optimization” - ~pabbeel/nips-tutorial-policy-optimization-Schulman-Abbeel.pdf Yoshua Bengio, “Towards a Biologically Plausible Model of Deep Learning” - ~bengioy/talks/Brains+Bits-NIPS2016Workshop.pptx.pdf Mathieu Blondel, “Higher-order Factorization Machines” - Kyle Cramer (keynote), “Machine Learning & Likelihood Free Inference in Particle Physics” - https://figshare.com/articles/NIPS_2016_Keynote_Machine_Learning_Likelihood_Free_Inference_in_Particle_Physics/4291565 Xavier Giro, “Hierarchical Object Detection with Deep Reinforcement Learning” - Ian Goodfellow, “Adversarial Approaches to Bayesian Learning and Bayesian Approaches to Adversarial Robustness” - Ian Goodfellow, “Tutorial: Introduction to Generative Adversarial Networks” - Neil Lawrence, “Personalized Health: Challenges in Data Science” - Yann LeCun, “Energy-Based GANs & other Adversarial things” - https://drive.google.com/file/d/0BxKBnD5y2M8NbzBUbXRwUDBZOVU/view Yann LeCun (keynote), “Predictive Learning” - https://drive.google.com/file/d/0BxKBnD5y2M8NREZod0tVdW5FLTQ/view Valerio Maggio, “Deep Learning for Rain and Lightning Nowcasting” - https://speakerdeck.com/valeriomaggio/deep-learning-for-rain-and-lightning-nowcasting-at-nips2016 Sara Magliacane, “Joint causal inference on observational and experimental data” - Andrew Ng, “Nuts and Bolts of Building Applications using Deep Learning” - https://www.dropbox.com/s/dyjdq1prjbs8pmc/NIPS2016%20-%20Pages%202-6%20(1).pdf John Schulman, “The Nuts and Bolts of Deep RL Research” - Dustin Tran, “Tutorial: Variational Inference: Foundations and Modern Methods” - ~blei/talks/2016_NIPS_VI_tutorial.pdf Jenn Wortman Vaughan, “Crowdsourcing: Beyond Label Generation” - Reza Zedah, “FusionNet: 3D Object Classification Using Multiple Data Representations” - 最后,下面整理了机器之心发过的 NIPS 2016 相关文章: 参考资料
https://medium.com/search?q=nips%202016 ©本文为机器之心整理文章,转载请联系本公众号获得授权。 ?------------------------------------------------ 加入机器之心(全职记者/实习生):[email protected] 投稿或寻求报道:[email protected] 广告&商务合作:[email protected] (责任编辑:本港台直播) |