本港台开奖现场直播 j2开奖直播报码现场
当前位置: 新闻频道 > IT新闻 >

【j2开奖】观点 | 反思ICLR 2017:拼运算拼资源时代,学术研究如何生存?(2)

时间:2017-05-05 08:01来源:报码现场 作者:j2开奖直播 点击:
「递归将问题分解成较小的部分,并大幅缩小每个神经网络组分的范围」(Making Making Neural Programming Architectures Generalize via Recursion,口头报告,获最佳论文

「递归将问题分解成较小的部分,并大幅缩小每个神经网络组分的范围」(Making Making Neural Programming Architectures Generalize via Recursion,口头报告,获最佳论文)。

「将知识扩散到可以跨任务分享的子组件的能力」(Lifelong Perceptual Programming By Example)。

「通过编写低级程序来表示高级程序」(Neural Program Lattices)。

【j2开奖】观点 | 反思ICLR 2017:拼运算拼资源时代,学术研究如何生存?

ICLR2017 会议中的 Alex Graves(Google Deepmind)。

如今的研究重点是学习「教科书」式算法,如「学校、年级」的添加和事务排序。这与我的目的——从现有的最佳解决方案的数据中学习程序似乎完全相悖。何不仅仅将它们作为先验知识的单位?但我意识到这样可能有所疏漏,即最简单的、完全可泛化的、殚见洽闻的程序也许可以展示能够组合更复杂程序的方法,并趋向 AGI。所幸人们能够轻易为这些简单任务生成训练数据!

有关该主题的更多内容可通过访问 2016 年 NIPS 会议的神经抽象机及程序感应研讨会网站得到。「电脑自主编程这一愿景终将实现」(Alex Graves,atv,Google Deepmind,ICLR2017)

将先验知识纳入模型的其他方法直观上可能产生结果。这些可能是将深度学习与象征性人工智能相联合的混合性方法(如 Marta Garnelo,@mpshanahan 以及 @KaiLashArul 去年的论文 Towards Deep Symbolic Reinforcement Learning),或者进行结构学习来对推理任务有所裨益(Learning Graphical State Transitions)。这些方法真的有可能降低对计算和数据需求吗?

对于如何实现可信赖的机器学习系统,还存在其他紧迫的研究问题。Benjamin Recht 在一次引人入胜的邀请报告中谈到学习理论的中心阶段,认为对深度学习拥有更深刻的理论认识对于提高信任度、可扩展性以及可预测性而言至关重要。

「稳定性和稳健性对于确保安全且可靠的机器学习性能而言举足轻重。」(Benjamin Recht,Berkeley,ICLR2017)

ICLR 今年的最热论文也许会是屡获殊荣的深层神经结构体系的泛化特性(Understanding Deep Learning Requires Rethinking Generalization)。它通过实验对问题做出测评;似乎没有人完全同意对于结果的解释,这意味着我们同样需要经过严谨分析的洞见!

对于算法问责,偏见以及隐私问题而言也是如此。

所以在一些不需大量数据或大量计算的关键研究领域,直播,诸如简单程序的引入、混合模型以及学习中泛化的分析理论,你是否同意这一观点?存在其他的领域吗?请大家畅所欲言。

  原文链接:https://medium.com/@libbykinsey/iclr2017-deep-thought-vs-exaflops-9f653354737b

↓↓↓

  

【j2开奖】观点 | 反思ICLR 2017:拼运算拼资源时代,学术研究如何生存?

(责任编辑:本港台直播)
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
栏目列表
推荐内容