:COO、执行总编、主编、高级编译、主笔、运营总监、客户经理、咨询总监、行政助理等 9 大岗位全面开放。 简历投递:j[email protected] HR 微信:13552313024 新智元为COO和执行总编提供最高超百万的年薪激励;为骨干员工提供最完整的培训体系、高于业界平均水平的工资和奖金。 加盟新智元,与2016/1113/169877.html">人工智能业界领袖携手改变世界。 【新智元导读】“2016年机器学习及人工智能领域的最大亮点和 2017年的重要趋势是什么?”Kdnuggets 网站汇集了十几位专家的看法,AlphaGo 无疑成为今年最夺目的亮点,但 2017 年哪些领域值得我们密切关注呢? Yoshua Bengio,蒙特利尔大学计算机科学及应用研究学院教授 在我看来,2016年主要事件在深度强化学习、生成模型、神经网络机器翻译。首先,我们有了AlphaGo(DeepMind的神经网络通过深度强化学习,打败了国际象棋世界冠军)。整个一年,我们看到了一系列论文展示生成对抗网络(generative adversarial networks,用于生成模型的无监督学习)的成功。同样在无监督学习领域,我们看到了自相关神经网络(automation-correlation neural networks,atv,就像 DeepMind WaveNe 的t论文)取得了意想不到的成就。最后,不久之前,我们看到了神经网络机器翻译的“加冕”(我的实验室从2014开始做其中一部分),谷歌把这个技术带到了大规模的Google翻译,获得了令人瞩目的效果(达到超优秀人类水平)。 我相信从这些迹象可以预估 2017 年情况:更多的进展出现在无监督学习(这仍然是一个巨大挑战,atv,我们在这方面离人类能力还差得远)。在计算机理解和生成自然语言的能力方面,可能最先是聊天机器人或者其它对话系统。另一个可能的趋势是,把深度学习应用到医疗保健领域的大量研究和结果,应用到在多种类型的医疗数据,包括医疗图像、病历、基因数据,等等。计算机图形上持续有更多的应用,当然还包括自动驾驶汽车,但是我感觉总的来说社区还是低估了实现真正自动化所面临的挑战。 Pedro Domingos,华盛顿大学教授,《主算法》作者 2016年最大事件是AlphaGo赢得比赛。由于很多大公司的重大投资,我认为会在2017取得大进展的两个领域是聊天机器人和自动驾驶车。在更底层的方面,我可能看到深度学习作为一个正在成熟中的技术,会和其它ML/AI技术的混用。 Oren Etzioni,艾伦人工智能研究所CEO AlphaGo是令人兴奋的2016年最闪耀的成就。2017年,我们会看到更多神经网络上的强化学习,更多神经网络领域的NLP和图像的研究。无论如何,像 Semantic Scholar 这样的系统,使用神经网络处理有限的标签数据所面临的挑战依然巨大,让我们来年有的忙了。现在对深度学习和更宽泛的机器学习依然算是早期。 Xavier Amatriain,Quora 工程副总裁 2016 年也许是可以载入史册的“机器学习大热”的一年。似乎所有公司都在做机器学习,如果他们没有,那么也在想着买一个初创公司以宣称他们在做。 现在确实有很多理由这么大肆宣传。你敢相信Google宣布开源TensorFlow仅仅过去一年?从发现新药物到作曲,TF已经被广泛用于多个不同项目。然而,Google不是唯一开源ML软件的公司:微软开源了CNTK,百度宣布发布PaddlePaddle,亚马逊近期宣布他们在新的AWS机器学习平台上支持MXNet。Facebook 算是支持两个深度学习框架的开发:Torch和Caffe。另一方面,Google也在支持已经大获成功的Keras。所以在最前沿,Facebook和Google打平了。 除了大肆宣传和企业对机器学习开源项目的大力支持,2016年还有大量的机器学习应用程序,这在几个月前都是无法想象的事。我对Wavenet的发声效果印象特别深刻。我过去尝试解决类似的问题,所以会由衷赞叹这样的成果。我可能还要强调一下近来在读唇语方面的成果,还有大批视频识别应用在不久的将来会非常有用(甚至可怕)。我还要提一下Google的令人印象深刻的机器翻译方面的领先程度。看到这一领域这么多的进展真的令人吃惊。 事实上,去年在机器学习语言技术方面,机器翻译不是唯一取得有趣进展的领域。我认为,近期为了产生更丰富的语音模型,结合深度时序神经网络和副信息(side-information)的方法非常有意思。在“A Neural Knowledge Language Models”一文中,Bengio的团队结合知识图谱和RNN,还有在“Contextual LSTM models for Large scale NLP Tasks”一文中,DeepMind的人把主题(topics)加到LSTM模型。在建模注意力(modeling attention)和语言模型的记忆方面,我们也看到了很多有趣的工作。例如,我所推荐的“Ask Me Anything:Dynamic Memory Networks for NLP”一文,发表在16年的ICML。 (责任编辑:本港台直播) |