5 月 27 日,《麻省理工科技评论》美国版 AI 主编 Will Knight 来到北京,参加《科技之巅》新书发布会,揭秘《麻省理工科技评论》到底是如何评判一个技术的颠覆性及商业价值,以及这些技术未来的发展前景。并且将与数位中国人工智能领域技术与商业实践者进行深度对话。 时间:2017 年 5 月 27 日 14:00—17:00 地点:北京市朝阳区亮马桥路 48 号四季酒店 3 层 分享嘉宾:《麻省理工科技评论》AI 主编 Will Knight 参与方式:添加DT君微信:deeptech02(本次活动须报名需审核) 票价:218 元(含《科技之巅I》以及《科技之巅II》Will Knight亲笔签名版,原价 186 元),以及会员微信群资格。 新书尚未正式上市,本次活动是拿到新书最快的方式。因名额十分有限,不保证报名皆能获得参会资格。 Will Knight是谁?他对科技有何独到的认知和见解?请您继续往下读。 去年,一辆奇怪的无人驾驶汽车出现在新泽西州蒙茅斯县的道路上。这辆由芯片制造商 Nvidia 开发的实验车和通用公司、Google和特斯拉所展示的自动驾驶汽车有所不同,该车的 AI 技术能力得到了大幅的提升。 其中,最出彩的一点是它没有遵循由工程师或程序员所提供的指令。与之相反,它完全依赖一种通过观察人类行为来训练自己如何驾驶的算法。 atv直播,美版作者亲临解读全球十大突破性技术后面的故事" src="http://www.wzatv.cc/atv/uploads/allimg/170523/110AS053_0.jpg" /> 图丨行驶在路上的Nvidia BB8自动驾驶汽车 从技术上来讲,无人驾驶是一项创举。但令人不安的是人类并不完全清楚汽车是怎么做出决策的。如果有一天它做了一些意想不到的事情呢?例如失去控制撞上了一棵树,或者当红灯亮时却猛踩油门? 因为这个系统太复杂了,即使是设计它的工程师可能也无法分析出它发出某一指令的原因。而且,目前为止还没有一套能够让AI自己解释自己行为的系统。 图丨自动驾驶汽车将如何决策? 作为机器学习中最普遍采用的方法,深度学习代表了一个完全不同的计算机编程方式。这其中,逻辑解释已经是一个重要的问题,未来只会变得更加重要。 因为无论是投资决策、医疗决策还是军事决策,用户都不希望只依靠“黑匣子”,而想知道为什么神经网络会作出这一决策。美国国防部甚至也将机器学习的不可解释性定性为这项技术发展的“关键的绊脚石”。 图丨《麻省理工科技评论》封面文章 The Dark Secret at the Heart of AI 上述内容来自一篇名为《》(The Dark Secretat the Heart of AI),作者是《麻省理工科技评论》AI主编Will Knight。该文被哈佛商业评论、Reddit、Techmeme等知名媒体广泛转载,深度学习的不可解释性问题再一次被推到风口浪尖。Will Knight本人也受邀出席全球各大科技峰会来分享他本人对AI行业发展的深入见解。 图丨《麻省理工科技评论》AI主编 Will Knight 回到前文提及的那辆自主决策的无人驾驶汽车,其运用的技术原理正是今年年初被Will Knight推选为2017年“麻省理工科技评论10大突破性技术”之一的“强化学习”(Reinforcement Learning),让机器自主通过环境经验来磨练自己的技能。 (责任编辑:本港台直播) |