Peter Norvig解释了为什么机器学习要比传统的软件更难。他说:“缺乏清晰的障碍摘要”——去除Bug更加难,因为把Bug区分出来;“非模块性”——稍微改动小部分东西,最终会把所有的东西都改变;“非固定性”——需要考虑新的数据;“数据归属”——围绕隐私、安全和公平的议题以及缺乏足够的工具和处理,既有的许多工具都是为传统软件设计的。“机器学习会让你速度变快”,Norvig 总结说,“但是当你变得很快,问题出现的速度也会相对加快”。纽约大学的Gary Marcus 对AI发展面临的巨大挑战有经典总结:我们都想要一个能处理所有家务的机器人(Rosie),但是我们得到的只是一个扫地机(Roomba)。 3. 我们可能是最后一代拥有汽车的人 美国运输部秘书长Foxx 在最近的一次演讲中宣称:“我们可能是最后一代拥有汽车的人。”在这次会议中,NVIDIA副总裁兼总经理Jim McHugh宣称“第一个AI机器人是汽车”。McHugh承诺自动驾驶汽车会让驾驶更安全,“具备AI的汽车随时能思考、能集中精神,随时观察周围的环境,而且永不会疲劳。它会拥有超人的力量,让我们远离危险。” Lux Capital的ShahinFarshchi也表达了类似的观点,它认为政府推迟对自动驾驶汽车的批准已经危及了许多人的生命,因为人开车的本领实在太糟糕了。他说,“AI的障碍很低,”即使采用“还不完美的自动驾驶汽车”也能挽救许多生命。 然而,正如Tom Davenport所说,“很多人情愿被另一个人杀死,而不想被机器杀死。”自动驾驶汽车的安全记录中也有“例外”,与人类的大量驾驶事故相比,自动驾驶的这些事故会被忽略吗?还是发生几次严重事故会让政府继续延缓批准自动驾驶? Peter Norvig以自动驾驶为例阐述了有关AI安全性的两个问题,其一是“安全勘探”——自动驾驶汽车如何在现实世界(而不是在实验室中模拟驾驶)中如何做出安全决策。而且考虑到AI的“黑盒”性质,我们如何验证它们确实是安全的?第二个问题被他称为“不注意谷”(inattentionvalley),就是说,如果一辆自动驾驶汽车的准确度是50%,人类驾驶员会随时警惕,随时准备着接管驾驶;但当准确度达到99%,人就不会随时准备着,当需要人类接管时可能来不及。 Etzioni说,自动驾驶汽车已经减少了许多事故,而且可以更有作为。他预计25年后,开车会成为一种业余爱好。 4. AI需要考虑文化和语境——“训练影响学习” 英特尔院士、英特尔互动与体验研究总监Genevieve Bell表示:“当前的许多算法已经在其内部形成一个国家、一种文化。”由于今天的智能机器(仍然)只来自人类的创造,并由人类使用,文化和语境是算法开发中的重要考虑因素。Rana El Kaliouby(情感感知AI的创业公司Affectiva的CEO)和AparnaChennapragada(Google产品管理总监)强调了使用多样化的培训数据的重要性——如果你想让智能机器可以在地球上的任何地方工作,就必须适应任何地方的文化习俗。 “训练影响学习——你放入的训练数据决定能得出的结果。”Chennapragada说。而且不仅文化会影响,上下文语境也很重要。她用“我爱你”为例解释,各种各样的对话都常常以这句话作为结束,但这句话不应该用作AI驱动的企业电子邮件系统的培训数据。 微软研究院杰出工程师兼总经理Lili Cheng谈到微软成功的聊天机器人“小冰”(在中国和日本有4000万用户)和失败的聊天机器人Tay(最初在Twitter上发布,但在被Twitter用户使用煽动性推文训练后下架)。他认为语境非常重要——公开对话(Tay的情况)对比小范围对话;以及文化的影响——一种“强调个性,人vs机器”的美国(西方)文化和认为“万物有灵”的亚洲文化很不一样。 5.AI不会取代人类的所有工作——“问题取之不尽” (责任编辑:本港台直播) |