在美国,政府曾经在关系型数据库上制定过类似的战略规划。这在当年意味着什么?美国政府可以说,所有政府部门都必须更新他们的数据库系统,以使用关系型数据库。这是可以理解的,是一个好主意。但作为国家战略,政府没有理由也没有能力强制整个国家都使用关系型数据库。你可以对政府内部的信息技术部门做出建议,但对于私有企业,你只要让他们做他们擅长做的事情就好了。如果这是一种好的技术,私有企业自然会采用它。 在美国,政府很难在没有直接经济效益的领域投入大笔的资金。例如,2009 年,奥巴马总统启动了一个投资太阳能的项目。政府决定去做投资,我认为这是一件好事情。政府在不同公司投入了资金。在这些公司里,有一家叫 Solyndra 的公司拿到了 5 亿美金的投资,其中大多数来自政府。这家公司在 2011 年倒闭了。当时,政府和民主党饱受批评。奥巴马总统的声誉遭受严重打击,因为他推动设立了这个项目。能源工业在这些公司身上投入巨资,却因此而损失了数亿美元。 问:OpenAI 宣称他们的使命是制造安全的人工智能,以保证人工智能不会威胁人类。你认为这世界上存在好的人工智能和坏的人工智能吗?你会担心谷歌等掌握了最强大的人工智能技术的业界巨头做坏事吗? 答:这和公众惯于看到问题中危险的一面有关。我们必须非常小心。回到关系型数据库的例子,我们要确保关系型数据库是有用的,是好的——但我们该如何做到这一点?这意味着什么?关系型数据库只是一种基本的技术。技术既不是好的,也不是坏的。技术既可以被用于好的目的,也可以被用于坏的目的。 你和我都可以在家里设计出一种非常危险的武器。我们都有足够的知识来制造出非常具有伤害力的装置。类似的,我们可以让任何技术具有伤害力。人工智能可能很危险。想象一辆被程序控制的车辆,行驶过程中,程序可能驱使车辆杀死路人以挽救司机的生命。但是,与这种危险的人工智能技术完全相同的技术也可以被用来拯救生命、保全汽车。 技术在不同的场景中有什么不同?当我们说我们可以开发好的人工智能技术时,你觉得这句话意味着什么?这句话的真正含义是我们要尽力鼓励人们将技术用于好的目的。这非常不同。你不能说,这个工具是为干坏事儿设计的,那个工具是为干好事儿设计的,这完全讲不通,它们是完全一样的技术。公众通常将人工智能看成一个黑盒子。但作为工程师,你我就在这盒子里面。好的人工智能与坏的人工智能分别意味着什么?你能测量出某个黑盒子是好的,某个黑盒子是坏的?那我们还不如假定某种人工智能技术,例如卷积神经网络是危险的——显然,我们不能这样假定。 OpanAI 的创始人,伊隆·马斯克和山姆·阿尔特曼等人,他们要做什么?他们从斯坦福大学雇了许多人。他们所能做的也许是制造一个开放的工具包。他们可以为那些缺乏经济回报的领域制造应用系统,例如减少环境污染的系统。这些都是好的事情。我支持他们去做这些事。 另一个相关的例子是 Uber。我特别惊讶地发现,Uber 在旧金山做的事情被大加赞赏,可 Uber 在伦敦做的同样的事情却饱受批评。Uber 在伦敦造成了许多人失业。伦敦有非常发达的出租系统。伦敦人管传统的出租车叫「黑色出租」。这些出租车的司机是一个有着悠久历史的社会职业,他们需要对街道非常熟悉,以通过上岗测试。Uber 在伦敦破坏了这样的传统,因为任何人只要有一辆车就可以成为 Uber 司机。在这件事上,Uber 低估了英国人对于传统职业的重视。伦敦的许多人痛恨 Uber,他们认为 Uber 是对英国社会的破坏。在旧金山,每个人都觉得 Uber 棒极了。人们赞扬 Uber,几乎没有什么负面报道。这是同一件事在不同城市得到的不同评价。所以,你很难说某项技术是好的,或者是坏的。 至于谷歌,它拥有大量的数据和极其强大的深度计算集群。这件事是好还是坏?如果你在谷歌工作,你会觉得这真是太棒了。如果你不在谷歌工作,问题的本质就会变成,大数据和强大的计算能力是否给谷歌提供了我们不希望看到的某种可以对社会造成重大影响的决策能力?我可以给你另一个例子。你和我可能说,无人驾驶汽车显然是好的技术。我当然相信这一判断。但也有相当一部分人认为,无人驾驶汽车在道路上该如何工作,这是一个道德或伦理问题,将这个问题的决定权赋予研发无人驾驶技术的公司,其实是在将重要的道德或伦理决策授权给天生为了盈利的私有机构。这是问题的根源。在硅谷,Uber 或谷歌等公司的态度是,我们绝不做坏事。但这并非被全世界知悉和认同。硅谷以外的人们也许会因为这些公司掌握了技术的决策权而非常担心。谷歌因其大数据和大计算能力而拥有极其强大的能量。他们会如何使用这种能量?你可能不希望看到这种能量只被某几个决策者控制。 问:你认为现有的教育系统是否适合即将到来的人工智能时代? (责任编辑:本港台直播) |