机器人的思考方式让我们不得不思考一个古老哲学难题的核心关键所在——道德的本质究竟是什么? 雷吉纳·里妮(Regina Rini)是纽约大学生物伦理学中心(New York University Center for Bioethics)的助理教授和研究员。她还是纽约大学人口健康系(NYU Department of Population Health)医学伦理学部门的名誉教工。 本文由 AEON授权《好奇心日报》发布,你可以在 Twitter 上关注他们。 很早之前,人类就开始畅想制造智能机器。但是这么久以来,这也只是人类的一个梦想而已,从未成为现实。如今,智能机器的时代终于就要来临。智能程度足够高的机器人可以脱离人类控制,独立自主的完成各项工作。同时,它们具备真正独立做出抉择的能力。如果机器人拥有了抉择的能力,那么它们能否做出符合道德标准的抉择呢?而且,机器人的道德准则又应该是什么样的?是与人类社会的道德标准一样吗? 哲学家和计算机科学家都表示,让缺乏想象力的机器人按照复杂微妙的人类社会道德标准行事非常困难。他们在不断努力,想要克服这个难题。但是,我们要解决的还有另外一个问题。而且,这个问题的优先级应该更高才对——我们究竟是否应该将人类的道德标准强加给智能机器人?实际上,我觉得这样做会产生适得其反的效果。而且往大里说,这甚至可以称得上是一种不道德的行为。机器人道德准则领域的核心问题不是机器人,而是我们。我们能不能与一种遵循全新类型道德规范的造物很好的共同生活在这个世界上? 在我们的想象中,未来的人工智能(AI)将与人类非常相似。这是因为人类是我们已知的唯一一种拥有高级智慧的生物。但是,我们的想象却可能是错误的。如果人工智能在未来真的问世,它可能与人类截然相反。它可能无法理解我们行事的方式,而我们也很难理解它做出抉择的逻辑。
图片来自 Pixabay 围棋是一种古老的策略性棋类游戏,而李世石(Lee Sedol)则是世界顶级围棋选手。2016 年,一款电脑程序向李世石发起挑战。这款由 Google 研发的程序名叫 AlphaGo,是一种比较“原始”的人工智能。通过它,我们可以一睹未来人工智能的模样。在第二回合对弈过程中,AlphaGo 在第 37 手用一个尖冲让世界上所有的围棋专家目瞪口呆。有的人觉得这是一个失误。面对这一手怪棋,李世石也不知所措。他起身离开桌子,离开了对弈的房间。没有人能够完全理解 AlphaGo 这一手棋的目的所在,因为任何顶尖围棋选手都不会选择这样的对弈策略。但是,这一手怪棋效果拔群。与第一回合一样,AlphaGo 最终顺利拿下第二回合。此后,AlphaGo 又成功在第三回合击败李世石。在这场五回合的围棋比赛中,李世石最终仅仅赢下了一局。 AlphaGo 精通围棋。不过,它对围棋的理解与人类顶尖棋手有所不同。即便是它的创造者也不能解释清 AlphaGo 在每一局比赛中究竟是如何选择对弈策略的。假如你能与 AlphaGo 展开对话,而你问它为何要在第 37 手选择那样一步奇怪的这走法。它能够向你或者其他顶级围棋选手解释得清吗?也许能。面对相似的任务,人工智能的思维方式不需要与我们的思维方式完全一致。即便思路不同,它们依旧能够很好的完成任务。 我们也许会发现智能机器人不止在理解围棋这件事上与我们不同。实际上,它们对世界万物的理解都与我们有所区别。在恐怖的科幻作品里,机器人会发生暴动,然后疯狂的屠戮人类。你不需要为此担心。在未来,故事的剧本也许会是这样:机器人对人类、其他机器人、大部分动物以及沙发产生了道德关怀。就像我们因为害怕伤害婴儿而行动小心谨慎一样,机器人也会因为害怕伤害沙发而小心翼翼。我们大概会问机器人:“你们为什么这么关心照顾沙发?”它们的解释也许完全令人无法理解。是的,AlphaGo 对自己第 37 手落子的解释也可能让我们云里雾里,丝毫无法从中找到头绪。
图片来自纽约时报 机器人的思考方式让我们不得不思考一个古老哲学难题的核心关键所在——道德的本质究竟是什么。它是一种超越人类经验的东西,适用于一切能够自主抉择的人或者物?还是说道德明显就是一种人类创造出来的东西,因此仅仅特定适用于我们人类自己? (责任编辑:本港台直播) |