对于机器人替代人类的说法,加州大学伯克利分校计算机科学教授鲁塞尔并不认同。他说,如果机器人替代了人类,这世界上就没有意识存在了,无论它们创造出多少令人震惊的事情,这可能是最大的悲剧。博斯托姆也认为,这样的世界相当于是“没有孩子的迪士尼乐园”。 鲁塞尔说:“有人认为,如果机器人在智力上超越人类,它们就会占领地球,并赶走人类。但也有人认为,我们可以把自己的思维上传到机器体内,这样就能进化成有意识的机器人。但我认为,这种想法完全不可信。” 鲁塞尔也不认同Facebook人工智能研究院院长、卷积神经网络之父杨立昆(Yann LeCun)的观点。杨立昆认为,电影《机械姬》或《终结者》中的场景都不会出现,因为机器人没有人类的基本欲求,包括饥饿、权力、生育和自我保护。 对于“无需担心人工智能威胁”的观点,支持者通常有两大理由:其一,这根本不会发生;其二;我们可以再开发一些机器人同盟军,来对抗背叛的机器人。鲁塞尔对这两个理由给予了反驳,称第一个理由就好比在说,我们正驾车驶向悬崖,但在到达之前,汽车油量一定会耗尽,这不是管理日常事物的良好方式。至于第二个理由,鲁塞尔说:“如果你的机器人不同意你的计划,如何与它们结成一个团队?” 去年,微软关停了自家人工智能聊天机器人Tay。本来,微软对Tay寄予厚望,但上线后不到一天就开始发表不当言论。马斯克随后表示:“看吧,让聊天机器人变成希特勒,微软只花了一天时间。” 六、人类将走向何方? 37岁的尤德科夫斯基,是加州大学伯克利分校机器智能研究所(MIRI)的联合创始人,他试图弄清在现实中、而不是理论上人类究竟能否根据意愿指挥人工智能。 在接受采访时,他率先抛出了一连串的问题,“假如你想为人工智能安装一个紧急关闭按钮,它会允许你安装吗?它会试图弄掉这个按钮吗?它愿意让你按下按钮吗?出问题时它会自己按下按钮吗?如果它能自行更改设置,它还愿意保留这个关闭按钮吗?我们正在研究这些问题,这些都不是简单的问题。” 尤德科夫斯基认为:“人工智能想夺权根本不需要控制整个互联网,也不需要无人机。人工智能的危险不在于它们手上有枪,它们之所以危险,是因为比人类更聪明。假设它们能根据DNA信息来预测蛋白质结构,只需发几封邮件给实验室,就能合成特定的蛋白质。这样,它们很快就会拥有自己的分子机器,还能建造更高端的分子机器。” 尤德科夫斯基说:“预测人工智能的威胁,不要想象科幻电影中红着眼睛的人形金属机器人,它真正的威胁来自那些看不到的、由金刚石构成的合成细菌,它们会载着微型电脑进入人类血液。之后,只要它们释放一微克的肉毒杆菌毒素,人类就会倒下。当然,人工智能究竟会不会这样做,目前还很难预测,因为届时它们的智力已经超越人类。因此,当你制造一个比你还聪明的事物时,第一次尝试就不能出任何差错。” 再回到之前对马斯克和奥特曼的采访,他们也认为,不要被单纯的“杀戮机器人”所分心。马斯克说:“人工智能的的恐怖之处不在于它要化身为机器人,相反它会成为网络上的算法,最终机器人就会变成终端效应器,无限的散播是最难阻挡之处。” 马斯克还举例说:“假如你开发一个可以自我升级的人工智能来摘草莓,这个人工智能可以干得越来越好,摘得越来越多。但是,它想做的事情就是摘草莓,所以可能把全世界都变成草莓园,而且永远都是草莓园。这样,人类就没有生存空间了。” 奥特曼也表示:“一个能控制整个互联网的人工智能算法,要比控制机器人的人工智能算法更强大,因为我们的生活早已与互联网密不可分。” 当被问及人类能否开发出用来终结人工智能机器人的”紧急按钮“时,马斯克说:“我是不想成为那个手持紧急按钮的人,因为人工智能会第一个来杀掉我。” 奥特曼则开玩笑地说:“活着真好。未来几十年,人类要么走向自我毁灭,要么殖民宇宙。” 马斯克补充说:“是的,如果你相信宇宙‘热寂理论’,那么我们已经都在路上了。”“热寂理论”是猜想宇宙终极命运的一种假说。在这样的宇宙中,再也没有任何可以维持运动或是生命的能量存在。 (责任编辑:本港台直播) |