Riedl 说:“机器人和 AI 可以被编程,实现以类似人类的方式来表达疼痛,但这其实是错觉。造成这种错觉的原因之一是:机器人以一种可以理解的方式,将其内在状态传达给人类,并且引起人类的同情。” Riedl 不担心 AI 会感觉到真正的痛苦,假如机器人的记忆每天晚上都会被完全删除,他认为那就像是什么也没发生过。但他也认为这其中存在可能的安全问题。为了让强化学习起效,AI 需要为积极的奖励进行优化。如果机器人的内存没有被完全删除——如果机器人开始记住在它身上发生的坏事,那么它可能会试图避开触发这些消极奖励的行为或人类。 Riedl 说,从理论上说,这些智能体能够学会提前计划,尽可能以最低的成本减少消极奖励的可能性。如果机器人不理解其避开消极奖励的行为可能带来的其他影响,这也意味着它们在提前采取行动阻止人类伤害它们。 但 Riedl 也指出,在可预见的未来,我们还没法造出拥有这些能力的,需要引起人类担忧的机器人。但假设这样的机器人出现了,消极奖励带来的问题可能对人类来说是潜在的威胁。 AI 能有自主意识吗?
Chalmers 的看法则有点不同。Chalmers 说:“我对意识的看法,也是大多数人对意识的看法——这些人无疑是有自主意识的。他们有相当丰富的情感体验,表现为可以感觉疼痛,思考问题,等等。他们不仅被动地对命令进行反应,还会思考自身的状态。他们在推理。很显然,人是有感情的。” Chalmers 认为,不用试图找出什么能让机器人拥有意识,而应该思考机器人缺乏什么。最明显的是,它们缺乏自由意志和记忆力。但是,我们人类中也有很多人生活在无法打破的惯例中,也有许多人有严重的记忆问题,但没人会认为应该消灭掉这些人。 Chalmers 反问道:“在这部剧中,这些机器人被认为可以随意虐待,难道是因为这些机器人有缺陷,或者别的什么原因吗?” 《西部世界》中描绘的场景是不现实的,因为 Chalmers 认为二分心智理论(Bicameral-mind theory)不可能带来意识,atv直播,哪怕对机器人来说也是如此。他说,“我认为作为一种理论它是无望的。机器人的意识,或者说机器人的自主意识,要比预编程的复杂得多。而编程让机器人直接监控它们自己的想法则要简单得多。” 任何情况下,虐待机器人都很容易对人类的安全造成威胁。我们冒险去创造没有自主意识的机器人,它们从消极反馈中吸取经验教训;或者我们无意中(或者比如在西部世界的情况下,是有意地)创造了有意识的机器人,最终将面对机器人的虐待和压迫。 在该剧第二集中,一个机器人“接待员”被问及她是否“真实”,她回答说:“如果你分辨不出来,真实还是不真实,重要吗?” 《西部世界》有多条时间线,不过故事的“当前”时间线应该是21世纪中期至后期,那时公园已经存在约35年。也就是说,西部世界主题公园出现在“近未来”,这意味着最早的“接待员”机器人(设计上比后面的版本更显机械性)是使用与我们现在的技术相差不远的技术造出的。 台式机处理器在黄金时期每年以指数级的速度飞速增长,在十多年前这个黄金时期结束。那样的处理器对构造人工智能来说非常不便,所以人们结合使用了两种策略。首先,建立大型服务器中心来收集并处理“大数据”,同时作为一种在线服务提供原始处理能力。第二,使用专门的显卡芯片来处理大型数据,事实证明它们比通用的处理器性能更好。 在这期间,消费者已经从台式机转移到移动设备或 laptop。这些设备需要依赖电池,而电池技术的升级并没有像我们想要的那么快,所以芯片制造商们关注更多的是芯片的能源效率而非原始性能。显然,节省能耗的另一种方法是减少在移动设备上处理的任务,而把更多任务放到云上处理。这样,移动设备成了一个低功耗的接口,通过这个接口,我们可以访问及使用存储于别的地方的数据和处理能力。 (责任编辑:本港台直播) |