2017-08-11 13:37 来源:36氪 人工智能 /机器人 /操作系统 本文来自微信公众号“网易智能”(ID:smartman163) 作为一名人工智能研究员,我常常会想到人类对人工智能的恐惧。 然而,目前我也很难想象我开发出来的计算机怎么样才能成为未来世界的怪物。有时就会像奥本海默在带头建造世界上第一颗核弹之后哀叹的那样,我会想我是否也会成为“世界的毁灭者”? 我想,我会在历史上留名,但确是臭名昭著。那作为一名人工智能科学家,我在担心什么呢? 对未知的恐惧 由科幻小说作家Arthur Clarke设想并最后由电影导演Stanley Kubrick制成的计算机HAL 9000就是一个很好的例子。在很多复杂的系统里,例如泰坦尼克号、美国航空航天局的航天飞机、切尔诺贝利核电站,工程师们把许多不同的组件放在一起。设计师们可能非常清楚每个单独的元素是如何工作的,但是当这些元素连接在一起时,他们就无法知之甚透,就会产生意外的后果。 所以不能完全了解的系统,往往会不受控制并出现意外的后果。一艘轮船的沉没,两架航天飞机的爆炸,遍布欧亚大陆的放射性污染,直播,在每一场灾难都是一系列小差错导致的大灾难。 而在我看来,目前人工智能也落入了同样的境地之中。我们从认知科学中学习最新的研究结果,然后将其转化为一种程序算法并添加到现有的系统中。我们在还不了解智能认知的情况下,便开始对人工智能进行改造。 例如IBM的沃森和谷歌的Alpha系统,我们将强大的计算机能力和人造神经系统结合在一起,帮助他们取得了一系列令人惊叹的成就。如果这些机器出了差错,可能出现的结果是沃森不会喊“危险”了或者Alpha不能打败围棋大师了,但是这些错误都不是致命的。 然而,随着人工智能的设计变得更加复杂,电脑处理器变得更快,它们的技能也会得到提升。出现意外的风险也在增加,我们的责任也更重。我们经常说“人无完人”,那么我们创造的系统也肯定存在缺陷。 对滥用的恐惧 目前我正在应用“神经进化法”来开发人工智能,在可能引发的意外后果这一方面,我并不十分担心。我创造虚拟环境,开发数字生物从而使他们的大脑可以解决日益复杂的任务。我们会评估这些智能生物的表现,表现最好的会被挑选出来再次生产并研发下一代。这样,经过几代的进化,这些机器生物已经逐渐演变出了认知能力。 现在,我们正在给这些机器生物设定一些非常简但的任务,比如他们可以做简单的导航任务,做一些简单的决定等,但很快我们就会设计出能够执行更复杂任务更智能的机器,最终,我们希望可以达到人类的智力水平。 在这个过程中,我们会发现问题并解决问题。每一代机器都能更好地处理前几代机器曾经出现的问题。这帮助我们可以减少在未来他们真正进入世界时出现意外结果的概率。 此外,这种"代代相传“的改良方法还可以帮助我们发展人工智能的伦理道德。最终我们想要演变出是有可信赖性及利他主义这样人类道德的人工智能。我们可以设置一个虚拟环境,给那些表现出友善、诚实和同理心的机器奖励。可能这也是一种确保我们研发的是更听话的仆人或值得信赖的伙伴的方法。同时也可以减少出现冷酷杀手机器人的几率。 虽然这种“神经进化法”可能降低出现不可控结果的可能性,但它并不能防止滥用。但这是一个道德问题,而不是科学问题。作为一名科学家,我有说出真相的义务,我需要报告我在实验中发现的东西,直播,不管这种结果我想不想说。我的重点不是决定我想要什么,而是将结果展示出来。 对社会掌权者的恐惧 虽然我是一名科学家,但我仍然是一个人。在某种程度上,我必须将希望和恐惧重新联系到一起。不管从政治上考虑还是道德上,我必须好好思考我的工作可能对整个社会产生的影响。 整个研究界或整个社会对于人工智能要做什么或者成为什么都没有一个明确的定义。当然,这可能是因为我们还不知道它的能力。但我们的的确确需要决定先进人工智能的预期发展结果。 (责任编辑:本港台直播) |