现在,关于人工智能的研究正在迅速发展。这一研究可以从短期和长期来讨论。一些短期的担忧在无人驾驶方面,从民用无人机到自主驾驶汽车。比如说,在紧急情况下,一辆无人驾驶汽车不得不在小风险的大事故和大概率的小事故之间进行选择。另一个担忧在致命性智能自主武器。他们是否该被禁止?如果是,那么“自主”该如何精确定义。如果不是,任何使用不当和故障的过失应该如何问责。还有另外一些担忧,由人工智能逐渐可以解读大量监控数据引起的隐私和担忧,以及如何管理因人工智能取代工作岗位带来的经济影响。 长期担忧主要是人工智能系统失控的潜在风险,随着不遵循人类意愿行事的超级智能的崛起,那个强大的系统威胁到人类。这样错位的结果是否有可能?如果是,这些情况是如何出现的?我们应该投入什么样的研究,以便更好的理解和解决危险的超级智能崛起的可能性,或智能爆发的出现? 当前控制人工智能技术的工具,例如强化学习,简单实用的功能,还不足以解决这个问题。因此,我们需要进一步研究来找到和确认一个可靠的解决办法来掌控这一问题。 简而言之,人工智能的成功有可能是人类文明史上最大的事件。但是人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。我曾经说过,人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。 现阶段,我对灾难的探讨可能惊吓到了在座的各位。很抱歉。但是作为今天的与会者,重要的是,你们要认清自己在影响当前技术的未来研发中的位置。我相信我们团结在一起,来呼吁国际条约的支持或者签署呈交给各国政府的公开信,科技领袖和科学家正极尽所能避免不可控的人工智能的崛起。 然我们对潜在危险有所意识,但我内心仍秉持乐观态度,我相信创造智能的潜在收益是巨大的。也许借助这项新技术革命的工具,我们将可以削减工业化对自然界造成的伤害。 我们还应该扮演一个角色,确保下一代不仅仅有机会还要有决心,在早期阶段充分参与科学研究,以便他们继续发挥潜力,帮助人类创造一个更加美好的的世界。我们站在一个美丽新世界的入口。这是一个令人兴奋的、同时充满了不确定性的世界,而你们是先行者。我祝福你们。 李开复:人工智能时代的科学家创业
霍金教授提出的“超级智能”和“未来人工智能”碾压人类这个状况,我个人认为并不是一个可根据今天科学推测出的必然结果。当然非必然事件不代表我们不要关注它,但我认为人工智能对于今天在座每一位来说,最重要的意义应该是下面四件事情: 第一,人工智能将创造巨大财富,让人类第一次有机会脱离贫困。 第二,我们要担心今天手中拥有巨大人工智能力量和数据的公司(垄断性企业),他们是否会用数据来作恶。 第三,人工智能将要取代50%人的工作(在未来10-15年之间),这些人怎么办,更重要的是教育怎么办? 第四,科学家尤其是人工智能科学家的使命和机会是什么?是不是都要出来创业?还是跟着霍金一起去寻找人类的未来? 我自己也是科学家创业。当年我在SGA公司做内部创业。当时我们做的是,能不能让每一个网页充满了3D,3D的游戏、动画让网页更精彩,让人们浏览的不是网页而是一个一个房间,一定程度上和今天的VR非常相似,这次创业非常失败,2000万美元的投入,100个员工,几乎全军覆没。从这个失败里我得到了一些教训,我想跟大家分享。 今天有一次在MIT演讲的时候,要求每一位讲者演讲完后留下一句话,我留下的那句话是——“创新固然重要,但不是最重要的,最重要的是做有用的创新”。 科学家们往往会被自己的研究、自己认为酷的东西所打动,也认为他所看到的酷的东西是全世界人类所需要的。但是事实可能并不是这样。比如我当年做的是顶尖研究,进入的是顶尖公司,但曾经的那次内部创业,做出的产品依然遭遇了滑铁卢。 (责任编辑:本港台直播) |