要说最近AI界最轰动的事件,莫过于霍金昨天在GMIC 2017通过视频的方式,对现场观众做了题为《让人工智能造福人类及其赖以生存的家园》的演讲。他提出,“人工智能有可能带来人类文明的终结”,无疑是昨天的重磅炸弹。要知道,史蒂芬霍金可是跟埃隆马斯克一样,是个十足的“负面”警告者,本次在GMIC上的演讲已然不是他第一次警告人工智能的危害了。但是,霍金在学术界的影响力和地位并不能影响不少大神与其意见相左,这其中,UC Berkeley和斯坦福大学客座教授皮埃罗?斯加鲁菲(Piero Scaruffi)就是典型人物之一。到底人工智能的未来会如何发展? 相信跟圈圈一样,昨天,不少去了GMIC2017现场的观众都对霍金开场的keynote念念不忘,而大神其实在2天前便在新浪微博上跟400多万粉丝提前互动,为自己的开场预热起来。 从这条微博上的各种评论,就看得出,大家对于霍金本人有多喜爱,对于他的演讲有多期待了…… 而演讲结束,霍金果然“众望所归”,继续发扬“语不惊人死不休”的优良传统,抛出的观点立马引得各大媒体争相报道、转载。 总结起来,霍金的几个观点就是: 1.担心聪明的机器将能够代替数以百万计的工作岗位 2.不确定人类是否可以控制住人工智能技术的风险 3.AI的好处是巨大的,但需要研究如何动态规避风险 4.AI的成功有可能是人类文明最大的事件 5.人工智能的全方位发展可能招致人类的灭亡 6.需要定义电子人格 获取霍金KEYNOTE速记全文,请点这里《让人工智能造福人类及其赖以生存的家园》 实际上,在保证AI不会控制人类这个问题上,由Skype创始人Jaan Tallinn发起、霍金和马斯克共同参与的“生命未来研究所”可是下了不少功夫呢…… 2015年1月中旬,生命未来研究所(FLI)就发布了一份公开信,名为“人工智能优先研究计划”,信中呼吁人们要警惕人工智能的副作用。随着人工智能的发展,他们担心人类所创造出的人工智能机器会有超越人类并影响人类生存的可能,因此,开展如何规避其潜在危害的同时获取其好处的研究十分重要。 今年1月,FLI再次发文,列出了“阿西洛马人工智能原则”,j2直播,共23条,使未来人工智能的研究人员、科学家和立法者遵循,确保安全、伦理、有益。 总而言之,以霍金大神为代表的这一拨人对AI大概的思路就是——机器人就可以改造自己,并创建其它同类,甚至制造出被称为超级智能的更强大AI,为了人类文明不会终结,不会出现“终结者”,研究限制AI的规则必须是重要课题。 然而,霍金的影响力和造势能力并不能改变另一拨人的看法,他们就是AI的绝对力挺者。而斯坦福、伯克利人工智能客座教授皮埃罗?斯加鲁菲就是坚决拥护AI的领军人物之一,被称为“硅谷精神的布道师”。 皮埃罗?斯加鲁菲20世纪80年代便来到硅谷,创办奥利维蒂公司的人工智能中心,并曾作为访问学者在哈佛大学做人工智能研究。20世纪90年代中期,皮埃罗作为访问学者在斯坦福大学人工智能实验室深造心智论。后来还曾在硅谷第一家人工智能初创公司IntelliCorp任职高级工程师,其研究项目涉猎自适应系统、认知科学、专家系统、神经网络、自然语言处理等。2003年之后成为独立研究人员,曾在加州大学伯克利分校、斯坦福大学和加州大学圣何塞分校兼职。他之前的名作《硅谷百年史》成为传播硅谷文化的著作,影响了无数读者。 (责任编辑:本港台直播) |