Cheng 认为对话就像一股浪潮,“一直都在向前”,但是这对使用台式电脑的用户来说是很难控制的。为了让AI 更好地模仿人类认识周围环境的方式,我们可以把对话作为一个很好的测试标准,Cheng说。 要像人一样理解世界,其中一个关键就是感情。为了这一目标,Affectiva 已经筹建了世界上最大的情感资料库,分析了超过470万人脸和500亿情感数据,覆盖75个国家。 情感是AI领域的一个新芽。但是我更倾向于使用共鸣而非情感一词,以免让人对AI如今的发展水平产生不必要的误解。 10.应该摒弃图灵测试,尝试更好的测试方法 Gary Marcus 指出,现在的研究都在关注解决短期的发展,而不是“真正的难题”。在一些领域确实获得了指数级的发展,但是在强大的、通用的人工智能上,开奖,几乎没有任何进展。他说,AI 社区应该追求更多远大的目标:“传统的图灵测试太容易了”。他推荐了另一种测试方法:Domino 测试——使用无人机或者无人车往任意地点派送Pizza,正如一个普通的孩子能做到的那样。 LeCun提出了另一种测试“智能”或者自然语言理解的方法——Winograd Schema,用于衡量机器对世界的了解。几个月之前,Nuance Communications赞助了第一届Winograd Schema挑战赛,结果显示,机器在句子中代词的理解上准确率为58.33%,人类水平为90.9%。 11.丘吉尔对AI的启示 Peter Norvig:“丘吉尔对民主的解释也可以借用到机器学习上,除非所有的人都尝试过,否则它可能是世界上最糟糕的系统”。 Oren Etzioni:“改编下丘吉尔的名言:深度学习并不是终点,它也不终点的开始,它甚至不是开始的终点”。 12.在物质主义范式内徒劳地追求人类水平的智能,对AI的发展可能会是一个持续的阻碍 Gary Marcus 对NIPS上发表的论文有诸多不满,他说,这些论文就像炼金术一样,每次只在一个神经网络上增加一层 或者两层,“都是些小修小补”。他建议要有“更丰富的基础计算指导”,还说,“是时候产生一些天才的创意了”。 当被问及,“我们什么时候能看到人类水平的AI?”,Etzioni 回答:“我也不知道”。在他自己所做的对AI 专家的调查中,他的答案是25年。他解释说:我是一个物质主义者,我相信世界是由原子构成的,所以我不站在“绝对造不出”那一阵营。 认为智能由原子构成,并是可以计算的,这一概念是一种主流的范式。 马文·明斯基曾有一句经典名言:“人类的大脑就是一台计算机,只不过是由肉构成的罢了”。 但是,是不是就是这种范式导致AI 进入了“冬天”?是不是可能,我们的大脑并不是计算机,计算机的原理与大脑也不像?如果我们最终能放弃想要在计算机中复制“人类水平的智能”,也许我们能有一些额外的发现,也就是“狭义”的应用,让计算机能改善并丰富人类的生活。 编译来源:#28b0ffda4ef9 :COO、执行总编、主编、高级编译、主笔、运营总监、客户经理、咨询总监、行政助理等 9 大岗位全面开放。 简历投递:j[email protected] HR 微信:13552313024 新智元为COO和执行总编提供最高超百万的年薪激励;为骨干员工提供最完整的培训体系、高于业界平均水平的工资和奖金。 加盟新智元,与人工智能业界领袖携手改变世界。 (责任编辑:本港台直播) |