编译:弗格森 刘小芹 :COO、执行总编、主编、高级编译、主笔、运营总监、客户经理、咨询总监、行政助理等 9 大岗位全面开放。 简历投递:j[email protected] HR 微信:13552313024 新智元为COO和执行总编提供最高超百万的年薪激励;为骨干员工提供最完整的培训体系、高于业界平均水平的工资和奖金。 加盟新智元,与人工智能业界领袖携手改变世界。 【新智元导读】如今人工智能发展到底处于何种状态,面临哪些难点,未来发展潜力如何?参加了O‘reilly人工智能大会的行业专家Gll Press带来了他的12个观察。他提取的观点主要来自Peter Norvig、Yann LeCun等顶级人工智能专家,另外,还有来自微软、英伟达和艾伦人工智能研究院的主管级专家。12个观察包括:AI是黑箱;AI具有高技术难度;无人车可能使开车变成人的业余爱好;AI需考虑文化和背景——训练影响学习;AI不会取代人的所有工作;AI不会使人类灭亡;AI不是魔法,深度学习很有用,但有局限;AI是增强的智能,同时具有人类和机器的强处;AI改变了我们与计算机的交互方式;AI需有更聪明的测试,图灵测试不够;丘吉尔对AI的观点;唯物主义范式下徒劳地追求人类水平的智能可能阻碍AI的发展。 本年度的O‘reilly人工智能大会上,39家机构的66名AI从业者就当下的AI发展状况进行介绍:从聊天机器人到深度学习、再到自动技术和情感识别,以及自动化工作和AI进步的阻碍,甚至拯救生命和商业机会等话题都有涉及。本次会议由Peter Norvig 和 Tim O’Reilly 担任程序委员会主席。以下是参会者Gll Press 的参会观察。 Gll Press 是一家咨询公司的管理合伙人,福布斯网站作者。他的这篇文章是参加O‘reilly 人工智能大会之后的总结,提炼了12个对目前AI行业的观察,比如,黑箱问题、深度学习局限性在哪、人机交互问题、AI的冬天等等。 1. AI是一个黑箱:trust-but-verify的破解方法 Google研究总监PeterNorvig曾说,“与传统软件相反,机器学习生产的不是代码,而更像是一个黑箱——你能稍微窥探到里面,对里面正在发生的事情有一些了解,开奖,但看不到全貌。” Tim O’Reilly最近在他的一篇博客文章中写道:“由于很多正在重塑我们的社会的算法是黑箱…在深度学习领域中,由于它们甚至对它们的创造者来说都难以理解,因此问题的关键是信任。当今世界的重要学科是在不了解算法所遵循的确切的规则的情况下理解怎样评估算法。” O’Reilly提出算法值得信任但要验证(trust-but-verify)的方法,四条规则:预期结果是已知的,外部观察可验证结果;如何测量“成功”是明确的;算法的创作者和使用者的目标具有一致性;并且该算法有助于创作者和使用者做出更好的长期决策。 2. AI具有高难度,理想与现实还有差距 我们都想要一个能处理所有家务的机器人(Rosie),但是我们得到的只是一个扫地机(Roomba)。 艾伦人工智能研究院的CEO Oren Etzioni 在大会上列举了让机器变得更像人这一努力所遇到的困难,即使是一些“智能”的机器。比如,“人呼吸空气(people breath air)”是一个简短的陈述,但是却很难让机器理解。 Etzioni此前在华盛顿大学获得终身教职,他现在领导艾伦人工智能研究院,其主要的任务是让AI 至少能展示对词或者图像的某种程度的理解,而不仅仅是计算标签对象的接近性。 作为纽约大学的教授、Facebook AI 实验室的主管,LeCun 在把深度学习用于解决现实问题上进行了深入的研究。在Facebook,每天有100至150万图片上传(还不包括Instagram、WahtsAPP 和 Messenger)。他在演讲中提到,每一张图片一经上传就会立刻通过两层的卷积神经网络,一层用于识别图像中的物体,另一层则识别人。每一个传到Facebook 上的视频也会经历同样的过程。 他们分享的经验表明了智能机器现在能做到什么,同时也凸显了要接近人类水平的智能,还有很大的挑战需要克服。Lecun说,如果机器要如此智能地行动,需要“对环境和其中的物体功能有一个完整的复制,这样就能产生一系列的行动,并预测它们会对环境产生的影响”。为了实现这一目标,机器学习理解环境是如何起作用的,学习大量的背景知识,感知任何特定时刻的环境状态,并且能进行推理和计划。简而言之,LeCun的终极目标是希望能实现从“监督式学习”到“无监督学习”的过渡。LeCun说:“难点在于,在确定性中进行预测。” (责任编辑:本港台直播) |