今年 Google I/O 的主题是 AI 。这不,Sundar Pichai 还写了篇文章,开奖,阐释 Google 对 AI 的信心。 编者注:Google I/O 2017 首日的 Keynote 刚刚结束,毫无疑问,AI 已经成长为 Google 各项产品、服务最为核心的竞争力。与此同时,Google CEO Sundar Pichai 也亲自撰文,向大众阐释了 Google「AI-first」战略更大的「野心」。 本文编译自Google(),原文标题「Making AI work for everyone」。 我进 Google 已经 13 年了。这么多年来,Google 的使命仍然没有变,那就是整合全球信息,使人人皆可访问并从中受益。自创立之初起,Google 一直努力用深奥的计算机技术和独有的洞察力来解决各种难题。与此同时,科技也带来了翻天覆地的变化。 最复杂的问题往往和人们的日常生活相关,看到 Google 成了很多人生活的一部分,我很兴奋——Android 设备月活跃用户刚刚突破 20 亿;YouTube 不仅有 10 亿用户,更有长达 10 亿小时的日播放时长;Google 地图日导航里程超 10 亿公里。计算机向移动设备转变的大潮流也让 Google 开始重新思考对产品的改造,以适应新型的交互模式,例如多点触控屏(multi-touch screen)。 如今,计算机又面临着新的转变:从移动优先转变为 AI 优先。和以前一样,Google 将会努力构想一个能够进行更加自然、无缝的技术交互的世界。比如 Google 搜索就是建立在理解网页语言的能力之上。现在,通过深度学习技术的革新,机器对图像、照片和视频的理解也逐渐成熟,这在以往都是不能实现的。 比如,相机能像人的眼睛一样「看」世界,手机能像朋友一样陪你聊天。这些都说明,对计算机而言,语言和视觉,正在变得和键盘、多点触控屏一样重要。 在以上提到的诸多 AI 新进展中,Google Assistant 就是一个很好的例子。它已经能够在 1 亿个设备上运行,并日益发挥更大的作用。现在,Google Home 已经可以辨别不同的声音,从而让用户在与设备互动时能够获得更个性化的体验。与此同时,智能手机的相机功能也可以帮助用户完成许多工作。
Google Lens 是一组基于视觉的计算功能,可以识别用户正在查看的内容,并根据该信息帮助用户采取行动。比如,在朋友家想用手机连 Wi-Fi 时,你再也不用趴在地板上,费力地寻找路由器后面那串又长又复杂的 Wi-Fi 密码了。只需将摄像头对准路由器上的资料,Google Lens 就能自动提取 Wi-Fi 的账号和密码,然后自动连接。这项新技术会首先应用在 Google Assistant 和 Google Photos 上,希望未来它会出现在更多产品上。
你发现这其中的关键了吗?用户不需要事先通过学习来实现此功能 ——人机交互体验比在智能手机上完成跨应用程序的复制和粘贴更为直观。 [前文预警!只有极客才看得懂!!!] 所有的这一切都需要相应的计算架构。去年的 I/O,Google 发布了第一代 TPUs,这使得 Google 的机器学习算法能够更快更有效地运行。今天,Google 发布了第二代 TPUs——Cloud TPUs。新版的 TPUs 针对推理和训练进行了优化,并且可以处理大量信息。Google 将把 Cloud TPUs 引入 Google Compute Engine,以便公司和开发人员更好地使用。 对 Google 来说,让这些先进技术更好地为每个人服务非常重要——不只是服务于 Google 产品的用户。Google 相信,如果科学家和工程师拥有更强大的计算工具,那么他们将有更多的研究成果,解决复杂的社会问题将会有巨大突破。不过,要实现这个目标,还有很多障碍要克服。 这就是 Google.ai 的创立初衷。它聚合了 Google 在 AI 领域做的所有努力,从而减少了研究过程中的障碍,提升了研究人员、开发者以及各大公司在这一领域的工作效率。 Google 还希望简化设计机器学习模型的神经网络,从而降低 AI 的门槛。设计神经网络是极其耗费时间的,其对专业知识的极高要求将适用人群缩小到了科研人员和工程师。这就是 Google 创造 AutoML 的原因,AutoML 表明,利用神经网络设计神经网络也是可行的。Google 希望 AutoML 能拥有现在一些博士所具备的能力,并在 3~5 年内使众多开发者也能通过 AutoML 设计神经网络,满足其特定的需求。 (责任编辑:本港台直播) |