写这篇文章的时候,Google I/O 的开幕 Keynote 还在进行,毫无疑问,AI 成为了今年 Google I/O 大会的绝对主角。 如同所有发布会一样,Sundar Pichai 上场就秀了一把自家在过去一年的成绩,简单做个归纳:观众们观看了 10 亿多小时的 YouTube 视频;Google Drive 的活跃用户数也达到了 8 亿;每天有 12 亿张照片上传至 Google Android 活跃设备数也达到了 20 亿。 除此之外最为重要的是:Google 的 AI 进步颇多,无论是语音识别还是图像识别的准确程度都在快速提升,Google 正在考虑将机器学习和 AI 集成于全部的产品之中。
如果说去年的 Google I/O 大会上,Google 的 AI 用 Google Assistant 的方式初步落地,今年的 Google I/O 上,直播,Google Assistant 的能力得到进一步的加强,专注于听觉和视觉识别的大方向,也体现了 Google 对人工智能助手这一角色的理解。 先简单回顾一下去年的 Google Assiatant 能做什么。简单来说,Google Assitant 是一个语音智能助手,它不仅仅能回答你的问题,还能够完整理解上下文语境,并且围绕一个话题陪你聊下去,而不是你问一句它回一句。而 Google Home 则是一个集成了 Google Assistant 语音识别助手的智能音箱,除了播放音乐、搜索、建议安排待办事项等常见功能,Google Home 还能成为智能家居产品的中枢,根据用户需求,完成调节温度、开启灯光等任务。 在今年的 Google I/O 上,智能助手的主角仍然是 Google Assistant 和 Google Home,但经过一年的成长,Google 的人工智能助手功能性和实用性都增长不少。
Google 先推出了 Google Lens 这一是视觉智能助手,用户可以通过 Google Lens 的相机扫描身边的一切,Google Lens 可以识别二维码,进行实时翻译,识别环境景色等等。视觉智能识别的功能其实并不是首次出现,但当 Google Lens 这一视觉智能助手集合了 Google Assistant 这一语音智能助手,就如同给原来的盲人管家加上了眼睛,能帮你做更多的事情,覆盖生活中更多的使用场景。
更全面的功能和第三方支持是今年 Google 人工智能助手更新的重点,看起来没有太多新意也不太激动人心,但是对于目前的智能助手来说,最重要的就是尽量拓展功能,增加覆盖场景才能避免由于技术不成熟而体现出的鸡肋定位。
从 Google 官方展示的视频来看,Google Assistant 几乎能帮助用户完成所有的日常任务,更重要的是,70% 的指令都是自然语言。毕竟用固定指令才能指挥人工智能助手这事儿,本来就不太智能,自然语言的使用会让用户淡化自己在对一个机器说话而产生的这种厌恶感,换句话说,究竟怎样的语音智能助手才会让人们感觉真正舒适呢?也许是通过了图灵测试的,能让你感觉不到你正在与一个机器人对话。这是未来目标。 其实目前人工智能助手的语音识别准确度都做的不错,但是最大的问题是功能性太差,你说了一个指令,人工智能助手也听出了你说的是什么,但是就是不能办到你想做的事情,这其中的最重要原因就是第三方服务的支持不够广泛。
所以 Google 在这次发布会上,宣布对第三方服务方开放 Google Assistant SDK,目的就是为了让 Google Assistant 能够接入更多的功能。
Google Assistant 需要更为广泛的硬件支持,除了之前的 Android 手机还有 Google Home,iOS 版的 Google Assistant 也在今天的 Google I/O 上发布。Google 希望基于人工智能助手的所有硬件能够全部打通,这样才能尽可能的让用户时刻面对的都是同一个人工智能助手。 这样的思路是对的,因为目前市面的人工智能助手,被人们嫌弃的原因主要就是学习成本太高,且覆盖场景过于单一,车上的人工智能助手就是车上的,手机的就是手机的,家里的就是家里的。不能打通的交互直接增加了使用的不便捷程度,真是挺不好用的。 (责任编辑:本港台直播) |