今年的Google I/O大会依然让众多外媒惊呼“未来世界”、“全程惊艳”,但对于国内媒体来说,最终的报道似乎都成了记录盘点性的文章,除了从始至终贯穿的AI一词,似乎很难找到更好的焦点。 这也让一向低调的,Google Brain之父、前百度首席科学家吴恩达在Twitter上忍不住发声,吐槽Google在AI应用上的滞后。 AI来了,但Google并没有超前 不只是吴恩达,有国内媒体也用“做了很多无趣的正事”来评价2017年的Google I/O为。在AI浪潮之下,Google也早已将船头掉转向了AI方向,大会上发布的新产品也大多与AI相关,尽管它们可能还并不够酷。 如Google CEO皮查伊所言,Google正处在“Mobile first to AI first”的战略转变期,这一届Google I/O也同样以此为主题,将Google旗下的产品进行了人工智能化的改造。 这种改造最直接的表现是交互方式的革命,从施乐实验室里的鼠标,到乔布斯引以为傲的触屏智能手机,每一次人机交互方式的变革都可能意味着一个新的时代,至少此前两个已经被证明过一次。 这一次Google则将人机交互式方式的未来押在了语音和图像上,在Google I/O上,Google发布了视觉搜索引擎Google Lens,这一产品融合了图像识别和OCR技术,可以利用计算机视觉算法,实时识别用智能手机拍摄的物品,并提供相关的搜索内容。 基于此,Google希望打通线下真实世界与线上的信息,带来不同于此前文字搜索的体验,比如用户可以实现拍照识花、识别汽车、识别街景位置等功能。美国科技媒体CNET将Google Lens描述为”Google I/O大会上最受关注的新产品“,现场观众则更是报以wow的惊叹声。 不过Google的想法并不新鲜,在Google I/O结束不久,前Google Brain的创始人、前百度首席科学家吴恩达就在Twitter上直言,“在移动端对花草等进行识别,2014年就在中国做的很好了,很高兴现在美国也有了”。 吴恩达所说的中国2014年就有的拍照识花功能指的是百度识图在2014年推出的功能,为此吴恩达甚至翻出了2014年百度世界大会上的PPT配作为Twitter配图,这一功能基于深度学习中的卷积神经网络技术,通过算法提升,直播,提高了图像识别在柔性物体上的识别效果。当时百度还与两位民间识花达人进行了一场比赛,最终结果也是百度识图以更高的准确率获胜。 而让这位前百度首席科学家没想到的是,百度在2014年就推出的功能,在3年后的Google I/O大会上竟然成了被关注的焦点,这或许才是引发吴恩达吐槽的真正原因。 其实不仅仅是吴恩达吐槽,有Facebook的韩裔工程师也在社交网络上对Google Lens令人惊喜的程度表示质疑,因为在此之前韩国最大的搜索引擎Naver也曾推出过类似的功能。 从互联网时期的业界领先,到AI时代的不再超前,甚至被质疑落后于市场,Google在正在到来的这场AI浪潮中似乎并没有再一次站在最前沿。 当Google不再惊艳时,它的对手做了些什么? 2017年可以被称作是AI之年,在Google I/O之前举行的微软Build大会上,微软CEO纳德拉也在不停地强调“AI重新定义一切(AI Redefine All)”,而谷歌也在去年提出了“移动优先转向AI优先”(Mobile First to AI First),两位印度裔CEO都在强调AI的价值并非巧合,而是因为AI时代或许就在眼前。 在AI方面,Google的起步并不算晚,2010年Google就请来了当时尚在斯坦福大学任教的吴恩达,并开始组建Google Brain团队,这一团队在2011年推出的第一代深度学习基础架构DistBelief,通过那个著名的猫测试项目(通过神经网络训练来识别和定义猫的形象),一战成名。 此后Google也在2015年发布了第二代深度学习框架平台TensorFlow,寄希望于在AI时代再造一个安卓平台。但尽管起步早,AI在整个Google公司的战略中初期并没有那么重要,因为化身“Alphabet”的Google有着太多需要作为重点推进的项目,并不能也不会轻易拿出决心豪赌AI。 (责任编辑:本港台直播) |