到家了下车后有可能会出去跑个步,这个时手表能帮你去计步。跑步后可能渴了想买水,或者说想坐公交、地铁回家,怎么办?其实现在我们的最新款的问问手表,已经内置了 NFC 近场支付的芯片,也就意味着当你坐公交,坐地铁或者到便利店买咖啡、买水的时候都不用再掏钱包,不用再掏手机了。
出门问问可能更关注于 AI 怎么样通过结合算法、操作系统、软件、硬件,最终落地到一个端到端的产品中,能够真正让各位在每天的生活中都能用到的产品,我们认为这才是真正好的 AI 体验。也正因为出门问问有了这样端到端的能力,我们逐步的在增加我们硬件的小生态系统,真正的做到 AI 虚拟助手的落地。 下面请回我们的创始人李志飞博士。 出门问问在做的三件事 李志飞:感谢宜立的 Demo,也感谢极客公园的配合。大家可能感觉场景有点多,但其实我们还是希望能够在在不同的环境下有一套 AI 的系统把它联动起来,给你一个更好的服务。我认为出门问问主要做了 3 大事情: 1、语音交互 未来一定是刚才宜立演示的无手、无屏的操作。也就是说当你在开车的时候,不需要用手去触摸,或者用眼睛一定盯着屏幕才能做这个操作。 所以,这里有很多事情,有很多最基本的算法层面的东西,当然更重要的是产品层面的东西。比如刚才宜立演示的智能后视镜,是在车里面有噪音、有背景音乐的情况下,怎么做无手无屏的交互。所以,首先得有麦克风的阵列、降噪的算法。其实,这跟亚马逊的智能音箱是非常类似的技术,能够远场、能够降噪、能够随时打断,这是信号处理的一些结果。
刚才大家看到整个演示,我们都是可以通过热词唤醒,不需要你去按或者点什么按钮。 而且特别重要的一点,刚才我们在播放音乐的时候,或者系统在播报 TTS 的时候,我们也可以打断它,而不是先把音乐关掉,才能换下一首歌,或者换到导航,我觉得这是在语音交互里特别重要的技术,就是在放背景音乐或者系统在放 TTS 的时候,我们还是可以通过语音(你好问问)把它打断。 刚才,宜立演示了直接说热词+命令,包括后面的语音快词。刚才他把地图打开的时候,直接就说 2D 模式、3D 模式、缩小屏幕、避免拥堵,这些就是为了你不需要用很长的对话跟机器进行交流,而是直接下达指令,而且是在有背景噪音,或者它自己在播放 TTS 的时候,就能够直接把这个指令做出来。
除此之外,还有一些对话的形式,刚才他说找餐厅,找到了哪几个,然后可以说第三个、第二个。未来,我们还会有很多围绕对话相关的工作,比如我说导航到国贸的时候,这时就可以跟系统说「目的地附近有什么好吃的」,不需要在说国贸了,而直接说目的地,或者说目的地附近有什么停车场。 包括听音乐也是一样的,当你放了一首歌,直接就可以问,这首歌是谁唱的?它可能会告诉你周杰伦。这时候你就可以问,周杰伦还有什么别的歌,或者他今年多大,他是哪里的歌手,他的生日是哪一天,未来我们都可以围绕一个具体的实体展开对话。 这些是语音交互的未来,围绕无手无屏这个目标去做对话、做打断、做快词,出门问问已经在这里面做了很多尝试。 2、软硬结合 AI 今天为什么一定要软硬结合?就是因为 AI 不是一项非常成熟的技术,这时候如果我们希望通过「积木式」的创新,可能很难做出刚才这种比较整合式的体验。所以,出门问问过去两年多一直在强调要软硬结合,做一个全栈式的产品,因为只有这样才能做比较好的体验。 3、多场景联动 刚才已经演示很多了,怎么在家里控制车里的设备,在手腕上可以把地址发到车里面,这样直接就可以导航。这也就是因为我们自己有自己的硬件产品、OS、AI 算法,使得我们可以非常快的做整合和创新。 (责任编辑:本港台直播) |