杨静:非常感谢,我们也期待什么时候SIGGRAPH的全会,以及整个主席都是中国人来办的,也是中国人来管理,总有那么一天的。谢谢陈院长。汤兴博士几年前跟我们分享过爱奇艺大脑在人工智能方面的一些进展。因为当时其实是2014年,那个时候百度刚刚推出自己的大脑,爱奇艺紧跟着就出来了爱奇艺大脑。我们发现今天2017年爱奇艺大脑,就是人工智能在视频当中的应用已经有了突飞猛进的改变,就像AlphaGo一样。所以,请汤兴博士给我们分析一下爱奇艺大脑能怎么样推动智能视频这个行业。2017年以及未来三年它都有怎么样的一些爆发点。另外,我也看到你们的一些VR眼镜,您的VR眼镜,智能硬件什么时候能上市?
汤兴:我们其实从2013年开始已经在这方面做了大量的投入,一个起始原因是2012年我们开始建立云平台,因为没有云平台没法处理数据,即使有算法,有人工,没法产生智能。其实AI不是一个一个新的概念,很早已经存在,包括很多算法也演进了很多年。其实整个爱奇艺对AI这方面的投入可以用两方面来阐述,一分析我们觉得AI是一个很技术的东西,对技术人员来说,就是0和1的区别,其实从人性的角度,0和1就是男性和女性,我可以说前面几年我们是从工程的角度利用AI智能化,让平台运作的更有效率,让很多运营成本更快节省,怎么样调动视频播放,现在是怎么让AI真正了解人。其实反过来,从人文的角度来说,非常像我们去哺育一个婴儿,刚开始要教他理解你的语言,然后教他理解你所看到的东西,然后他要去了解你的情感,我们现在希望这个平台真正去了解用户的情感,以及一个内容真正要表达的价值观和它的情感,以及把它推向符合这个价值观体系的内容创作所面对的人群。我们希望未来爱奇艺也是能够更加的真正是有温情的,是善良的,理解内容又理解用户,能把内容和用户串在一起。 我们知道随着整个互联网视频的发展,其实用户也在发展,尤其是90后。从另外一个角度看AI,我们会分析用户整个的路径。首先,从用户消费内容的路径,第一要查找,这也是为什么我们原来做大量的工作都是为了做搜索,为了做推荐,为了做个性化。接着它要播放,我们做了大量的工作去怎么样智能的调度,让用户永远可以流畅的播放,可以更清晰的播放,以及运用了大量的合作的技术,像和杜比的合作,让用户还原它的真实的影效,这些都是为了增加观影体验。到再往后发展,尤其是90后有更多的表达自己情感的意愿,这时候我们向舆情检测来偏移,这样我们给用户提供一个平台,让他表达自己的观点。其实大家不知道,在爱奇艺平台打开弹幕的,这个代表你的年轻程度。他为什么要开弹幕,其实是一种吐槽,这也是为什么我们后来在做社区,做泡泡,因为让用户去表达他的观点。因为下一代会越来越善于表达自己的情感。不能还是像原来降低运营成本,提高变现,未来要了解用户,了解内容,让爱奇艺真的变成一个有温度,有感情的平台,这个我认为是下面AI一个大的挑战。 从这里诞生的是另外一个领域,像唐季礼导演说的,技术怎么帮助内容创作者创作更多好的视频。一方面是新创作,一方面是利用已有的内容做创作。因为我们知道历史以来累积了大量的媒体资源,以前都是放到媒资库再也无人问津,想做检索非常困难,现在AI技术通过场景、镜头,让用户利用以前的内容重新生成新的视频,这个是为了满足现在大家更愿意做短视频,碎片化消费主要的一个先决条件。随着互联网的发展,现在大家消耗内容变得越来越碎片化,因为4G网络的发展用户也会在4G网络下观看短视频,怎么样通过这种方式,让他消耗到他以前没有时间看的一个视频,可能5分钟让他看完一部电影,这些都是为了怎么样更智能化的满足他的内容的分发和享受的需要。我想这个是在AI方面爱奇艺大概的一个布局的方式。 回过来说VR,其实今天在每个人的纪念品里有一个我们叫小阅悦,实际上是一个VR的手机架,可以把手机放在里面看VR的电影。爱奇艺对VR的投入也是非常重的。 杨静:投入多少呢? 汤兴:我们的研发人员都很多。我们有一个4K的东西在另外一个论坛,是全球第一个4K显示精度的VR的东西。在VR方面,第一个是高清,第二个要解决人类的眩晕问题,因为毕竟他会直接造成你心里的不适。另一方面,因为他对视频的清晰度包括对其他信息要求更多,它的传输,压缩,怎么样用尽量少的带宽真正给用户传输他需要看的情节,这是音视频整个研发小组需要解决的问题。同样,4K从摄影,到后期的编辑,到后面的编解码,到分发,和原来传统的体系都不一样了。4K的一个电影上,加上字幕和以前屏幕上加有很大的困难度,因为它是有深度信息的。所以说,另外其实对它最重要的是内容的驱动。我们一致认为VR是游戏先行,直播,我们会对头部的游戏,头部的内容做重大的投入,我们也在建立整个的平台。总结来说,爱奇艺从终端到平台,到内容领域都在做全面投入,我们也希望带动整个行业在VR方面的技术和发展。 杨静:现在VR能提供什么帮助呢? (责任编辑:本港台直播) |