这个技术也包括两个难点:第一个是将人的形象电子化,把一个二维的照片变成三维的电子形象,j2直播,需要提取足够特征来重建一个人的脸部,也就是建模,获得“facial rig”。第二个难点则是动画,在动画上需要能够还原人的微表情和其他细节,能够很好的表达人的情感。只有把这些都捕捉了,才能让其他人相信这有真实性。 Loom.ai表示他们的一大特点就是他们的系统能够很好的捕捉个人的人格,一方面他们构建的“facial rig”(骨架)不仅能捕捉你正常情绪下的面部特征,而且有能力捕捉微笑、愤怒、悲伤等表情的特征,不过这个需要多张图片通过学习来获得。 在特效领域,一个制作好的模型就像一尊雕像,并不能运动或者被驱动,所以rig的任务就是为模型添加骨骼和控制器,通过加入蒙皮、约束以及其它变形器等方式,让模型能够通过控制器被控制。要捕捉个人的人格,在动画上则也需要捕捉个人的人物特性,能够很好地还原一个人的动作。 (看看这小表情) Loom.ai用照片构建的这个模型分解过滤掉照明因素,生成了AAA级别的“facial rig”,可以用于生成其他场景下的3D动画和动态交互,能很好地复用于其他场景,比利用3D扫描方式生成的3D模型更强大。 Loom.ai之所以选择单张正面图片作为数据源,一方面是因为对于普通消费者而言,图片的获得更容易也更标准化,如果使用其他的方式,比如视频等作为数据源,虽然看起来提供的信息更丰富,但也为标准化带来挑战。“不过我们的系统也可以将视频等其他信息结合起来”,Kiran Bhat在采访中表示。 总而言之这些不仅是个科学的问题,而且也是个艺术的问题,Kiran Bhat过去长期的工作都是在大屏幕上做这个事情,并且已经将这个问题成功的解决了,积累了大量的经验。 Kiran Bhat也在采访中表示,其实在手机这样的小屏幕上能够做好这件事情的技术门槛不比大屏幕上低。Kiran Bhat表示其实在小屏幕上做好了也能很好的迁移到大屏幕上,这大大超出他原本的想法。 (Loom.ai团队) Loom.ai目前团队包括哥伦比亚大学、卡耐基梅隆大学、康奈尔大学的研究者和梦工厂、工业光魔等公司的工业界资深人士,他们很多人拥有几十年的专业经验。 Loom.ai目前主要是B2B2C模式,他们已经开发了一套云端API和SDK,而企业用户则利用他们的系统提供服务给开发者。Loom.ai希望通过技术授权等方式来盈利,目前已经开放商家内测中。 未来虚拟世界的代言人 Loom.ai的愿景是为消费者构建用起来像是真的3D Avatar,将虚拟通信带入生活。 这些3D Avatar可用于VR社交,游戏,电商等领域。想象一下,如果你和同学之间发的表情包都是真实头像做的,这会是一种怎么样的场景? 如果你玩的《模拟人生》里面的人物都是真实的Avatar,这会是一种怎么样的奇妙的感觉? 这些3D Avatar同样能够应用于电商等各种领域,拥有巨大的想象空间,毕竟个性化是未来的趋势。 当然VR/AR是另外一块更有想象空间的领域,未来利用3D Avatar开虚拟会议,不仅能传递你的声音,直播,还能完美重现你的表情。 很有可能未来这些3D Avatar将会是我们在虚拟世界的代言者和通行证,能够完美的代表我们。 所以,以后估计都不用修图软件了,晒朋友圈直接晒个3D Avatar,想想是不是还有点小激动? (责任编辑:本港台直播) |