竹间智能简仁贤:表情识别准确率达到81.57%,语义理解是主要的商用落地场景 2017-08-12 11:16 来源:36氪 原标题:竹间智能简仁贤:表情识别准确率达到81.57%,语义理解是主要的商用落地场景 随着移动终端普及、计算性能提升、网络素材不断丰富,情感识别这条赛道上已经涌现出大量的产品与公司,不过大都还只是单纯采用声音、文本、表情或者生理信号中的一种或者两种来做识别。我们此前报道的初创公司竹间智能(Emotibot)则将文本、图像、声音结合,主攻多模态情感识别及计算,提升情感计算的准确度,希望拓展应用范围及场景。 过去一段时间,竹间对外宣传并不多。从36氪了解到的情况来看,竹间智能主要有两条产品线。一条是类脑对话机器人,包含了客服机器人、导购机器人、金融机器人、营销机器人、个人助理、品牌IP机器人等;一条是多模态情感识别系统,包括情绪识别分析系统、人脸表情识别系统、印象分析系统、广告效果分析系统、呼叫中心质检系统、课堂情绪分析系统等。目前已经对外公开的客户包括中国移动、唯品会等,包括几家银行在内的客户可能会在10月份对外公布。 现阶段,还很难实现通用的人工智能,语义理解方面也往往需要针对特定的领域训练。最初期,团队希望完成电影“Her”那样的场景,但在实际的运营中也发现目前行业可以实现的技术还达不到这样的效果,人工智能公司也必须要到行业里去应用,只有这样才能够拿到真实的用户的使用数据,对模型做精进、迭代。竹间表示,在获得真实的用户数据后,目前公司情绪情感模型已经做到了第四代了,意图引擎也重写了四次。 虽然同样是做人工智能的场景落地,尤其是基于语义理解的Chatobo落地,竹间智能(Emotibot)在过去一直强调情感识别的能力,认为核心竞争力在于自研发的情感机器人(Emotional Robot)技术,初步具备了读懂、看懂和听懂的认知和理解能力,可以通过文本、图像、声音,精准识别用户情感;也能像人一样有长期和短期记忆,理解自然对话的主题和上下文,了解用户的真实意图和需求;同时可以根据人的不同情绪的变化来调整回话的策略,实现双向对等的人机交互,在自然对话中帮助用户处理问题和提出建议;并对用户喜好进行记忆,提供一对一的专属个性化服务。而以往缺少情感计算的人工智能产品,多停留在单句指令、机械问答的程度。 之所以一直强调情感识别的能力,CEO简仁贤告诉36氪,“ 过去十个,中公司花很多时间跟很多大型的客户做深度合作,提供最多的技术还是在语义理解、对话机器人的部分,但客户找到竹间都是冲着我们对情感情绪的理解而来的,atv直播,他们想做到的不是所谓的售后客服,而是想要做到人机交互、情绪情感识别、意图识别等技术的融合。” 目前竹简智能的系统,可以判断对话者情绪,并给予个性化回复,可以理解尝试、语境,可以实现长期记忆,最终使得对话的内容和质量相对可控。举例来说,在电商场景中,用户有可能说“ 我货订了这么久,为什么还没收到”,使用竹间智能的服务,如果识别出用户的情绪是不满,就会先安抚用户,再帮用户查物流,从而提升用户体验。 而在情感识别能力方面,atv,竹间智能一直强调文本、图像、声音结合的多模态识别。团队表示,这是因为他们预测,“ 在未来2-3年,人机交互领域会成功的公司,一定是具有视觉、语音、文字三方面人机交互的能力。如果只是一个集成商,要把这三个技术集成是做不到的,即使做到,也是很碎片的。所以竹间智能是把三个交互融合在一体的,这样用户体验才是整体的。” 同时,从实际的运营来看,竹间智能的“ 很多合作伙伴,特别是大型的合作伙伴,通常都是要二项或三项都要,很多同时会要语音情绪又要文字的部分”。 在人工智能领域,技术的领先性十分重要。主打情绪识别、情感计算的概念,竹简智能也在这方面进行了大量的研发工作。根据官方信息,目前已经可以识别22种文字情绪、9种表情、4种语言情感。其中,表情方面,竹间的最新研究论文也获得了2017CVPR最佳结果论文。此外,团队也曾使用香港中文大学发布的Expression in- the-Wild (ExpW) Dataset 数据库作为测试集,对比过竹简与Google表情识别技术。竹间智能告诉36氪,算法方面Google的情绪识别API与竹间都是采用了深度学习的框架,ExpW测试集包含 91793张人脸表情图 ,目前竹间可以识别9种情绪高于Google(4种);人脸识别检出率达到96.68%,高于Google (81.52% );表情识别的准确率达到81.57%,高于Google(70.84%)。 (责任编辑:本港台直播) |