知识图谱在AI搜索和应用中扮演着越来越重要的角色,但是它是符号表示,有一定的逻辑性的,因此如何表示这些关系就成了一个很大的挑战,为了解决这个挑战,很多模型如TransE, TransH, TransR纷纷被提出来,在这些模型中,基于几何关系的方法是很重要的一个分支,而基于几何关系的方法是使用K维的向量表示实体或者关系,然后利用一个函数f_r(h,t)来度量三元组(h, r, t),而他们都是基于一个准则h+r=t。 因此就使用了同一个损失度量h+r=t,这种损失度量其实是利用了在一个球形等价超平面,越接近中心,三元组的可信度越高,因此从未匹配的t中寻找合适的t就变得很苦难,同时这种方法也很难处理一对多,多对一,多对多的关系。因此这些方法不够灵活。 具体可以从图1(a)看出。同时这种方法将等价对待向量中的每一维,但实际上各个维度的重要性是不同的,只有一些维度是有效的,其他维度可以认为是噪音,j2直播,会降低效果,具体见图2(a). 因此作者提出了另一种损失度量函数 通过增加一个矩阵Wr,首先利用了一个椭圆等价超平面,解决了上述问题1,具体见图1(b);同时利用LDL分解,公式变为: 其中D_r就是一个对角阵,而对角阵中的每个值的大小,正好说明了每一维的不同重要程度,也就解决了上述问题2,具体减图2(b)。
图1
图2 资源 数据集 Wordnet 数据集 FreeBase https://developers.google.com/freebase/ 相关工作 如模型部分介绍的,当前的一些现有模型都是基于一个准则h+r=t,因此就使用了同一个损失度量h_r+r=t_r,只是在h_r和t_r的表示上有不同: (1)TransE h_r = h, t_r = t (2)TransH h_r = h - (w_r)^T.h.w_r, t_r = t - (w_r)^T.t.w_r (3)TransR h_r = M_r.h, t_r = M_r.t (4)TransM则是预先计算了出每一个训练三元组的直接权重 还有很多类似的模型,这里就不再介绍了。 简评 感觉这篇文章的思路比较简单,就是针对当前模型的一些不足,更换了一个损失度量函数。但是几点还是值得学习的,首先通过图像来描述不同的损失度量函数,给人一个更直观的感觉;其次针对向量表示中的区别对待,感觉很有attention mechanism的感觉,对不同的triple关注向量表示的不同维度,以取得最好的效果,这点是非常值得借鉴参考的。 TransG : A Generative Mixture Model for Knowledge Graph Embedding作者 Han Xiao, Minlie Huang, Yu Hao, Xiaoyan Zhu 单位 清华大学 State Key Lab on Intelligent Technology and Systems 关键词 knowledge graph embedding, generative mixture model, multiple relration semantics. 文章来源 arXiv2015 问题 解决多关系语义(multiple relation semantics)的问题。 模型 传统的基于翻译的模型采用h_r+r= t_r(其中,h_r为头部实体,t_r为尾部实体,r为头部 实体跟尾部实体的关系),仅仅对一个关系赋予一种翻译向量。 它们不能细分多关系语义,比如,(Atlantics, HasPart, NewYorkBay)和(Table, HasPart, Leg)两个的关系都是HasPart,但是这两个的关系在语义上不同,第一个是“部件”的关系,第二个是“位置”的关系。TransG能够解决关系的多语义问题。如图所示,多关系语义分析可以提高三元组的分类准确度。
TransG利用贝叶斯非参数无限混合模型对一个关系生成多个翻译部分,根据三元组的特定语义得到当中的最佳部分。最大数据相似度原理用来训练,优化采用SGD。实验结果在link prediction和triple classification这两种任务上都优于目前最好的结果,运行速度与TransE(最快的方法)成正相关,系数为关系语义部分的数目。 资源 数据集 WordNet 数据集 Freebase 相关工作 (责任编辑:本港台直播) |