本港台开奖现场直播 j2开奖直播报码现场
当前位置: 新闻频道 > IT新闻 >

报码:【j2开奖】一周论文 | 基于翻译模型(Trans系列)的知识表示学习(5)

时间:2016-10-22 20:56来源:118论坛 作者:118开奖 点击:
针对不同难度的实体间关系,使用不同稀疏程度的矩阵(不同数量的参数)来进行表征,从而防止对复杂关系欠拟合或者对简单关系过拟合。 模型 本文的

针对不同难度的实体间关系,使用不同稀疏程度的矩阵(不同数量的参数)来进行表征,从而防止对复杂关系欠拟合或者对简单关系过拟合。

  模型

本文的模型与TransR类似,即对每一个关系r学习一个转换矩阵M_r,将h和t的向量映射到关系向量所在的空间。

不过本文注意到knowledge graph中面临两个问题,分别是heterogeneous(有的实体关系十分复杂,连接许多不同的实体)和unbalanced(很多关系连接的head和tail数目很不对等)。如果只使用一个模型应对所有情况的话可能会导致对复杂关系underfit,对简单关系overfit。因此本文认为需要对症下药,复杂的关系就需要下猛药(用有更多的参数的复杂模型),简单关系就简单处理(较少的参数)。

但是怎么实现这样灵活的建模?在方法上本文借用了SparseMatrix,如果关系比较复杂就用比较稠密的矩阵,如果关系简单则用稀疏矩阵进行表达。文章假设关系的复杂程度正比于包含该关系的triplet数目,并根据两类问题提出了对应的稀疏矩阵初始化方法。不过并没有提出同时解决两类问题的统一方案。

1、针对heterogeneity问题的模型叫做TranSparse(share),模型参数sparse degree,theta_r,是由下列公式确定:

  

其中N_r是该关系r所连接的triplet数目,N_r*是数据集中最大的关系triplet数目。通过这个sparse degree我们就可以确定参数矩阵的稀疏程度了。entity的向量通过下式进行转换:

  

2、针对imbalance问题提出的TranSparse(separate)方法也十分类似,即在关系的head和tail两端使用不同复杂度的matrix。sparse degree的公式与上面TranSparse(share)的几乎一样,只不过N_r和N_r*替换成了entity的个数。如果某一端要连接更多不同的entity,那么这一端就需要更复杂的模型来表征(matrix有更多非零参数)。

确定这个sparse degree之后,我们就可以初始化对应的稀疏参数矩阵了(原文中提到了Structured与Unstructured两种矩阵形式)。目标函数以及训练过程与其他工作一致,只不过在进行训练时我们只对矩阵中的非零部分进行更新。

最后模型在triplet分类和链接预测任务上进行实验,相比于先前模型取得了更好的成绩,atv,不过相比于TranD优势并不十分明显。提出的两个模型中TranSparse(separate)的表现更好。

  资源

数据集 WordNet

  数据集 Freebase

  相关工作

上面的相关工作已经介绍差不多了,这里不再赘述。

  简评

TranSparse模型主要是为了解决关系和实体的异质性和不平衡性而提出,问题针对性强。

  总结与展望

最近几年人们对知识表示方法的探究一直都在进行,知识表示学习对于计算机如何理解和计算知识的意义是重大的。在2013年embedding的思想出现之前,人们基本采用one-hot的表示方法来表示实体,近几年知识表示的核心思想就是如何找到合适的方法来将知识图谱emmbedding到向量空间,从而在向量空间中进行计算,并且也在这方面取得了不错的进展。但知识表示学习仍然面临着挑战,主要包括以下几个方面:

1、对于多源知识融合的表示学习,如何将知识库中的文本等信息加入到学习中。

2、如何进行更加复杂的知识推理。

3、对于知识图谱无法表达的信息,应该进行如何表示和推理。

4、如何在知识库中融入常识信息。

(参考自:清华大学刘知远老师的《知识表示学习研究进展》一文)

致谢

(责任编辑:本港台直播)
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
栏目列表
推荐内容