抱歉,您的浏览器无法访问本站

本页面需要浏览器支持(启用)JavaScript


了解详情 >

本周读进去的论文有点少,哭。

InteractE: Improving Convolution-based Knowledge Graph Embeddings by Increasing Feature Interactions

关注问题

ConvE虽然提出了将卷积神经网络应用到知识图谱补全任务,但没有很好的学习头节点和关系之间的交互(Interactions)。本文旨在提高 “the number of interactions”
### 方法论
文章分析了交互的数量和链接预测性能之间的关系,定义了同构和异构两种Interaction的种类,并且基于分析,提出了使用循环卷积以及ALternate和Chequer两种打乱元素堆叠方法的方式,改进the number of interactions。
Three Kinds of Reshaping Function
Circular Convolution

本文讨论了BERT在链接预测领域的应用,主要针对动态图谱,也就是在测试场景中出现的新的实体。
BERT In KGLP

为了表述这种动态性,数据集设计成,所有关系在训练集中都有出现,有一部分实体只在测试阶段出现。
这个场景下,传统的基于知识图谱结构的模型是没办法应对的,因此,本文提出了使用BERT对实体描述进行编码处理,然后使用常见的链接预测模型进行打分和预测。
值得注意的是,因为测试集中的关系都是在训练集中出现过的,因此并没有考虑关系的文本描述。

发表在NIPS 2020 Workshop的工作,讨论了将知识图谱链接预测作为辅助任务增强关系抽取任务的性能。将模型的Loss分为了三部分,关系抽取的Loss,链接预测任务的Loss,和Coupling Loss(耦合Loss)

注意到,链接预测部分模型只参与模型训练,不参与模型测试。
Model Structure

评论