iclr知识图谱,如何学好iclr

首页 > 影视动漫 > 作者:YD1662023-05-11 00:35:34

Deep Graph Matching Consensus intuition. Source: Fey et al

1)两个图,源图(Gs)和目标图(Gt),通过相同的GNN(具有相同的参数,表示为ψ_θ1)获得初始节点嵌入。然后通过乘以节点嵌入,并应用Sinkhorn归一化来获得软对应矩阵S(soft correspondences matrix S)。这里可以使用任何最适合任务的GNN编码器。

2)随后将消息传递(也可以看做是图形着色)应用到邻域(标注为ψ_θ2的网络),最后计算出源节点和目标节点之间的距离(ψ_θ3),这个距离表示邻域共识。

作者对DGMC进行了广泛的任务评估——匹配随机图、匹配目标检测任务的图,以及匹配英、汉、日、法版的DBpedia。有意思的是,DGMC在删除关系类型时,却能产生很好的结果,这说明源KG和目标KG之间基本上是单一关系。

于是引入这样一条疑惑:如果在Hits@10我们已经做到90 %了,真的还需要考虑所有属性类型以及限制语义吗?

13、Learning deep graph matching with channel-independent embedding and Hungarian attention

文章链接:https://openreview.net/pdf?id=rJgBd2NYPH

Yu 等人介绍了他们的深度匹配框架,这个框架具有两个比较鲜明的特征:聚焦在聚合边缘嵌入、引入一个新的匈牙利注意力(Hungarian attention)。匈牙利算法是解决分配问题的经典方法,但它不是可微分的。

iclr知识图谱,如何学好iclr(13)

作者利用一个黑箱(带有匈牙利注意力)的输出来生成网络结构,然后把这个流进一步地传播。匈牙利注意力的方法,直观来理解一下:

1)初始步骤类似于DGMC,一些图编码器生成节点和边嵌入,且相似矩阵通过Sinkhorn规范化来传递;

2)不同的是,生成矩阵被返回到匈牙利黑箱(而不是像DGMC中那样传递迭代消息),从而生成离散矩阵;

3)通过注意力机制与基准进行比较,获得激活图,然后对其进行处理,从而获得loss。

作者仅在CV基准上进行了评估,但由于匈牙利算法的时间复杂度是O(n³),所以如果能把runtime 也放出来,可能会更有趣。

五、角色扮演游戏中的知识图谱

互动小说游戏(Interactive Fiction games,例如RPG Zork文字游戏)非常有趣,尤其是你探索完世界,然后输入一段话,等待游戏反馈的时候。

14、Graph Constrained Reinforcement Learning for Natural Language Action Spaces

文章链接:https://openreview.net/pdf?id=B1x6w0EtwH

Ammanabrolu 和 Hausknecht 提出了一项有关 IF 游戏中强化学习的新工作。这个工作中使用了 知识图谱来建模状态空间和用户交互。

iclr知识图谱,如何学好iclr(14)

Source: Ammanabrolu and Hausknecht

例如,词汇表中有数十个模板和数百个单词。尝试所有可能的排列是不可行的。但当你维护一个可见实体的知识图谱时,agent的可选项就会大幅度减少,于是便可以更快地推进游戏。

在他们提出的编码-解码模型 KG-A2C(Knowledge Graph Advantage Actor Critic)中,编码器采用GRU进行文本输入,并使用图注意力网络构建图嵌入。此外,在解码器阶段使用可见对象的图遮掩(graph mask)。在基准测试中,KG-A2C可以玩28个游戏!

Soon they will play computer games better than us meatbags.

很快,电子游戏上,他们将比我们这些菜包子们打的更好了。

iclr知识图谱,如何学好iclr(15)

6、Conclusion

目前我们看到,知识图谱已经越来越多地应用到 AI的各个领域,特别是NLP领域。

ICML 和ACL 随后也将到来,届时我们再见。

雷锋网雷锋网

via https://medium.com/@mgalkin/knowledge-graphs-iclr-2020-f555c8ef10e3

上一页1234末页

栏目热文

文档排行

本站推荐

Copyright © 2018 - 2021 www.yd166.com., All Rights Reserved.