个人在网站怎么做,公益免费空间主机,深圳网站备案拍照点,公益免费空间主机Facing Changes: Continual Entity Alignment for Growing Knowledge Graphs
面对变化#xff1a;不断增长的知识图谱的持续实体对齐
Abstract
实体对齐是知识图谱(KG)集成中一项基本且重要的技术。多年来#xff0c;实体对齐的研究一直基于知识图谱是静态的假设#xff…Facing Changes: Continual Entity Alignment for Growing Knowledge Graphs
面对变化不断增长的知识图谱的持续实体对齐
Abstract
实体对齐是知识图谱(KG)集成中一项基本且重要的技术。多年来实体对齐的研究一直基于知识图谱是静态的假设忽略了现实世界知识图谱增长的本质。随着知识图谱的增长之前的对齐结果需要重新审视同时新的实体对齐等待被发现。在本文中我们提出并深入研究了一个现实但尚未探索的环境称为持续实体对齐。为了避免每当新实体和三元组出现时在整个 KG 上重新训练整个模型我们为此任务提出了一种持续对齐方法。它根据实体邻接关系重建实体的表示使其能够使用现有邻居快速、归纳地生成新实体的嵌入。它选择并重放部分预对齐的实体对以仅训练部分知识图谱同时提取值得信赖的对齐以增强知识。由于不断增长的知识图谱不可避免地包含不可匹配的实体与以前的工作不同该方法采用双向最近邻匹配来找到新的实体对齐并更新旧的对齐。此外我们还通过模拟多语言 DBpedia 的增长来构建新的数据集。大量的实验表明我们的持续对齐方法比基于再训练或归纳学习的基线更有效。
1 Introduction
现有的基于嵌入的实体对齐方法假设了静态知识图谱的理想化场景忽略了许多现实世界的困难例如对齐不完整、知识图谱增长和对齐增长。在本文中提出并研究了一种新的设置即不断增长的知识图谱和不完整的知识图谱之间的持续实体对齐。
真实场景对基于嵌入的实体对齐提出了新的挑战
第一个挑战是如何以有效且高效的方式学习新实体的嵌入。当知识图谱增长时预训练的实体对齐模型第一次看到新的实体因为新的三元组给知识图谱带来了结构变化。因此需要对预训练模型进行重要更新以合并新实体和新三元组。第二个挑战是如何捕捉新旧实体的潜在一致性。在实际情况中知识图谱总是包含未知的不可匹配实体这需要更可靠的对齐检索策略而不是简单地对测试集中的候选者进行排名。此外由于新实体通常链接很少捕获新实体的潜在对齐变得更加困难。第三个挑战是如何将旧的预测对齐与新的预测相结合。在本文中每次 KG 增长时都会输出对齐结果。新旧对齐不可避免地会发生冲突。需要一个有效的整合策略来组合它们并更新最终的对齐方式。
为了解决这些挑战提出了一种持续实体对齐方法 ContEA。关键想法是微调预训练模型以合并新实体和三元组同时捕获潜在的实体对齐。具体来说使用 Dual-AMN作为我们的基础编码器。为了使其能够有效地处理新实体设计了一个实体重建目标它允许编码器仅使用相邻子图来生成实体嵌入。为了从嵌入空间检索对齐提出了一种双向最近邻搜索策略。当且仅当两个实体是彼此最近的邻居时才预测它们是对齐的。当新的实体和三元组出现时ContEA 根据变化的结构对预训练模型进行微调。为了捕获潜在的实体对齐重放部分已知的对齐以避免知识遗忘并选择高置信度预测来增强知识。
2 Problem Statement
将 KG 定义为三元组 G { E , R , T } \mathcal{G}\{\mathcal{E},\mathcal{R},\mathcal{T}\} G{E,R,T}其中 E \mathcal E E和 R \mathcal R R分别表示实体和关系的集合。 T ⊆ E × R × E \mathcal{T}\subseteq\mathcal{E}\times\mathcal{R}\times\mathcal{E} T⊆E×R×E 是关系三元组的集合。
定义1 不断增长的知识图((Growing knowledge graphs) 增长的知识图 G \mathcal G G 是一系列快照 G ( G 0 , G 1 , … , G T ) \mathcal{G}(\mathcal{G}^{0},\mathcal{G}^{1},\ldots,\mathcal{G}^{T}) G(G0,G1,…,GT)其中上标数字表示不同的时间戳。对于任意两个连续的时间戳 G t { E t , R t , T t } \mathcal{G}^{t}\{\mathcal{E}^{t},\mathcal{R}^{t},\mathcal{T}^{t}\} Gt{Et,Rt,Tt}和 G t 1 { E t 1 , R t 1 , T t 1 } \mathcal G^{t1} \{\mathcal{E}^{t1},\mathcal{R}^{t1},\mathcal{T}^{t1}\} Gt1{Et1,Rt1,Tt1}存在 E t ⊆ E t 1 \mathcal{E}^{t}\subseteq\mathcal{E}^{t1} Et⊆Et1, R t ⊆ R t 1 \mathcal{R}^{t}\subseteq\mathcal{R}^{t1} Rt⊆Rt1 和 T t ⊆ T t 1 \mathcal{T}^{t}\subseteq\mathcal{T}^{t1} Tt⊆Tt1。
在此定义中在 t t t 和 t 1 t 1 t1 之间的 Δ T t 1 \Delta\mathcal{T}^{\mathrm{t}1} ΔTt1中每个新添加的三元组包含零个、一个或两个新实体。考虑到知识图谱中的关系集远不如实体的多样化我们在本文中忽略了新关系的出现并假设知识图谱中的关系是预先定义的。
定义 2 持续实体对齐(Continual entity alignment) 给定两个不断增长的知识图 G 1 \mathcal G_1 G1 和 G 2 \mathcal G_2 G2以及种子实体对齐 A s \mathcal A_s As 在时间 t 0 t 0 t0 时在时间 t t t 的连续实体对齐旨在基于当前学习的 KG 嵌入和对齐模型在 G 1 t \mathcal G^t_1 G1t 和 G 2 t \mathcal G^t_2 G2t 之间找到潜在的实体对齐 A p t \mathcal A^t_p Apt。
在此定义中 A s \mathcal A_s As的大小是恒定的而 A p t \mathcal A^t_p Apt随着时间的推移而增长因为新实体可能会发现新的实体对齐。考虑到种子实体对齐通常是有缺陷且难以获得的我们不假设新快照带来新的种子对齐来增强训练数据。也就是说 t 0 t 0 t0 时刻的快照 A s \mathcal A_s As 与 t 0 t 0 t0 时刻的快照 A s \mathcal A_s As 相同。
3 Methodology 由两个模块组成基于子图的实体对齐(Subgraph-based Entity Alignment)模块以及嵌入和对齐更新(Embedding and Alignment Update)模块。
3.1 Subgraph-based Entity Alignment
该模块基于 GNN构建GNN通过聚合其邻域子图来表示实体。GNN背后的关键假设是具有相似邻域的实体看起来很接近这使得 GNN 可扩展以表示新实体。
子图编码器。 采用基于 GNN 的 Dual-AMN编码器作为子图编码器因为它的有效性和简单性。 Dual-AMN的编码器由捕获单个KG内的结构信息的内图层即 A g g r e g a t o r 1 Aggregator_1 Aggregator1和基于 A g g r e g a t o r 1 Aggregator_1 Aggregator1的输出捕获跨图匹配信息的跨图层 A g g r e g a t o r 2 Aggregator_2 Aggregator2组成。从技术上讲 A g g r e g a t o r 1 Aggregator_1 Aggregator1是一个 2 层关系感知 GNN A g g r e g a t o r 2 Aggregator_2 Aggregator2是一个代理注意力网络将实体与代理节点列表连接起来。总体而言给定一个实体 e e e其经过 Dual-AMN 编码后的表示为 Encoder ( e ) Aggregator 2 ( Aggregator 1 ( e , N e ) , E proxy ) , \text{Encoder}(e)\text{Aggregator}_2(\text{Aggregator}_1(e,\mathcal{N}_e),\mathcal{E}_{\text{proxy}}), Encoder(e)Aggregator2(Aggregator1(e,Ne),Eproxy),
其中 A g g r e g a t o r 1 ( ) Aggregator_1() Aggregator1() 聚合实体 e e e本身及其关系邻居 N e \mathcal N_e Ne 以生成其嵌入 A g g r e g a t o r 2 ( ) Aggregator_2() Aggregator2()将输出嵌入与代理节点 E p r o x y \mathcal E_{proxy} Eproxy 组合以生成实体的最终表示。
实体重建。 随着 KG 的增长预训练的 GNN 编码器会遇到新的实体和三元组。关键的挑战是如何将看不见的实体合并到编码器中。随机初始化新实体的嵌入可能不利于之前优化的嵌入空间并导致表示不一致。基于嵌入的实体对齐的典型假设是如果两个实体的邻域子图相似即两个子图具有相似或预先对齐的实体则两个实体相似。受此启发提出了一个自监督学习目标使编码器能够使用其邻域子图重建实体 L reconstruct ∑ e ∈ E ∥ e − 1 ∣ N e ∣ ∑ e ′ ∈ N e e ′ ∥ 2 2 . \mathcal{L}_{\text{reconstruct}}\sum_{e\in\mathcal{E}}\left\|\mathbf{e}-\frac{1}{|\mathcal{N}_{e}|}\sum_{e\in\mathcal{N}_{e}}\mathbf{e}\right\|_{2}^{2}. Lreconstructe∈E∑ e−∣Ne∣1e′∈Ne∑e′ 22.
这里 N e \mathcal N_e Ne表示 e e e的一跳邻居集合。该目标最小化实体与其相邻子图嵌入所有相邻嵌入的平均向量之间的距离。
对齐学习。 给定编码器的输出对齐学习的目的是收集相似的实体对并距离不相似的实体对。通过负采样对不同的实体对进行建模。继 Dual-AMN 之后还采用 LogSumExp 函数来计算损失 L a l i g n log [ 1 ∑ ( e 1 , e 2 ) ∈ A s ∑ ( e 1 , e 2 ′ ) ∈ A e 1 n e g exp ( γ ( λ s i n ( e 1 , e 2 ) − s i m ( e 1 , e 2 ′ ) ) ) ] , \mathcal{L}_{\mathrm{align}}\log\bigg[1\sum_{(e_1,e_2)\in\mathcal{A}_s}\sum_{(e_1,e_2^{\prime})\in\mathcal{A}_{e_1}^{\mathrm{neg}}}\exp\big(\gamma(\lambda\mathtt{s}\mathtt{in}(e_1,e_2)-\mathtt{s}\mathtt{im}(e_1,e_2^{\prime}))\big)\bigg], Lalignlog[1(e1,e2)∈As∑(e1,e2′)∈Ae1neg∑exp(γ(λsin(e1,e2)−sim(e1,e2′)))],
其中 A e 1 n e g \mathcal{A}_{e_{1}}^{\mathrm{neg}} Ae1neg 表示为实体 e 1 e_1 e1生成的负对齐。 γ \gamma γ是比例因子 λ \lambda λ是用于分离种子对齐对和负对的相似性的余量。余弦用于计算嵌入相似度即 sim ( e 1 , e 2 ) cos ( Encoder ( e 1 ) , Encoder ( e 2 ) \text{sim}(e_1,e_2)\cos(\text{Encoder}(e_1),\text{Encoder}(e_2) sim(e1,e2)cos(Encoder(e1),Encoder(e2)。我们采用批量负生成方法。具体来说对于实体 e 1 e_1 e1训练批次中的其他实体例如 e 2 ′ e_2^\prime e2′充当其负对应物以生成负对 A e 1 n e g \mathcal{A}_{e_{1}}^{\mathrm{neg}} Ae1neg 。基于子图的实体对齐模块 L 1 \mathcal L_1 L1 的最终学习目标是 L a l i g n \mathcal L_{align} Lalign 和 L r e c o n s t r u c t \mathcal L_{reconstruct} Lreconstruct的组合 L r e c o n s t r u c t \mathcal L_{reconstruct} Lreconstruct上的权重为 α \alpha α L 1 L align α ⋅ L reconstruct . \mathcal{L}_1\mathcal{L}_{\text{align}}\alpha\cdot\mathcal{L}_{\text{reconstruct}}. L1Lalignα⋅Lreconstruct.
值得信赖的对齐搜索。 对齐学习完成后根据优化的嵌入空间检索可信的实体对齐作为预测。之前基于嵌入的实体对齐方法假设一个 KG 中的每个实体必须在另一个 KG 中具有对应项。典型的推理过程是最近邻搜索即它寻求 e ^ 2 arg min e 2 ∈ E 2 π ( Encoder ( e 1 ) , Encoder ( e 2 ) ) , \hat{e}_2\arg\min_{e_2\in\mathcal{E}_2}\pi(\text{Encoder}(e_1),\text{Encoder}(e_2)), e^2arge2∈E2minπ(Encoder(e1),Encoder(e2)),
其中 π ( ) π() π() 是对齐搜索的度量 e ^ 2 \hat e_2 e^2 是 e 1 e_1 e1 的预测对应项。然而这种“理想化”的假设在现实环境中可能并不成立因为两个知识图谱中有许多不匹配的实体。为了解决这个问题并改进对齐搜索提出了一种称为双向最近对齐搜索的无参数策略。它在一个 KG 中搜索另一个 KG 中实体的最近邻居。当且仅当 e 2 e ^ 2 e_2 \hat e_2 e2e^2 且 e 1 e ^ 1 e_1 \hat e_1 e1e^1 时对齐对 ( e 1 , e 2 ) (e_1, e_2) (e1,e2) 才是值得信赖的对齐。其他对齐对被丢弃。
3.2 Embedding and Alignment Update
在时间 t 0 t 0 t0 时KG 的关系结构随着新三元组的出现而发生变化。它需要在捕获结构变化的同时为新实体生成嵌入。为了解决这一挑战通过部分种子对齐和选定的可信对齐来微调 GNN 编码器和新实体嵌入。微调后根据更新的模型和嵌入检索新的可信实体对齐。新的预测对齐用于使用启发式策略来完成和更新在时间 t − 1 t − 1 t−1 发现的旧对齐。
编码器微调。 使用前一个模块/时间中学到的参数来初始化编码器。由于实体重建目标编码器能够初始化新实体 e e e 的嵌入如下所示 Encoder ( e ) Aggregator 2 ( Aggregator 1 ( MP ( N e ′ ) ) , E proxy ) \text{Encoder}(e)\text{Aggregator}_2(\text{Aggregator}_1(\text{MP}(\mathcal{N}_e^{\prime})),\mathcal{E}_{\text{proxy}}) Encoder(e)Aggregator2(Aggregator1(MP(Ne′)),Eproxy)
其中 N e ′ \mathcal N_e^\prime Ne′ 表示新实体 e e e 的可见邻居。 M P ( ) MP() MP() 是使用 N e ′ \mathcal N_e^\prime Ne′生成 e e e 嵌入的均值池化过程。
基于新实体和现有实体的输出嵌入需要对 GNN 编码器进行微调。具体来说冻结内图层 A g g r e g a t o r 1 Aggregator_1 Aggregator1同时使跨图 A g g r e g a t o r 2 Aggregator_2 Aggregator2可学习。对于单个 KG新数据的到来不会改变邻居聚合模式因为 KG 的模式保持一致没有新的关系或实体域。但在所提出的场景中两个 KG 独立且不对称地增长。需要对匹配网络进行微调做出调整和新的发现。
对于训练数据考虑到潜在的实体对齐更有可能发生在锚点附近仅重播包含新三元组中涉及的锚点的受影响的种子实体对齐。这有助于新实体的协调而这原本由于其程度低而很困难。此外为了帮助对齐来自更广泛和更动态区域的实体选择具有最高相似性分数的 t o p − m top-m top−m 预测可信对齐并将它们视为“新锚点”。
对获得的受影响种子对齐简称 ASA和 m m m 个选定的可信对齐简称 TA上的 GNN 编码器和新实体嵌入进行微调。对 m m m 个值得信赖的对齐的学习损失使用权重 β \beta β 来平衡其重要性。最终finetuning的损失函数 L 2 \mathcal L_2 L2为 L 2 L align ( A S A ) α ⋅ L reconstruct β ⋅ L align ( T A ) . \mathcal{L}_2\mathcal{L}_{\text{align}}(ASA)\alpha\cdot\mathcal{L}_{\text{reconstruct}}\beta\cdot\mathcal{L}_{\text{align}}(TA). L2Lalign(ASA)α⋅Lreconstructβ⋅Lalign(TA).
值得信赖的对齐更新。 微调后可以使用更新的实体嵌入和模型检索一组新的可信对齐。有必要将其与先前发现的值得信赖的对齐方式结合起来因为它们是从不同的快照中收集的并且可以相互补充以产生更好的结果。在这里采用启发式策略来整合它们在两个新实体之间保持新的值得信赖的对齐。但对于导致对齐冲突与之前值得信赖的对齐即一个实体与不同实体对齐的新对齐保留具有更高相似性分数的对齐随着知识图谱的增长可信实体对齐的规模不断累积。
3.3 Put It All Together 第 1-3 行描述了时间 t 0 时基于子图的实体对齐模块的过程。第 4-8 行描述了时间 t 0 时嵌入和对齐更新模块的过程。
4 Experiments
4.1 New Datasets for Continual Entity Alignment
首先使用DBpedia中的语言间链接完成参考实体对齐从而在第一个快照中产生超过15K的参考对齐对。然后将参考实体对齐分为训练集、验证集和测试集即 A s \mathcal A_s As、 A v \mathcal A_v Av 和 A p 0 \mathcal A^0_p Ap0比例为 2:1:7。构建五个快照来模拟 KG 的增长
在时间 t 0 t 0 t0 时首先从 DBpedia 收集包含 G 1 t − 1 \mathcal G^{t−1}_1 G1t−1 和 G 2 t − 1 \mathcal G^{t−1}_2 G2t−1中实体的关系三元组。然后在这些三元组中删除在时间 t − 1 t − 1 t−1 时看到的三元组并从剩余的三元组中采样新的三元组其大小为先前快照中三元组的 20%。将新的三元组添加到 G 1 t − 1 \mathcal G^{t−1}_1 G1t−1和 G 2 t − 1 \mathcal G^{t−1}_2 G2t−1 中创建快照 G 1 t \mathcal G^{t}_1 G1t 和 G 2 t \mathcal G^t_2 G2t。然后通过添加来自 DBpedia 的附加关系三元组来完成 G 1 t \mathcal G^{t}_1 G1t 和 G 2 t \mathcal G^{t}_2 G2t其中头实体和尾实体都在快照中导致三元组大小增长超过 20%。最后检索新添加的实体带来的新实体对齐对并将它们添加到快照 t t t 的测试集 A p t \mathcal A^t_p Apt 中。训练集 A s \mathcal A_s As 或验证集 A v \mathcal A_v Av 仍然遵循时间 t 0 t 0 t0 时第一个快照中的情况。不假设新快照引入新的训练数据因为现实世界中获得新实体的种子对齐通常比为旧实体找到种子对齐更困难。
4.2 Baselines
将 ContEA 与两组实体对齐方法进行比较。
再训练基线(Retraining baselines)。由于大多数现有的基于嵌入的 EA 方法都是为静态 KG 设计的因此每次新的三元组出现时都需要重新训练。选择代表性的基于翻译的方法 MTransE以及基于 GNN(GCN-Align、AlignE、AliNet、KEGCN、Dual-AMN)。归纳基线(Inductive baselines)。唯一关注 KG 增长的实体对齐方法是 DINGAL。选择变体之一 DINGAL-O 作为基线。此外选择两种代表性的归纳式 KGE 方法 MEAN 和 LAN 作为实体表示层并将它们与 Dual-AMN 结合起来(用 M E A N MEAN^ MEAN 和 L A N LAN^ LAN 表示两个基线)。
4.3 Experiment Settings
评估指标 准确率、召回率和 F1 分数
执行 使用 PyTorch 实现 ContEA、Dual-AMN、 M E A N MEAN^ MEAN 和 L A N LAN^ LAN。对于其他再训练基线使用开源库中的实现。为了公平比较所有基线仅依赖 KG 的结构信息不使用预训练模型进行初始化。
4.4 Results 一般结果。 对构建的数据集进行了实验结果如表 2、表 3 和表 4 所示。与基线相比ContEA 在发现潜在实体对齐方面达到了最佳性能。
消融研究 提出了三种变体如下所示
ContEA 不带 TA。在微调过程中丢弃选定的可信实体对齐仅对受影响的种子对齐进行训练。ContEA 不含 TA 和 ASA。丢弃选定的可信对齐和受影响的种子对齐。因此我们的方法不需要微调并简化为归纳方法。实体重建方法使用其邻居为新实体生成嵌入。ContEA 再训练。与再训练基线相同ContEA 将每个快照视为 t 0 t 0 t0。旧预测的实体对齐完全被新预测的实体对齐取代而不是集成。
表 2、表 3 和表 4 中显示了三个变体的结果。这些变体在 t 0 t 0 t0 时继承了经过训练的 ContEA并在之后分别执行。当丢弃选定的可信对齐时性能下降。如果进一步降低受影响的种子排列则会出现更大的下降。这证明了所选择的可信对齐和受影响的种子对齐重放的有效性。对于ContEA再训练虽然它的表现比ContEA差很多但它仍然优于所有再训练基线包括Dual-AMN这表明了实体重建的有效性。 发现新的对齐方式。 在时间 t { 1 , 2 , 3 , 4 , 5 } t \{1, 2, 3, 4, 5\} t{1,2,3,4,5} 时收集涉及新实体的最终预测对齐并通过将其与包含新实体的黄金测试对齐进行比较来计算召回值。在表 5 中显示了 D B P Z H − E N DBP_{ZH-EN} DBPZH−EN 上的结果。ContEA 相对于所有基线达到了最高的召回率这表明ContEA在发现新实体的对齐方面的优势。此外新实体的黄金对齐召回率明显低于所有黄金对齐召回率。这是因为新实体往往是稀疏链接的这阻碍了对齐模型正确匹配它们。此外图 3 说明了 ContEA 的总正确预测比对的增长。在时间 t t t正确预测的总对齐大小计算为 ∣ A p t ∣ × R e c a l l |\mathcal{A}_{\mathrm{p}}^{t}|\times\mathrm{Recall} ∣Apt∣×Recall表 2 中的 R。结果表明随着 KG 的增长ContEA 可以找到越来越大的正确实体对齐这满足了持续实体对齐的建议。 效率。 将 ContEA 的训练效率与再训练基线进行比较。图 4 描述了不同快照下三个数据集的平均时间成本。ContEA 的训练时间显着减少这显示了其在处理连续实体对齐任务方面的部分优势。
4.5 Further Analysis 合并实体名称。 使用 fasttext 库来生成实体的名称嵌入。由于 fasttext 的原始词嵌入维度为 300为了使嵌入空间可扩展使用官方降维器将维度降低到 100。此外还引入了 Google Translate (G.T.) 作为竞争方法。对于跨语言数据集首先将两个知识图谱中的实体翻译成同一种语言英语或非英语然后使用 Levenshtein 距离语言学中流行的测量方法 和本体匹配 来计算名称相似度。稍后还使用双向最近邻搜索来获得预测的可信实体对齐将其与黄金测试集进行比较以计算 P P P、 R R R 和 F 1 F1 F1 分数。在表 6 中列出了 F 1 F1 F1 结果。通过利用名称属性ContEA (fasttext) 的性能大幅优于 ContEA。随着时间的推移谷歌翻译提供了令人满意且强大的性能正如预期的那样强大。它的性能更稳定对 KG 的大小不太敏感在三个数据集的大多数快照上第一个快照除外其表现优于 ContEAfasttext。
进一步探索 ContEA 和 Google Translate 的结合。为此在搜索从一个 KG 到另一个 KG 的最近邻居时组合它们的预测对齐然后采用双向交集来获得最终的组合预测对齐。这种组合的结果显示在最后一行。在三个数据集的几乎所有快照中它们的组合都优于 Google Translate 和 ContEA。 纠正先前对齐的案例研究。 在表7中提供了几个关于先前预测的对齐在以后的精调过程中得到纠正的案例。保存预测的比对及其在时间 t 0 t0 t0和 t 5 t5 t5的相似性分数并将每次涉及相同实体的两个比对对并列在一起。手动检查并置列表并注意到在 t 0 t0 t0处的预测对齐通常是不正确的具有较小的相似性分数而在 t 5 t5 t5处的它们的对应物是正确的具有较高的相似性分数。这表明了ContEA的自我纠正能力。同时在 t 0 t0 t0处错误预测的对准中的两个实体并非完全无关。
5 Related Work
静态实体对齐。 大多数现有的基于嵌入的实体对齐方法都关注静态知识图谱。根据 KG 编码器的技术它们通常可以分为两类基于翻译的 和基于 GNN 的。前一类采用基于翻译的知识图谱嵌入KGE技术来嵌入实体并基于预对齐的实体对将跨图实体映射到统一空间。基于 GNN 的实体对齐方法的编码器学习共享邻域聚合器以将实体嵌入到不同的 KG 中。近年来它们获得了压倒性的流行因为它们具有使用实体周围的子图而不是单个三元组来捕获结构信息的强大能力。
动态实体对齐。 DINGAL是唯一解决知识图谱动态的实体对齐方法。在其动态场景中新的三元组被添加到 KG 中并且与这些新实体一起提供新的已知对齐。他们的工作中还提出了一种名为 DINGAL-O 的 DINGAL 变体用于处理与我们类似的环境其中预先已知的对齐不会增长。 DINGAL-O 是一种归纳方法利用先前学习的模型参数来预测新的对齐方式。特别是他们使用名称属性来生成用于实体初始化的词嵌入。
归纳知识图嵌入。 动态 KG 嵌入的研究多年来引起了广泛的关注。在 GNN 的支持下提出了许多用于 KG 补全的归纳嵌入方法来生成新实体的嵌入。早期的归纳方法要么专注于半归纳设置其中新实体连接到现有 KG 并在新实体和现有实体之间进行推理要么专注于全归纳设置其中新实体形成独立图并进行推理,新实体之间的推论。后来的归纳法打算解决这两种情况。同时一些归纳知识图谱嵌入方法专注于特殊任务例如小样本学习和超关系知识图谱补全。具体来说作为第一个归纳 KG 嵌入方法MEAN通过简单地对相邻实体关系对的信息进行均值池学习来使用其邻居来表示实体。LAN通过在池化过程中结合对实体关系对的基于规则的注意力和基于 GNN 的注意力来改进 MEAN。
6 Conclusion and Future Work
在本文中考虑到现实世界知识图谱的增长性质重点关注两个图都在增长的实体对齐场景并解决名为连续实体对齐的新任务。提出了一种新方法 ContEA 作为该任务的解决方案。此外构建了三个数据集来模拟场景并进行广泛的实验。实验结果表明ContEA 相对于一系列再训练和归纳基线在有效性和效率方面具有优越性。对于未来的工作当前提案有许多有希望的改进和扩展。关于设置未来的研究可以考虑更复杂的场景例如添加新关系、添加新的已知对齐方式甚至删除实体和三元组。就方法而言需要更可靠、更全面的值得信赖的对齐更新策略来处理复杂的对齐冲突情况。
论文原文
https://arxiv.org/pdf/2207.11436.pdf
GitHub仓库
https://github.com/nju-websoft/ContEA