标签: knowledge-graph

如何下载和使用维基百科数据转储?

我想计算特定语言(例如英语)的维基转储中的实体/类别。对于初学者来说,官方文档很难找到/遵循。到目前为止我所理解的是,我可以下载 XML 转储(我从所有可用的不同文件中下载什么),并解析它(?)以计算实体(文章主题)和类别。

该信息即使有,也很难找到。请帮助提供一些有关我如何使用它的说明或我可以了解它的资源。

谢谢!

wikipedia information-retrieval wikidata knowledge-graph

10
推荐指数
2
解决办法
1万
查看次数

两个嵌入模型的联合训练(KGE + GloVe)

如何创建一个联合模型,股票的参数知识图嵌入(KGE)模型,塔克(如下),和手套(与尺寸一起承担共生矩阵已经有售)

换句话说,联合模型必须服从CMTF的标准(Ç oupled中号ATRIX和Ť恩索尔˚F actorizations)框架和从所述两个嵌入物必须在训练期间被捆扎的权重。这里的问题是 KGE 需要一个三元组(主题、关系、对象),而 GloVe 需要一个共现矩阵。此外,它们的损失函数的计算方式也不同。

class TuckER(torch.nn.Module):
    def __init__(self, d, d1, d2, **kwargs):
        super(TuckER, self).__init__()

        self.E = torch.nn.Embedding(len(d.entities), d1)
        self.R = torch.nn.Embedding(len(d.relations), d2)
        self.W = torch.nn.Parameter(torch.tensor(np.random.uniform(-1, 1, (d2, d1, d1)), 
                                    dtype=torch.float, device="cuda", requires_grad=True))

        self.input_dropout = torch.nn.Dropout(kwargs["input_dropout"])
        self.hidden_dropout1 = torch.nn.Dropout(kwargs["hidden_dropout1"])
        self.hidden_dropout2 = torch.nn.Dropout(kwargs["hidden_dropout2"])
        self.loss = torch.nn.BCELoss()

        self.bn0 = torch.nn.BatchNorm1d(d1)
        self.bn1 = torch.nn.BatchNorm1d(d1)
        
    def init(self):
        xavier_normal_(self.E.weight.data)
        xavier_normal_(self.R.weight.data)

    def forward(self, e1_idx, r_idx):
        e1 = self.E(e1_idx)
        x = self.bn0(e1)
        x = …
Run Code Online (Sandbox Code Playgroud)

python deep-learning torch pytorch knowledge-graph

9
推荐指数
0
解决办法
294
查看次数

hist@k 是如何计算的以及它在知识库中链接预测的上下文中意味着什么

我研究有关知识网络中链接预测的论文。作者通常报告“Hits@k”。我想知道如何计算 hist@k 以及它对模型和结果意味着什么?

entity operations-research knowledge-graph entity-linking

8
推荐指数
1
解决办法
9594
查看次数

何时使用图数据库、本体和知识图

从实际角度来看,我一直在努力理解这些技术何时有用,以及它们之间有何不同。专家可以检查一下我的理解吗?

  1. 图形数据库:当关系复杂、继承、以不同程度的置信度推断并且可能发生变化时,图形数据库比关系数据库更容易理解和管理。一些示例:用户不知道他们需要层次结构的深度;从社交媒体推断关系,对 ID 解析、主题解析和关系强度有不同程度的置信度;或者不知道他们要存储什么类型的呼叫中心数据;所有这些都可以存储在关系数据库中,但它们需要不断更新。它们对于某些任务也更具表现力。

  2. 本体:这些正式且标准化的知识表示用于打破数据孤岛。例如,假设一家 B2B 销售公司从多个不同的业务领域获得收入,其中包括一次性付款、订阅、IP 销售和咨询服务。收入数据存储在许多不同的数据库中,这些数据库具有很多特性。本体允许用户将“客户付款”定义为“创造或退还收入”的任何内容,以便主题专家可以在其数据库中适当地标记付款。本体可以与图数据库或关系数据库一起使用,但是对类继承的强调使得它们在图数据库中更容易实现,在图数据库中可以轻松地对类的分类进行建模。

  3. 知识图:知识图是一种图数据库,其中语言(含义、实体和节点分类法)由本体管理。因此,在我们的 B2B 示例中,“客户付款”边缘具有一次性付款、订阅等子类型,并将“客户”类连接到“业务线”类。

这基本上是正确的吗?

ontology graph-databases knowledge-graph

6
推荐指数
1
解决办法
2589
查看次数

知识图谱和本体的区别

知识图谱和本体有什么区别?其中哪一个依赖于另一个?

我明白那个 :

  1. 两者都用节点和边表示,表示实体以及这些实体之间的关系。

  2. 知识图谱更具体,针对特定应用,而本体则更通用。

  3. 在构建知识图谱时会参考本体来检查该知识图谱的一致性。

我对么?

ontology knowledge-graph

6
推荐指数
2
解决办法
3003
查看次数

将自然语言转换为密码查询

我正在使用 neo4j 创建电子邮件中实体之间关系的知识图。我现在需要将自然语言搜索查询转换为密码查询。我一直无法找到与此相关的任何具体信息。我该如何继续?

neo4j graph-databases cypher knowledge-graph

3
推荐指数
1
解决办法
2255
查看次数