小编smm*_*smm的帖子

使用apoc.gephi.add()将图形属性名称传递给gephi

我使用apoc.gephi.add()将图形从neo4j流式传输到Gephi.该方法仅将节点的一个属性作为Gephi中的节点标签传递.这不仅是我想要的节点标签.有没有办法将其他属性作为节点标签转移到Gephi?

例如,我的查询如下:

MATCH p=(a:Artist)-[r:LOVES]->(b:Artist) WITH p LIMIT 5 
call apoc.gephi.add('http://localhost:8080','workspace2', p) yield nodes, relationships, time
return nodes, relationships, time
Run Code Online (Sandbox Code Playgroud)

在上面的查询中,它只显示艺术家的名字.

在此输入图像描述

上面的节点有其他属性,如type,year_of_work等.我想在Gehi的节点中显示其他属性.apoc方法只传递一个属性作为节点标签.以下是Gephi中的Node表.

在此输入图像描述

那么有没有办法传递其他属性?有没有其他方法可以从neo4j中以期望的行为在Gephi中流式传输图形?

neo4j cypher gephi neo4j-apoc

6
推荐指数
1
解决办法
798
查看次数

TensorFlow 梯度下降后权重的更新

我是 tensorflow 和神经网络的新手。我试图理解,在执行梯度下降函数后权重如何更新?示例代码如下。

with graph.as_default():

    weights = tf.Variable(
    tf.truncated_normal([image_size * image_size, num_labels]))
    biases = tf.Variable(tf.zeros([num_labels]))

    logits = tf.matmul(train_dataset, weights) + biases
    loss = tf.reduce_mean(
    tf.nn.softmax_cross_entropy_with_logits(labels=train_labels, logits=logits))
    loss=loss+tf.multiply(beta, nn.l2_loss(weights))

    optimizer = tf.train.GradientDescentOptimizer(0.5).minimize(loss) 

with tf.Session(graph=graph) as session:
    tf.global_variables_initializer().run()
    _, l, predictions = session.run([optimizer, loss, train_prediction])
Run Code Online (Sandbox Code Playgroud)

如果我理解正确,当运行“session.run()”时,变量权重和偏差将被更新。它会在“GradientDescentOptimizer”计数的任何值的上下文中更新还是只是另一组“truncated_normal”值?

如果正则化应用如下,

loss=loss+tf.multiply(beta, nn.l2_loss(weights))
Run Code Online (Sandbox Code Playgroud)

那么,张量流如何知道在正则化权重的上下文中更新权重的正确变量是什么?我没有得到 TF 的工作。

python neural-network tensorflow

5
推荐指数
1
解决办法
1243
查看次数

仅从 Neo4j 中的大型 csv 文件加载少量样本

我是 Neo4j 数据库的新手。我有一个很大的 csv 文件,无法放入我机器的内存中。在使用 加载 db 中的所有记录之前USING PERIODIC COMMIT,我想在小数据样本上测试我的密码查询。如何加载仅加载 1000 行数据并测试我的查询。

数据具有简化形式的列[Employee, CompanyName]。我想创建关系为(:Employee)-[:Employed]->(:Company). Employee 和 CompanyName 节点已经加载到数据库中。

csv neo4j cypher

4
推荐指数
1
解决办法
2234
查看次数

使用日志配置对对象进行深度复制时出现“TypeError: can't pickle thread.lock objects”

TypeError: can't pickle thread.lock objects当一个对象被深度复制时,我得到了。以下是我的班级结构。

import logging
import copy

DEFAULT_LOG_PATH = r"C:\temp\loging.log"
class LoggerConfig(object):
    def __init__(self, log_obj):
        self._logger = log_obj
        self.default_level = logging.DEBUG
        self.set_default_config()

    def set_default_config(self):
        formatter = self._get_default_formatter()
        self.fh = self._create_file_handler(DEFAULT_LOG_PATH,
                                   self.default_level, formatter)
        self.ch = self._create_stream_handler(self.default_level, formatter)
        self._logger.addHandler(self.fh)
        self._logger.addHandler(self.ch)

    def _get_default_formatter(self):
        msg_format = '%(asctime)s.%(msecs).03d: %(levelname)s:%(message)s'
        date_format = '%d-%b-%y %H:%M:%S'
        formatter = logging.Formatter(msg_format, datefmt=date_format)
        return formatter

    def _create_stream_handler(self, log_level, formatter):
        ch = logging.StreamHandler()
        ch.setLevel(log_level)
        ch.setFormatter(formatter)
        return ch

    def _create_file_handler(self, filename, log_level, formatter):
        fh = logging.FileHandler(filename)
        fh.setLevel(log_level)
        fh.setFormatter(formatter)

        return fh …
Run Code Online (Sandbox Code Playgroud)

python python-2.x

4
推荐指数
1
解决办法
3371
查看次数

在Pandas DataFrame中查找连续日期组

我正在尝试从Pandas DataFrame中获取具有连续日期的数据块。我的df样子如下。

      DateAnalyzed           Val
1       2018-03-18      0.470253
2       2018-03-19      0.470253
3       2018-03-20      0.470253
4       2018-09-25      0.467729
5       2018-09-26      0.467729
6       2018-09-27      0.467729
Run Code Online (Sandbox Code Playgroud)

在此df,我想获取前3行,进行一些处理,然后获取后3行,并对此进行处理。

我通过应用以下代码计算了1滞后的差异。

df['Delta']=(df['DateAnalyzed'] - df['DateAnalyzed'].shift(1))
Run Code Online (Sandbox Code Playgroud)

但是在那之后,我无法弄清楚如何在不进行迭代的情况下获取连续行的组。

python datetime pandas

3
推荐指数
2
解决办法
1275
查看次数

Cypher查询提供了不必要的关系

我试图在cypher查询Web浏览器中只显示一个相关关系,但它显示节点之间的所有关系.我正在运行以下查询:

MATCH (emp:Employee)-[e:EMPLOYED {dateendrole:"Current"}]->(c:Company {companyname:"xyza"})
MATCH (emp)-[ea:EDU_ASSOCIATED]->(ec:Company)
MATCH (another_emp:Employee)-[ea1:EDU_ASSOCIATED {overlapyearstart:ea.overlapyearstart, overlapyearend:ea.overlapyearend}]->(:Company {comp_id:ec.companyId})
RETURN emp, e, c, ea, ec, another_emp, ea1,  LIMIT 1;
Run Code Online (Sandbox Code Playgroud)

我在上述查询中的意图是将相关员工发现到另一家公司,其中一名员工目前在一家公司工作,而该员工已经或曾经受雇于另一家公司.例如,在某公司中找到员工之前在该公司工作过并且目前在xyza公司工作的相关员工.

在这里,员工和公司是节点.它具有关联关系,其中包含它们作为关系属性的重叠年份.例如(emp)-[:Associated{overlapyearstart:x, overlapyearend:y}]->(company)

如果员工与某公司的其他员工合作,则重叠年数相同.

上面的查询在neo4j的web界面中给出了以下输出. 在此输入图像描述

在图像中,"Mr"(节点不显示正确的名称)是雇员."美国"是雇主的流动."Unknown"是他/她过去工作的公司,"Doctor"是"Unknown"公司的"Mr"的相关员工.

我有两个问题:

  1. 从"医生"到"未知",为什么它显示所有关系?我怎样才能只显示一个相关关系?目前它显示所有"医生"到"未知"的关系.

  2. 如何将"Mr"改为"Unknown"?

neo4j cypher

2
推荐指数
1
解决办法
100
查看次数

如何提高lstm训练的准确性

我使用 LSTM 训练了 quora 问题对检测,但训练精度非常低,并且在训练时总是会发生变化。我不明白我犯了什么错误。

\n\n

我尝试改变损失和优化器并增加纪元。

\n\n
import numpy as np\nfrom numpy import array\nfrom keras.callbacks import ModelCheckpoint\nimport keras\nfrom keras.optimizers import SGD\nimport tensorflow as tf\nfrom sklearn import preprocessing\nimport xgboost as xgb\nfrom keras import backend as K\nfrom sklearn.preprocessing import OneHotEncoder, LabelEncoder\nfrom keras.preprocessing.text import Tokenizer , text_to_word_sequence\nfrom keras.preprocessing.sequence import pad_sequences\nfrom keras.layers.embeddings import Embedding\nfrom keras.models import Sequential, model_from_json, load_model\nfrom keras.layers import LSTM, Dense, Input, concatenate, Concatenate,             Activation, Flatten\n from keras.models import Model\nfrom sklearn.preprocessing import LabelEncoder\nfrom sklearn.model_selection import train_test_split\nfrom sklearn.feature_extraction.text import     TfidfVectorizer,CountVectorizer\nimport nltk\n\nfrom nltk.stem.lancaster …
Run Code Online (Sandbox Code Playgroud)

python nlp deep-learning lstm

2
推荐指数
1
解决办法
2万
查看次数