小编Abu*_*oeb的帖子

kubectl顶部节点显示错误:指标尚不可用

我正在使用Kubernetes 1.7并正在运行hepaster。当我跑步

kubectl top nodes --heapster-namespace=kube-system
Run Code Online (Sandbox Code Playgroud)

它告诉我

error: metrics not available yet
Run Code Online (Sandbox Code Playgroud)

我也试过了

kubectl top nodes --heapster-namespace=kube-system --heapster-service=heapster --heapster-scheme=http --heapster-port=12213
Run Code Online (Sandbox Code Playgroud)

堆运行的位置会显示以下错误。

Error from server (ServiceUnavailable): the server is currently unable to handle the request (get services http:heapster:12213)
Run Code Online (Sandbox Code Playgroud)

有任何解决错误的线索吗?

kubernetes heapster kubectl

7
推荐指数
1
解决办法
4054
查看次数

使用 DisplaCy 将 SpaCy 渲染文件另存为 SVG

我有以下代码:

import spacy
from spacy import displacy
from pathlib import Path

nlp = spacy.load('en_core_web_sm', parse=True, tag=True, entity=True)

sentence_nlp = nlp("John go home to your family")
svg = displacy.render(sentence_nlp, style="dep", jupyter=True)

output_path = Path("/images/dependency_plot.svg")
output_path.open("w", encoding="utf-8").write(svg)
Run Code Online (Sandbox Code Playgroud)

我正在尝试将渲染文件写入图像文件夹中的 svg 文件。但是,我收到错误:

回溯(最近一次调用最后一次):

文件 "",第 8 行,在 output_path.open("w", encoding="utf-8").write(svg)

文件“C:\Users****\AppData\Local\Continuum\miniconda3\lib\pathlib.py”,第 1183 行,在 open opener=self._opener 中)

文件“C:\Users****\AppData\Local\Continuum\miniconda3\lib\pathlib.py”,第 1037 行,在 _opener 中返回 self._accessor.open(self, flags, mode)

文件“C:\Users****\AppData\Local\Continuum\miniconda3\lib\pathlib.py”,第 387 行,包装返回 strfunc(str(pathobj), *args) FileNotFoundError: [Errno 2] 没有这样的文件或目录:'\images\dependency_plot.svg'

该目录确实存在,所以我不确定我做错了什么。我还查看了 spacy 使用页面https://spacy.io/usage/visualizers#jupyter并无法弄清楚我做错了什么。我正在使用 spyder(如果需要此信息)。请协助。

python spacy dependency-parsing

6
推荐指数
1
解决办法
1869
查看次数

如何在 Spark 中创建一个空的数据帧

我有一组基于 Avro 的配置单元表,我需要从中读取数据。由于 Spark-SQL 使用 hive serdes 从 HDFS 读取数据,因此比直接读取 HDFS 慢得多。所以我使用数据砖 Spark-Avro jar 从底层 HDFS 目录读取 Avro 文件。

一切正常,除非桌子是空的。我已设法使用以下命令从 hive 表的 .avsc 文件中获取架构,但出现错误“未找到 Avro 文件

val schemaFile = FileSystem.get(sc.hadoopConfiguration).open(new Path("hdfs://myfile.avsc"));

val schema = new Schema.Parser().parse(schemaFile);

spark.read.format("com.databricks.spark.avro").option("avroSchema", schema.toString).load("/tmp/myoutput.avro").show()
Run Code Online (Sandbox Code Playgroud)

解决方法:

我在该目录中放置了一个空文件,同样的事情也能正常工作。

有没有其他方法可以实现相同的目标?比如conf设置之类的?

scala avro apache-spark apache-spark-sql spark-avro

3
推荐指数
3
解决办法
2万
查看次数

Pandas 将多个字符串列转换为整数列表

我有一个df这样的数据框,其中两列都是object.

    +-----+--------------------+--------------------+
    |  id |         col1       |         col2       |
    +-----+--------------------+--------------------+
    |   1 |  0,1,4,0,1         |  1,2,4,0,0         |
    +-----+--------------------+--------------------+
Run Code Online (Sandbox Code Playgroud)

我将它们转换成这样的列表

test = df["col1"]+','+df["col2"]
test.tolist()
Run Code Online (Sandbox Code Playgroud)

它产生以下结果作为列表中的 SINGLE STING 元素

['0,1,4,0,1,1,2,4,0,0']
Run Code Online (Sandbox Code Playgroud)

但是,我希望它们像这样的整数列表

[0,1,4,0,1,1,2,4,0,0] 
Run Code Online (Sandbox Code Playgroud)

有什么建议?仅供参考,我的原始数据集中的列真的很大,因此性能也可能是一个问题。

python pandas

3
推荐指数
1
解决办法
54
查看次数