我正在使用Kubernetes 1.7并正在运行hepaster。当我跑步
kubectl top nodes --heapster-namespace=kube-system
Run Code Online (Sandbox Code Playgroud)
它告诉我
error: metrics not available yet
Run Code Online (Sandbox Code Playgroud)
我也试过了
kubectl top nodes --heapster-namespace=kube-system --heapster-service=heapster --heapster-scheme=http --heapster-port=12213
Run Code Online (Sandbox Code Playgroud)
堆运行的位置会显示以下错误。
Error from server (ServiceUnavailable): the server is currently unable to handle the request (get services http:heapster:12213)
Run Code Online (Sandbox Code Playgroud)
有任何解决错误的线索吗?
我有以下代码:
import spacy
from spacy import displacy
from pathlib import Path
nlp = spacy.load('en_core_web_sm', parse=True, tag=True, entity=True)
sentence_nlp = nlp("John go home to your family")
svg = displacy.render(sentence_nlp, style="dep", jupyter=True)
output_path = Path("/images/dependency_plot.svg")
output_path.open("w", encoding="utf-8").write(svg)
Run Code Online (Sandbox Code Playgroud)
我正在尝试将渲染文件写入图像文件夹中的 svg 文件。但是,我收到错误:
回溯(最近一次调用最后一次):
文件 "",第 8 行,在 output_path.open("w", encoding="utf-8").write(svg)
文件“C:\Users****\AppData\Local\Continuum\miniconda3\lib\pathlib.py”,第 1183 行,在 open opener=self._opener 中)
文件“C:\Users****\AppData\Local\Continuum\miniconda3\lib\pathlib.py”,第 1037 行,在 _opener 中返回 self._accessor.open(self, flags, mode)
文件“C:\Users****\AppData\Local\Continuum\miniconda3\lib\pathlib.py”,第 387 行,包装返回 strfunc(str(pathobj), *args) FileNotFoundError: [Errno 2] 没有这样的文件或目录:'\images\dependency_plot.svg'
该目录确实存在,所以我不确定我做错了什么。我还查看了 spacy 使用页面https://spacy.io/usage/visualizers#jupyter并无法弄清楚我做错了什么。我正在使用 spyder(如果需要此信息)。请协助。
我有一组基于 Avro 的配置单元表,我需要从中读取数据。由于 Spark-SQL 使用 hive serdes 从 HDFS 读取数据,因此比直接读取 HDFS 慢得多。所以我使用数据砖 Spark-Avro jar 从底层 HDFS 目录读取 Avro 文件。
一切正常,除非桌子是空的。我已设法使用以下命令从 hive 表的 .avsc 文件中获取架构,但出现错误“未找到 Avro 文件”
val schemaFile = FileSystem.get(sc.hadoopConfiguration).open(new Path("hdfs://myfile.avsc"));
val schema = new Schema.Parser().parse(schemaFile);
spark.read.format("com.databricks.spark.avro").option("avroSchema", schema.toString).load("/tmp/myoutput.avro").show()
Run Code Online (Sandbox Code Playgroud)
解决方法:
我在该目录中放置了一个空文件,同样的事情也能正常工作。
有没有其他方法可以实现相同的目标?比如conf设置之类的?
我有一个df这样的数据框,其中两列都是object.
+-----+--------------------+--------------------+
| id | col1 | col2 |
+-----+--------------------+--------------------+
| 1 | 0,1,4,0,1 | 1,2,4,0,0 |
+-----+--------------------+--------------------+
Run Code Online (Sandbox Code Playgroud)
我将它们转换成这样的列表
test = df["col1"]+','+df["col2"]
test.tolist()
Run Code Online (Sandbox Code Playgroud)
它产生以下结果作为列表中的 SINGLE STING 元素
['0,1,4,0,1,1,2,4,0,0']
Run Code Online (Sandbox Code Playgroud)
但是,我希望它们像这样的整数列表
[0,1,4,0,1,1,2,4,0,0]
Run Code Online (Sandbox Code Playgroud)
有什么建议?仅供参考,我的原始数据集中的列真的很大,因此性能也可能是一个问题。
python ×2
apache-spark ×1
avro ×1
heapster ×1
kubectl ×1
kubernetes ×1
pandas ×1
scala ×1
spacy ×1
spark-avro ×1