我可以通过键入来从unix命令行运行我的python + pyspark脚本
pyspark script.py
Run Code Online (Sandbox Code Playgroud)
但是如何在pyspark shell中运行script.py?这似乎是一个基本问题,但我无法在任何地方找到答案.我试过了
execfile('script.py')
Run Code Online (Sandbox Code Playgroud)
但我得到一个错误,其中包括:
ValueError: Cannot run multiple SparkContexts at once
Run Code Online (Sandbox Code Playgroud)
错误可能来自于script.py尝试创建新的SparkContext变量吗?
当您启动pyspark交互式客户端时,它通常会说:
SparkContext available as sc, HiveContext available as sqlContext.
如果您的脚本文件包含sc = SparkContext(),也许可以尝试对其进行评论.
| 归档时间: |
|
| 查看次数: |
14221 次 |
| 最近记录: |