Dan*_*uez 23 python apache-spark pyspark
我正在尝试在pyspark环境中运行脚本,但到目前为止我还没有能够.我如何在pyspark中运行像python script.py这样的脚本?谢谢
Ula*_*les 29
你可以做: ./bin/spark-submit mypythonfile.py
pyspark从Spark 2.0开始,不支持运行python应用程序.
Jus*_*ala 21
pyspark 2.0及更高版本在环境变量中执行脚本文件PYTHONSTARTUP,因此您可以运行:
PYTHONSTARTUP=code.py pyspark
与spark-submit回答相比,这对于在使用交互式pyspark shell之前运行初始化代码很有用.
您可以执行“script.py”如下
pyspark < script.py
或者
# if you want to run pyspark in yarn cluster
pyspark --master yarn < script.py