Hen*_*nco 5 python apache-spark pyspark
当我尝试在 pyspark 执行此命令行时
\n\narquivo = sc.textFile("dataset_analise_sentimento.csv")\nRun Code Online (Sandbox Code Playgroud)\n\n我收到以下错误消息:
\n\nPy4JJavaError: An error occurred while calling z:\norg.apache.spark.api.python.PythonRDD.runJob.: \norg.apache.spark.SparkException: Job aborted due to stage failure: \nTask 0 in stage 0.0 failed 1 times, most recent failure:\nLost task 0.0 in stage 0.0 (TID 0, localhost, executor driver):\norg.apache.spark.SparkException: Python worker failed to connect back.\nRun Code Online (Sandbox Code Playgroud)\n\n我尝试了以下步骤:
\n\nsc = spark.sparkContext(在 Stackoverflow 中的这个问题上找到了可能的解决方案,\xc2\xb4t 对我不起作用)。PYSPARK_DRIVER_PYTHON尝试更改fromjupyter的值ipython,如此链接中所述,但没有成功。上述步骤都不适合我,我无法\xc2\xb4t找到解决方案。
\n\n实际上我\xc2\xb4m使用以下版本:
\n\nPython 3.7.3、Java JDK 11.0.6、Windows 10、Apache Spark 2.3.4
\n我只是配置了以下变量环境,现在可以正常工作了:
\n\nHADOOP_HOME = C:\\HadoopJAVA_HOME = C:\\Java\\jdk-11.0.6PYSPARK_DRIVER_PYTHON = jupyterPYSPARK_DRIVER_PYTHON_OPTS = notebookPYSPARK_PYTHON = python实际上我\xc2\xb4m使用以下版本:
\n\nPython 3.7.3、Java JDK 11.0.6、Windows 10、Apache Spark 2.4.3 以及将 Jupyter Notebook 与 pyspark 结合使用。
\n| 归档时间: |
|
| 查看次数: |
7944 次 |
| 最近记录: |