kri*_*eja 1 hadoop apache-spark pyspark
最近我在我的系统中安装了 canopy 和 spark。当我在 c:\spark path in canopy 命令提示符下运行 pyspark 命令时,我收到此错误,但该路径中存在 winutils。我是新手,我不知道如何解决这个问题。我在网上搜索但未能理解。谁能帮我解决这个问题。
您需要执行以下步骤:
1. Download winutils.exe
2. Create folder, say C:\winutils\bin
3. Copy winutils.exe inside C:\winutils\bin
4. Set environment variable HADOOP_HOME to C:\winutils
Run Code Online (Sandbox Code Playgroud)
| 归档时间: |
|
| 查看次数: |
5631 次 |
| 最近记录: |