Eli*_*PDC 3 python hadoop apache-spark pyspark
我已经安装了 spark 发布:spark-2.2.0-bin-hadoop2.7.
我正在使用Windows 10操作系统
我的java版本 1.8.0_144
我已经设置了我的环境变量:
SPARK_HOME D:\spark-2.2.0-bin-hadoop2.7
HADOOP_HOME D:\Hadoop ( where I put bin\winutils.exe )
PYSPARK_DRIVER_PYTHON ipython
PYSPARK_DRIVER_PYTHON_OPTS notebook
Run Code Online (Sandbox Code Playgroud)
路径是 D:\spark-2.2.0-bin-hadoop2.7\bin
当我pyspark从命令行启动时,出现此错误:
ipython is not recognized as an internal or external command
Run Code Online (Sandbox Code Playgroud)
我也尝试设置PYSPARK_DRIVER_PYTHON,jupyter但它给了我同样的错误(不被识别为内部或外部命令)。
请问有什么帮助吗?