Ume*_*cha 7 rstudio apache-spark sparkr
我已经将Spark发行版中的SparkR软件包安装到R库中.我可以调用以下命令,它似乎正常工作:library(SparkR)
但是,当我尝试使用以下代码获取Spark上下文时,
sc <- sparkR.init(master="local")
Run Code Online (Sandbox Code Playgroud)
一段时间后,它会因以下消息而失败:
Error in sparkR.init(master = "local") :
JVM is not ready after 10 seconds
Run Code Online (Sandbox Code Playgroud)
我已经设置了JAVA_HOME,我有一个工作的RStudio,我可以访问其他软件包,如ggplot2.我不知道为什么它不起作用,我甚至不知道在哪里调查这个问题.
我遇到了同样的问题,我的spark-submit.cmd文件也没有从命令行执行。以下步骤对我有用
转到环境变量并在系统变量中选择变量名称 PATH。与其他值一起添加,c:/Windows/System32/并用分号分隔。这使得我的spark-submit.cmd从命令行运行,并最终从Rstudio运行。
我意识到只有在未指定所有必需的路径值时才会出现上述问题。确保在环境变量中指定所有路径值(R、Rtools)。例如我的 Rtools 路径是c:\Rtools\bin;c:\Rtools\gcc-4.6.3\bin
我希望这有帮助。
| 归档时间: |
|
| 查看次数: |
2156 次 |
| 最近记录: |