我一直在尝试使用教程安装spark ,每次运行命令sbt/sbt程序集时,我都会收到错误"错误:无效或损坏jarfile sbt/sbt-launch-0.13.5.jar"
我已经尝试了一切:单独将sbt文件添加到spark文件夹中的sbt文件夹,单独安装sbt,检查下载并重新安装,但是徒劳无功.关于我做错了什么的建议?谢谢.
scala apache-spark
apache-spark ×1
scala ×1