Spark只在hdfs中读取

tnk*_*eka 4 hadoop distributed-computing apache-spark

我已经使用HDFS设置了Spark集群配置,我知道在HDFS示例中Spark将会读取所有默认文件路径:

/ad-cpc/2014-11-28/ Spark will read in : hdfs://hmaster155:9000/ad-cpc/2014-11-28/
Run Code Online (Sandbox Code Playgroud)

有时我想知道如何强制Spark在本地读取文件而不重新配置我的集群(不使用hdfs).

请帮我 !!!

Vij*_*uri 5

可以使用前缀file:///从Spark引用本地文件系统

Eg: sparkContext.textFile("file:///<<absolute path to file>>")
Run Code Online (Sandbox Code Playgroud)

此命令从本地文件系统读取文件.

注意:如果在多节点群集中执行,则此文件应在所有节点上可用.