无法基于正则表达式spark读取文件

Sla*_*ava 1 python regex hadoop hdfs pyspark

我正在尝试在 pyspark 中加载包含 2015 年至 2020 年数据的文件。我使用正则表达式。

所有正则表达式均在在线网站上进行检查。但是,当我在 pyspark 中使用它们时,它显示错误。看起来 hdfs 不喜欢括号。我尝试了不同的变体

# .load("hdfs:///data/ghcnd/daily/20(1[5-9]|20).csv.gz")

# .load("hdfs:///data/ghcnd/daily/20(15|16|17|18|19|20).csv.gz")
Run Code Online (Sandbox Code Playgroud)

如何正确编写它们,以便我可以从 2015 年到 2020 年的文件中加载数据?

Shu*_*Shu 5

尝试使用花括号{}并保留所有值。

.load("hdfs:///data/ghcnd/daily/2020{15,16,17}.csv.gz")
Run Code Online (Sandbox Code Playgroud)

Example:

读取2015,2016文件

spark.read.csv("/tmp/20{15,16}.csv").show()
#+----+
#| _c0|
#+----+
#|2015|
#|2016|
#+----+

$cat 2015.csv
2015
$cat 2016.csv
2016
Run Code Online (Sandbox Code Playgroud)