如何拆分列?

ash*_*shK 12 apache-spark-sql spark-dataframe

我想看看我是否可以在spark数据帧中拆分列.像这样,

Select employee, split(department,"_") from Employee
Run Code Online (Sandbox Code Playgroud)

Dav*_*fin 30

试试这个:

SELECT explode(split(str, '_'))
Run Code Online (Sandbox Code Playgroud)

或这个:

SELECT split(str, ' ')[0] as part1, split(str, ' ')[1] as part2
Run Code Online (Sandbox Code Playgroud)

  • 荒谬的是,我不得不使用'\\\\.逃避这段时期.'\\'.没用(在Apache Zeppelin中) (4认同)
  • 这对我有所帮助,但事实上我有'.' 作为分隔符,需要逃避.花了一些时间弄清楚它为什么不起作用,因此把它放在这里 - SELECT split(str,'\\.'))[0]作为源 (3认同)