如何在pyspark中更改数据框列名?

Shu*_*hra 159 python apache-spark pyspark pyspark-sql

我来自pandas背景,习惯于将CSV文件中的数据读入数据帧,然后使用简单命令将列名更改为有用的东西:

df.columns = new_column_name_list
Run Code Online (Sandbox Code Playgroud)

但是,在使用sqlContext创建的pyspark数据帧中,这同样不起作用.我可以轻松解决的唯一解决方案如下:

df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', inferschema='true', delimiter='\t').load("data.txt")
oldSchema = df.schema
for i,k in enumerate(oldSchema.fields):
  k.name = new_column_name_list[i]
df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', delimiter='\t').load("data.txt", schema=oldSchema)
Run Code Online (Sandbox Code Playgroud)

这基本上是定义变量两次并首先推断模式然后重命名列名,然后再次使用更新的模式加载数据帧.

像熊猫一样,有更好更有效的方法吗?

我的火花版是1.5.0

Alb*_*nto 280

有很多方法可以做到这一点:

  • 选项1.使用selectExpr.

    data = sqlContext.createDataFrame([("Alberto", 2), ("Dakota", 2)], 
                                      ["Name", "askdaosdka"])
    data.show()
    data.printSchema()
    
    # Output
    #+-------+----------+
    #|   Name|askdaosdka|
    #+-------+----------+
    #|Alberto|         2|
    #| Dakota|         2|
    #+-------+----------+
    
    #root
    # |-- Name: string (nullable = true)
    # |-- askdaosdka: long (nullable = true)
    
    df = data.selectExpr("Name as name", "askdaosdka as age")
    df.show()
    df.printSchema()
    
    # Output
    #+-------+---+
    #|   name|age|
    #+-------+---+
    #|Alberto|  2|
    #| Dakota|  2|
    #+-------+---+
    
    #root
    # |-- name: string (nullable = true)
    # |-- age: long (nullable = true)
    
    Run Code Online (Sandbox Code Playgroud)
  • 选项2.使用withColumnRenamed,请注意此方法允许您"覆盖"同一列.

    oldColumns = data.schema.names
    newColumns = ["name", "age"]
    
    df = reduce(lambda data, idx: data.withColumnRenamed(oldColumns[idx], newColumns[idx]), xrange(len(oldColumns)), data)
    df.printSchema()
    df.show()
    
    Run Code Online (Sandbox Code Playgroud)
  • 选项3.使用 别名,在Scala中您也可以使用as.

    from pyspark.sql.functions import col
    
    data = data.select(col("Name").alias("name"), col("askdaosdka").alias("age"))
    data.show()
    
    # Output
    #+-------+---+
    #|   name|age|
    #+-------+---+
    #|Alberto|  2|
    #| Dakota|  2|
    #+-------+---+
    
    Run Code Online (Sandbox Code Playgroud)
  • 选项4.使用sqlContext.sql,它允许您在DataFrames已注册的表上使用SQL查询.

    sqlContext.registerDataFrameAsTable(data, "myTable")
    df2 = sqlContext.sql("SELECT Name AS name, askdaosdka as age from myTable")
    
    df2.show()
    
    # Output
    #+-------+---+
    #|   name|age|
    #+-------+---+
    #|Alberto|  2|
    #| Dakota|  2|
    #+-------+---+
    
    Run Code Online (Sandbox Code Playgroud)

  • 我用“for”循环+“withColumnRenamed”完成了它,但是你的“reduce”选项非常好:) (3认同)
  • @NuValue,你应该首先运行`from functools import reduce` (3认同)
  • @FelipeGerard请检查[这篇文章](/sf/ask/2454636201/),如果您有很多列,可能会发生不好的事情。 (2认同)
  • 在 PySpark 2.4 和 Python 3.6.8 中,唯一可以解决这些问题的方法是 `df.select('id').withColumnRenamed('id', 'new_id')` 和 `spark.sql("SELECT id AS new_id FROM df")` (2认同)

小智 131

df = df.withColumnRenamed("colName", "newColName")
       .withColumnRenamed("colName2", "newColName2")
Run Code Online (Sandbox Code Playgroud)

使用这种方式的优点:使用长列列表,您只想更改几个列名称.在这些情况下,这可能非常方便.在连接具有重复列名的表时非常有用.

  • +1 对我来说效果很好,只是编辑了指定的列,其他列保持不变,没有删除任何列。 (4认同)
  • 该解决方案是否有一个变体,可以使所有其他列保持不变?使用此方法和其他方法,仅保留显式命名的列(所有其他列均已删除) (3认同)
  • @Quetzalcoatl此命令似乎仅更改指定的列,同时保留所有其他列。因此,一个很棒的命令只重命名了许多列名称中的一个 (2认同)

小智 39

如果要更改所有列名称,请尝试 df.toDF(*cols)

  • 这个解决方案最接近每个OP的df.columns = new_column_name_list,它的简洁程度和执行方式都是如此. (5认同)
  • 这个答案让我很困惑。不应该有从旧列名到新名称的映射吗?通过让“cols”作为新列名称,并且假设“cols”中的名称顺序对应于数据帧的列顺序,这是否可以工作? (3认同)

pba*_*ahr 32

如果您想对所有列名称应用简单转换,此代码可以解决这个问题:(我用下划线替换所有空格)

new_column_name_list= list(map(lambda x: x.replace(" ", "_"), df.columns))

df = df.toDF(*new_column_name_list)
Run Code Online (Sandbox Code Playgroud)

感谢@ user8117731的toDf诀窍.

  • 伙计,这个“把戏”救了我的命!万分感谢 (2认同)
  • 此代码生成一个简单的物理计划,便于 Catalyst 优化。它也很优雅。+1 (2认同)

小智 11

方法一:

df = df.withColumnRenamed("old_column_name", "new_column_name")
Run Code Online (Sandbox Code Playgroud)

方法 2: 如果您想做一些计算并重命名新值

df = df.withColumn("old_column_name", F.when(F.col("old_column_name") > 1, F.lit(1)).otherwise(F.col("old_column_name"))
df = df.drop("new_column_name", "old_column_name")
Run Code Online (Sandbox Code Playgroud)

  • withColumnRenamed 中的第一个参数是旧的列名称。你的方法1是错误的 (5认同)

小智 9

如果要重命名单个列并保持其余列,请执行以下操作:

from pyspark.sql.functions import col
new_df = old_df.select(*[col(s).alias(new_name) if s == column_to_change else s for s in old_df.columns])
Run Code Online (Sandbox Code Playgroud)


sco*_*tle 9

仅重命名一列的另一种方法(使用import pyspark.sql.functions as F):

df = df.select( '*', F.col('count').alias('new_count') ).drop('count')
Run Code Online (Sandbox Code Playgroud)


小智 9

df.withColumnRenamed('age', 'age2')

  • [Pankaj Kumar 的回答](/sf/answers/2541156901/) 和 [Alberto Bonsanto 的回答](/sf/answers/2385446661/)(分别来自 2016 年和 2015 年)已经建议使用`withColumnRenamed`。 (2认同)
  • 这不是一种不同的语法。唯一的区别是您没有将列名存储在数组中。 (2认同)

Gra*_*non 7

这是我使用的方法:

创建pyspark会话:

import pyspark
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName('changeColNames').getOrCreate()
Run Code Online (Sandbox Code Playgroud)

创建数据框:

df = spark.createDataFrame(data = [('Bob', 5.62,'juice'),  ('Sue',0.85,'milk')], schema = ["Name", "Amount","Item"])
Run Code Online (Sandbox Code Playgroud)

查看具有列名称的df:

df.show()
+----+------+-----+
|Name|Amount| Item|
+----+------+-----+
| Bob|  5.62|juice|
| Sue|  0.85| milk|
+----+------+-----+
Run Code Online (Sandbox Code Playgroud)

用新的列名创建一个列表:

newcolnames = ['NameNew','AmountNew','ItemNew']
Run Code Online (Sandbox Code Playgroud)

更改df的列名:

for c,n in zip(df.columns,newcolnames):
    df=df.withColumnRenamed(c,n)
Run Code Online (Sandbox Code Playgroud)

使用新的列名查看df:

df.show()
+-------+---------+-------+
|NameNew|AmountNew|ItemNew|
+-------+---------+-------+
|    Bob|     5.62|  juice|
|    Sue|     0.85|   milk|
+-------+---------+-------+
Run Code Online (Sandbox Code Playgroud)


Man*_*que 7

我提供了一个易于使用的函数来为pyspark数据框重命名多个列,以防有人使用它:

def renameCols(df, old_columns, new_columns):
    for old_col,new_col in zip(old_columns,new_columns):
        df = df.withColumnRenamed(old_col,new_col)
    return df

old_columns = ['old_name1','old_name2']
new_columns = ['new_name1', 'new_name2']
df_renamed = renameCols(df, old_columns, new_columns)
Run Code Online (Sandbox Code Playgroud)

请注意,两个列表的长度必须相同。


mik*_*ike 6

我们可以使用 col.alias 重命名列:

from pyspark.sql.functions import col
df.select(['vin',col('timeStamp').alias('Date')]).show()
Run Code Online (Sandbox Code Playgroud)

  • 虽然此代码片段可以解决问题,但[包括解释](http://meta.stackexchange.com/questions/114762/explaining-entirely-code-based-answers)确实有助于提高帖子的质量。请记住,您是在为将来的读者回答问题,而那些人可能不知道您建议代码的原因。 (3认同)

Clo*_*ave 5

您可以使用以下函数重命名数据框的所有列。

def df_col_rename(X, to_rename, replace_with):
    """
    :param X: spark dataframe
    :param to_rename: list of original names
    :param replace_with: list of new names
    :return: dataframe with updated names
    """
    import pyspark.sql.functions as F
    mapping = dict(zip(to_rename, replace_with))
    X = X.select([F.col(c).alias(mapping.get(c, c)) for c in to_rename])
    return X
Run Code Online (Sandbox Code Playgroud)

如果您只需要更新几列的名称,您可以在 replace_with 列表中使用相同的列名

重命名所有列

df_col_rename(X,['a', 'b', 'c'], ['x', 'y', 'z'])
Run Code Online (Sandbox Code Playgroud)

重命名一些列

df_col_rename(X,['a', 'b', 'c'], ['a', 'y', 'z'])
Run Code Online (Sandbox Code Playgroud)