Shu*_*hra 159 python apache-spark pyspark pyspark-sql
我来自pandas背景,习惯于将CSV文件中的数据读入数据帧,然后使用简单命令将列名更改为有用的东西:
df.columns = new_column_name_list
Run Code Online (Sandbox Code Playgroud)
但是,在使用sqlContext创建的pyspark数据帧中,这同样不起作用.我可以轻松解决的唯一解决方案如下:
df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', inferschema='true', delimiter='\t').load("data.txt")
oldSchema = df.schema
for i,k in enumerate(oldSchema.fields):
k.name = new_column_name_list[i]
df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', delimiter='\t').load("data.txt", schema=oldSchema)
Run Code Online (Sandbox Code Playgroud)
这基本上是定义变量两次并首先推断模式然后重命名列名,然后再次使用更新的模式加载数据帧.
像熊猫一样,有更好更有效的方法吗?
我的火花版是1.5.0
Alb*_*nto 280
有很多方法可以做到这一点:
选项1.使用selectExpr.
data = sqlContext.createDataFrame([("Alberto", 2), ("Dakota", 2)],
["Name", "askdaosdka"])
data.show()
data.printSchema()
# Output
#+-------+----------+
#| Name|askdaosdka|
#+-------+----------+
#|Alberto| 2|
#| Dakota| 2|
#+-------+----------+
#root
# |-- Name: string (nullable = true)
# |-- askdaosdka: long (nullable = true)
df = data.selectExpr("Name as name", "askdaosdka as age")
df.show()
df.printSchema()
# Output
#+-------+---+
#| name|age|
#+-------+---+
#|Alberto| 2|
#| Dakota| 2|
#+-------+---+
#root
# |-- name: string (nullable = true)
# |-- age: long (nullable = true)
Run Code Online (Sandbox Code Playgroud)选项2.使用withColumnRenamed,请注意此方法允许您"覆盖"同一列.
oldColumns = data.schema.names
newColumns = ["name", "age"]
df = reduce(lambda data, idx: data.withColumnRenamed(oldColumns[idx], newColumns[idx]), xrange(len(oldColumns)), data)
df.printSchema()
df.show()
Run Code Online (Sandbox Code Playgroud)from pyspark.sql.functions import col
data = data.select(col("Name").alias("name"), col("askdaosdka").alias("age"))
data.show()
# Output
#+-------+---+
#| name|age|
#+-------+---+
#|Alberto| 2|
#| Dakota| 2|
#+-------+---+
Run Code Online (Sandbox Code Playgroud)选项4.使用sqlContext.sql,它允许您在DataFrames
已注册的表上使用SQL查询.
sqlContext.registerDataFrameAsTable(data, "myTable")
df2 = sqlContext.sql("SELECT Name AS name, askdaosdka as age from myTable")
df2.show()
# Output
#+-------+---+
#| name|age|
#+-------+---+
#|Alberto| 2|
#| Dakota| 2|
#+-------+---+
Run Code Online (Sandbox Code Playgroud)小智 131
df = df.withColumnRenamed("colName", "newColName")
.withColumnRenamed("colName2", "newColName2")
Run Code Online (Sandbox Code Playgroud)
使用这种方式的优点:使用长列列表,您只想更改几个列名称.在这些情况下,这可能非常方便.在连接具有重复列名的表时非常有用.
小智 39
如果要更改所有列名称,请尝试 df.toDF(*cols)
pba*_*ahr 32
如果您想对所有列名称应用简单转换,此代码可以解决这个问题:(我用下划线替换所有空格)
new_column_name_list= list(map(lambda x: x.replace(" ", "_"), df.columns))
df = df.toDF(*new_column_name_list)
Run Code Online (Sandbox Code Playgroud)
感谢@ user8117731的toDf
诀窍.
小智 11
方法一:
df = df.withColumnRenamed("old_column_name", "new_column_name")
Run Code Online (Sandbox Code Playgroud)
方法 2: 如果您想做一些计算并重命名新值
df = df.withColumn("old_column_name", F.when(F.col("old_column_name") > 1, F.lit(1)).otherwise(F.col("old_column_name"))
df = df.drop("new_column_name", "old_column_name")
Run Code Online (Sandbox Code Playgroud)
小智 9
如果要重命名单个列并保持其余列,请执行以下操作:
from pyspark.sql.functions import col
new_df = old_df.select(*[col(s).alias(new_name) if s == column_to_change else s for s in old_df.columns])
Run Code Online (Sandbox Code Playgroud)
仅重命名一列的另一种方法(使用import pyspark.sql.functions as F
):
df = df.select( '*', F.col('count').alias('new_count') ).drop('count')
Run Code Online (Sandbox Code Playgroud)
小智 9
df.withColumnRenamed('age', 'age2')
这是我使用的方法:
创建pyspark会话:
import pyspark
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName('changeColNames').getOrCreate()
Run Code Online (Sandbox Code Playgroud)
创建数据框:
df = spark.createDataFrame(data = [('Bob', 5.62,'juice'), ('Sue',0.85,'milk')], schema = ["Name", "Amount","Item"])
Run Code Online (Sandbox Code Playgroud)
查看具有列名称的df:
df.show()
+----+------+-----+
|Name|Amount| Item|
+----+------+-----+
| Bob| 5.62|juice|
| Sue| 0.85| milk|
+----+------+-----+
Run Code Online (Sandbox Code Playgroud)
用新的列名创建一个列表:
newcolnames = ['NameNew','AmountNew','ItemNew']
Run Code Online (Sandbox Code Playgroud)
更改df的列名:
for c,n in zip(df.columns,newcolnames):
df=df.withColumnRenamed(c,n)
Run Code Online (Sandbox Code Playgroud)
使用新的列名查看df:
df.show()
+-------+---------+-------+
|NameNew|AmountNew|ItemNew|
+-------+---------+-------+
| Bob| 5.62| juice|
| Sue| 0.85| milk|
+-------+---------+-------+
Run Code Online (Sandbox Code Playgroud)
我提供了一个易于使用的函数来为pyspark数据框重命名多个列,以防有人使用它:
def renameCols(df, old_columns, new_columns):
for old_col,new_col in zip(old_columns,new_columns):
df = df.withColumnRenamed(old_col,new_col)
return df
old_columns = ['old_name1','old_name2']
new_columns = ['new_name1', 'new_name2']
df_renamed = renameCols(df, old_columns, new_columns)
Run Code Online (Sandbox Code Playgroud)
请注意,两个列表的长度必须相同。
我们可以使用 col.alias 重命名列:
from pyspark.sql.functions import col
df.select(['vin',col('timeStamp').alias('Date')]).show()
Run Code Online (Sandbox Code Playgroud)
您可以使用以下函数重命名数据框的所有列。
def df_col_rename(X, to_rename, replace_with):
"""
:param X: spark dataframe
:param to_rename: list of original names
:param replace_with: list of new names
:return: dataframe with updated names
"""
import pyspark.sql.functions as F
mapping = dict(zip(to_rename, replace_with))
X = X.select([F.col(c).alias(mapping.get(c, c)) for c in to_rename])
return X
Run Code Online (Sandbox Code Playgroud)
如果您只需要更新几列的名称,您可以在 replace_with 列表中使用相同的列名
重命名所有列
df_col_rename(X,['a', 'b', 'c'], ['x', 'y', 'z'])
Run Code Online (Sandbox Code Playgroud)
重命名一些列
df_col_rename(X,['a', 'b', 'c'], ['a', 'y', 'z'])
Run Code Online (Sandbox Code Playgroud)
归档时间: |
|
查看次数: |
221390 次 |
最近记录: |