如何计算Spark Dataframe中的列数?

Rah*_*dey 6 scala dataframe apache-spark apache-spark-sql

我在Spark中有这个数据框我想要计算它中可用列的数量.我知道如何计算列中的行数,但我想计算列数.

val df1 = Seq(
    ("spark", "scala",  "2015-10-14", 10,"rahul"),
    ("spark", "scala", "2015-10-15", 11,"abhishek"),
    ("spark", "scala", "2015-10-16", 12,"Jay"),
    ("spark","scala",null,13,"Kiran"))
  .toDF("bu_name","client_name","date","patient_id","paitent _name")
df1.show
Run Code Online (Sandbox Code Playgroud)

任何人都可以告诉我如何计算此数据帧中的列数?我使用的是Scala语言.

Sha*_*ica 16

要计算列数,只需执行以下操作:

df1.columns.size
Run Code Online (Sandbox Code Playgroud)


小智 7

在python中,以下代码对我有用:

print(len(df.columns))
Run Code Online (Sandbox Code Playgroud)


Nev*_*mba 5

data.columns 访问列标题列表。您所要做的就是计算列表中的项目数。所以

len(df1.columns)
Run Code Online (Sandbox Code Playgroud)

为了获取单个变量中的全部数据,我们这样做

rows = df.count()
columns = len(df.columns)
size = (rows, columns)
print(size)
Run Code Online (Sandbox Code Playgroud)