相关疑难解决方法(0)

Spark功能与UDF性能有关?

Spark现在提供可在数据帧中使用的预定义函数,并且它们似乎已经过高度优化.我最初的问题是更快,但我自己做了一些测试,发现至少在一个实例中,spark函数的速度提高了大约10倍.有谁知道为什么会这样,什么时候udf会更快(仅适用于存在相同spark函数的情况)?

这是我的测试代码(在Databricks社区上运行):

# UDF vs Spark function
from faker import Factory
from pyspark.sql.functions import lit, concat
fake = Factory.create()
fake.seed(4321)

# Each entry consists of last_name, first_name, ssn, job, and age (at least 1)
from pyspark.sql import Row
def fake_entry():
  name = fake.name().split()
  return (name[1], name[0], fake.ssn(), fake.job(), abs(2016 - fake.date_time().year) + 1)

# Create a helper function to call a function repeatedly
def repeat(times, func, *args, **kwargs):
    for _ in xrange(times):
        yield func(*args, **kwargs)
data = list(repeat(500000, fake_entry))
print …
Run Code Online (Sandbox Code Playgroud)

performance user-defined-functions apache-spark apache-spark-sql pyspark

32
推荐指数
2
解决办法
2万
查看次数

Pyspark从日期到字符串更改列的类型

我有以下数据帧:

corr_temp_df
[('vacationdate', 'date'),
 ('valueE', 'string'),
 ('valueD', 'string'),
 ('valueC', 'string'),
 ('valueB', 'string'),
 ('valueA', 'string')]
Run Code Online (Sandbox Code Playgroud)

现在我想将列vacationdate的数据类型更改为String,这样数据帧也会采用这种新类型并覆盖所有条目的数据类型数据.例如写完后:

corr_temp_df.dtypes
Run Code Online (Sandbox Code Playgroud)

应该覆盖vacationdate的数据类型.

我已经使用了诸如cast,StringType或astype之类的函数,但我没有成功.你知道怎么做吗?

python apache-spark apache-spark-sql pyspark

6
推荐指数
1
解决办法
1万
查看次数

pyspark将数据帧列从时间戳转换为“ YYYY-MM-DD”格式的字符串

在pyspark中,有没有一种方法可以将时间戳数据类型的数据框列转换为格式为'YYYY-MM-DD'的字符串?

apache-spark pyspark

6
推荐指数
2
解决办法
7393
查看次数