Bri*_*ehe 6 random pyspark spark-dataframe
我有一个pyspark数据框,我想以重复的方式向其中添加随机值以保证相同的输出。我尝试设置numpy.random.seed和random.seed,但是下面代码的每次执行都会继续生成不同的随机值序列。
+---+---+---+---+---+
| 7 | 15| 19| 21| 27|
+---------------+---+
| 0 | 1| 0| 0| 0|
| 0 | 0| 0| 1| 0|
| 0 | 0| 0| 1| 0|
| 2 | 0| 0| 0| 0|
| 4 | 0| 3| 0| 0|
| 5 | 0| 25| 0| 0|
| 6 | 2| 0| 0| 0|
Run Code Online (Sandbox Code Playgroud)
这是我当前的实现:
import random
import numpy as np
#set seed
random.seed(1234)
np.random.seed(1234)
#create dataframe
df = sc.parallelize([
[ 0, 1, 0, 0, 0],
[ 0, 0, 0, 1, 0],
[ 0, 0, 0, 1, 0],
[2, 0, 0, 0, 0],
[0, 3, 0, 0, 0],
[ 0, 25,0, 0, 0],
[2, 0, 0, 0, 0],
]).toDF(('7', '15', '19', '21', '27'))
random_df = data.select("*").rdd.map(
lambda x, r=random: [Row(float(r.random() + row)) for row in x]).toDF(data.columns)
Run Code Online (Sandbox Code Playgroud)
在我对上述解决方案的最新尝试中,我将对random的引用传递到了lambda表达式中,但是尽管设置了种子,但每次执行仍然获得不同的值。关于如何解决这一挑战有什么想法或想法?
谢谢您的帮助!
希望这可以帮助!
from pyspark.sql.functions import col, rand
random_df = df.select(*((col(c) + rand(seed=1234)).alias(c) for c in df.columns))
Run Code Online (Sandbox Code Playgroud)
| 归档时间: |
|
| 查看次数: |
2565 次 |
| 最近记录: |