Sea*_*ndo 5 python apache-spark pyspark databricks
我正在尝试使用 Googlephonenumbers库的 Python 端口来规范化 5000 万个电话号码。我正在从 S3 上的 Parquet 文件读入 SparkDataFrame,然后在数据帧上运行操作。以下函数parsePhoneNumber表示为 UDF:
def isValidNumber(phoneNum):
try:
pn = phonenumbers.parse(phoneNum, "US")
except:
return False
else:
return phonenumbers.is_valid_number(pn) and phonenumbers.is_possible_number(pn)
def parsePhoneNumber(phoneNum):
if isValidNumber(phoneNum):
parsedNumber = phonenumbers.parse(phoneNum, "US")
formattedNumber = phonenumbers.format_number(parsedNumber, phonenumbers.PhoneNumberFormat.E164)
return (True, parsedNumber.country_code, formattedNumber, parsedNumber.national_number, parsedNumber.extension)
else:
return (False, None, None, None)
Run Code Online (Sandbox Code Playgroud)
下面是我如何使用 UDF 派生新列的示例:
newDataFrame = oldDataFrame.withColumn("new_column", parsePhoneNumber_udf(oldDataFrame.phone)).select("id", "new_column".national_number)
Run Code Online (Sandbox Code Playgroud)
通过运行display(newDataFrame)或newDataFrame.show(5)类似方式执行 UDF仅使用集群中的一个执行器,因此 UDF 中的某些内容似乎不会导致它仅在一个工作程序上运行。
如果我正在做任何会阻止它并行运行的事情,你能提供一些见解吗?
执行环境位于由 Databricks 控制的云集群上。
编辑:下面是输出 oldDataFrame.explain
== Parsed Logical Plan ==
Relation[id#621,person_id#622,phone#623,type#624,source_id#625,created_date#626,modified_date#627] parquet
== Analyzed Logical Plan ==
id: string, person_id: string, phone: string, type: string, source_id: string, created_date: string, modified_date: string
Relation[id#621,person_id#622,phone#623,type#624,source_id#625,created_date#626,modified_date#627] parquet
== Optimized Logical Plan ==
Relation[id#621,person_id#622,phone#623,type#624,source_id#625,created_date#626,modified_date#627] parquet
== Physical Plan ==
*FileScan parquet [id#621,person_id#622,phone#623,type#624,source_id#625,created_date#626,modified_date#627] Batched: true, Format: Parquet, Location: InMemoryFileIndex[dbfs:/mnt/person-data/parquet/phone], PartitionFilters: [], PushedFilters: [], ReadSchema: struct<id:string,person_id:string,phone:string,type:string,source_id:string,created_date:strin...
Run Code Online (Sandbox Code Playgroud)
你们都很好。Display, 使用默认参数最多显示前 1000 行。同样newDataFrame.show(5)只显示前五行。
同时执行 plain ( oldDataFrame.explain) 显示没有混洗,因此在这两种情况下,Spark 都只会评估最小数量的分区以获得所需的行数 - 对于这些值,它可能是一个分区。
如果你想确定:
oldDataFrame.rdd.getNumPartitions()大于一。df.foreach(lambda _: None)或强制执行所有分区newDataFrame.foreach(lambda _: None)。您应该会看到更多活跃的执行程序。
| 归档时间: |
|
| 查看次数: |
4044 次 |
| 最近记录: |