Lui*_*che 6 python pandas geopandas pyspark pyspark-sql
问题 :
我想在以下之间进行空间连接:
这是我到目前为止所拥有的,我发现它很慢(很多调度程序延迟,可能是因为公社没有广播):
@pandas_udf(schema_out, PandasUDFType.GROUPED_MAP)
def join_communes(traces):
geometry = gpd.points_from_xy(traces['longitude'], traces['latitude'])
gdf_traces = gpd.GeoDataFrame(traces, geometry=geometry, crs = communes.crs)
joined_df = gpd.sjoin(gdf_traces, communes, how='left', op='within')
return joined_df[columns]
Run Code Online (Sandbox Code Playgroud)
pandas_udf 将一些点数据帧(轨迹)作为熊猫数据帧,将其转换为带有 geopandas 的 GeoDataFrame,并操作与多边形GeoDataFrame的空间连接(因此受益于 Geopandas 的 Rtree 连接)
问题:
有没有办法让它更快?我知道我的公社地理数据框位于 Spark Driver 的内存中,并且每个工作人员都必须在每次调用 udf 时下载它,这是正确的吗?
但是我不知道如何让这个 GeoDataFrame 直接对工作人员可用(如在广播连接中)
有任何想法吗 ?
一年后,这就是我最终按照@ndricca建议做的事情,技巧是广播公社,但你不能广播直接,GeoDataFrame所以你必须将其作为 Spark DataFrame 加载,然后在广播之前将其转换为 JSON它。然后使用(众所周知的文本:将几何对象编码为文本的方法)重建GeoDataFrameUDF 内部shapely.wkt
另一个技巧是在 groupby 中使用 salt 来确保集群中数据的平等重新分配
import geopandas as gpd
from shapely import wkt
from pyspark.sql.functions import broadcast
communes = gpd.load_file('...communes.geojson')
# Use a previously created spark session
traces= spark_session.read_csv('trajectoires.csv')
communes_spark = spark.createDataFrame(communes[['insee_comm', 'wkt']])
communes_json = provinces_spark.toJSON().collect()
communes_bc = spark.sparkContext.broadcast(communes_json)
@pandas_udf(schema_out, PandasUDFType.GROUPED_MAP)
def join_communes_bc(traces):
communes = pd.DataFrame.from_records([json.loads(c) for c in communes_bc.value])
polygons = [wkt.loads(w) for w in communes['wkt']]
gdf_communes = gpd.GeoDataFrame(communes, geometry=polygons, crs=crs )
geometry = gpd.points_from_xy(traces['longitude'], traces['latitude'])
gdf_traces = gpd.GeoDataFrame(traces , geometry=geometry, crs=crs)
joined_df = gpd.sjoin(gdf_traces, gdf_communes, how='left', op='within')
return joined_df[columns]
traces = traces.groupby(salt).apply(join_communes_bc)
Run Code Online (Sandbox Code Playgroud)
| 归档时间: |
|
| 查看次数: |
1135 次 |
| 最近记录: |