小编cod*_*r93的帖子

使用 SF 库读取 GeoJSON 文件?

我一天前刚开始使用 R,我正在尝试使用 SF 库读取 geojson 文件,但我不确定正确的方法是什么。

library(dplyr)
library(sf)
geo <- system.file('/my/path/zones.geojson', package = 'sf')
st_read(geo)
Run Code Online (Sandbox Code Playgroud)

当我运行这些代码行时,我收到错误消息:

Cannot open data source
Error in CPL_read_ogr(dsn, layer, as.character(options), quiet, type,  :
  Open failed.
Run Code Online (Sandbox Code Playgroud)

请大家告诉我如何修改,谢谢大家!

r geojson

9
推荐指数
1
解决办法
4413
查看次数

hdbscan 问题(ValueError:numpy.ndarray 大小已更改,可能表示二进制不兼容。预期为 88 来自 C 标头,从 PyObject 获得 80)

我知道以前有很多人发布过关于此的信息,但我仍然无法解决我的错误。我正在尝试导入 hdbscan 但它一直返回以下错误

---------------------------------------------------------------------------
ValueError                                Traceback (most recent call last)
<ipython-input-12-bf3184c2d1a0> in <module>
      2 import numpy as np
      3 from pyproj import Transformer
----> 4 import hdbscan
      5 from scipy.spatial.qhull import ConvexHull
      6 from shapely.geometry import Point

~/Library/Python/3.7/lib/python/site-packages/hdbscan/__init__.py in <module>
----> 1 from .hdbscan_ import HDBSCAN, hdbscan
      2 from .robust_single_linkage_ import RobustSingleLinkage, robust_single_linkage
      3 from .validity import validity_index
      4 from .prediction import (approximate_predict,
      5                          membership_vector,

~/Library/Python/3.7/lib/python/site-packages/hdbscan/hdbscan_.py in <module>
     19 from scipy.sparse import csgraph
     20 
---> 21 from ._hdbscan_linkage import (single_linkage, …
Run Code Online (Sandbox Code Playgroud)

python numpy jupyter-notebook hdbscan

6
推荐指数
1
解决办法
947
查看次数

Pyspark:提取数据帧的行,其中值包含一串字符

我正在使用 pyspark 并且我有一个只有一列值的大数据框,其中每一行都是一长串字符:

col1
-------
'2020-11-20;id09;150.09,-20.02'
'2020-11-20;id44;151.78,-25.14'
'2020-11-20;id78;148.24,-22.67'
'2020-11-20;id55;149.77,-27.89'
...
...
...
Run Code Online (Sandbox Code Playgroud)

我正在尝试提取数据帧的行,其中 'idxx' 匹配字符串列表,例如 ["id01", "id02", "id22", "id77", ...]。目前,我从数据框中提取行的方式是:

df.filter(df.col1.contains("id01") | df.col1.contains("id02") | df.col1.contains("id22") | ... )
Run Code Online (Sandbox Code Playgroud)

有没有办法使这更有效,而不必将每个字符串项硬编码到过滤器函数中?

sql apache-spark apache-spark-sql pyspark

1
推荐指数
1
解决办法
93
查看次数