我想在Spark上做一些DBSCAN.我目前发现了2个实现:
我已经使用其github中给出的sbt配置测试了第一个但是:
jar中的函数与doc或github上的源代码中的函数不同.例如,我在jar中找不到列车功能
我设法使用fit函数(在jar中找到)运行测试,但是epsilon的错误配置(从小到大)将代码置于无限循环中.
代码:
val model = DBSCAN.fit(eps, minPoints, values, parallelism)
Run Code Online (Sandbox Code Playgroud)
有人设法与第一个图书馆合作吗?
有人测试过第二个吗?
scala cluster-analysis dbscan apache-spark apache-spark-mllib