在Apache Spark程序中,我们如何知道代码的哪一部分将在驱动程序中执行,哪部分代码将在工作节点中执行?
带着敬意
如何为实时交易数据设计架构以便将其归类为欺诈?
使用Scala和Spark MLLib使用历史数据开发,训练和测试随机森林分类器ML模型并持久化.
实时事务数据正在使用Apache Kafka从一个主题和Spark Streaming处理并写入另一个主题,以便通过分类器ML模型进行预测.
我关心的问题:我如何使用上面提到的ML模式提供并获得从Kafka主题收到的预测当前交易数据?
使用已经过培训和测试过的ML模型获取预测的在线当前单一交易数据的最佳做法是什么?
欢迎任何设计建议.
random-forest apache-spark spark-streaming apache-spark-mllib
我在两个不同的物理机器上有两个服务器节点IBM Websphere Application Server的集群.任何人都可以帮助我使用java代码来检查我的服务器实例是否正在运行,或者其中一个服务器未启动并运行?
假设我们定义如下函数,Clojure中的运算符优先级是什么?
(defn leap-year? [input-year] (or (and (= (rem input-year 4) 0) (> (rem input-year 100) 0)) (= (rem input-year 400) 0)))
Run Code Online (Sandbox Code Playgroud)