小编Hol*_*ndl的帖子

为什么功能序列不能与ggplot2一起使用?

我想使用http://www.r-bloggers.com/magrittr-1-5/中描述的功能序列提取一些绘图代码.但是,它不起作用

require(magrittr); require(ggplot2); require(dplyr)

plot_me <- . %>% (ggplot(aes(Sepal.Width, Sepal.Length)) + geom_point())
iris %>% plot_me
Run Code Online (Sandbox Code Playgroud)

尝试此操作时,R会出现以下错误

错误:ggplot2不知道如何处理class uneval的数据

使用简单的管道做同样的工作很好:

iris %>% ggplot(aes(Sepal.Width, Sepal.Length)) + geom_point()
Run Code Online (Sandbox Code Playgroud)

我的功能序列/代码出了什么问题?

r ggplot2 dplyr magrittr

3
推荐指数
1
解决办法
160
查看次数

为什么不在Scala中设置方法强制执行类似的类型?

请考虑以下示例

val strings = Seq("foo", "bar")
val numbers = Seq(1,2,3)
strings.diff(numbers)
Run Code Online (Sandbox Code Playgroud)

这是有效的代码(并导致一个空列表),但为什么scala不会发现我们正在比较不同类型的集合?

似乎有一个约束型B >: A的定义intersect,diffunion但不知何故,它不会导致编译器将拒绝我的例子为无效.

在scala中是否有类型严格/安全的方法来设置操作?

scala

3
推荐指数
1
解决办法
69
查看次数

如何在同一台机器上创建 2 个火花大师/工人?

通过定义不同的端口,我希望在同一台机器上启动 2 个 master,但它失败了:

$ $SPARK_HOME/sbin/start-master.sh --port 8001 --webui-port 8011
starting org.apache.spark.deploy.master.Master, logging to /Users/brandl/bin/spark-2.2.0-bin-hadoop2.7/logs/spark-brandl-org.apache.spark.deploy.master.Master-1-scicomp-mac-12.local.out
$ $SPARK_HOME/sbin/start-master.sh --port 8002 --webui-port 8012
org.apache.spark.deploy.master.Master running as process 29436.  Stop it first.
Run Code Online (Sandbox Code Playgroud)

为什么这不起作用?我是否需要调整更多设置以允许多个实例?

按照相同的逻辑,我可能想在同一台机器上启动两个工人。但即使它们应该连接到不同的主机,这也会失败并出现类似的错误:

$SPARK_HOME/sbin/start-slave.sh --webui-port 8050 spark://foo:7077
starting org.apache.spark.deploy.worker.Worker, logging to /Users/brandl/bin/spark-2.2.0-bin-hadoop2.7/logs/spark-brandl-org.apache.spark.deploy.worker.Worker-1-scicomp-mac-12.local.out
starting org.apache.spark.deploy.worker.Worker, logging to /Users/brandl/bin/spark-2.2.0-bin-hadoop2.7/logs/spark-brandlorg.apache.spark.deploy.worker.Worker-2-scicomp-mac-12.local.out
$SPARK_HOME/sbin/start-slave.sh --webui-port 8051 spark://bar:7077
org.apache.spark.deploy.worker.Worker running as process 29503.  Stop it first.
org.apache.spark.deploy.worker.Worker running as process 29526.  Stop it first.
Run Code Online (Sandbox Code Playgroud)

如果检查了spark 独立文档,但找不到关于我做错了什么的任何指导。

apache-spark

1
推荐指数
1
解决办法
768
查看次数

标签 统计

apache-spark ×1

dplyr ×1

ggplot2 ×1

magrittr ×1

r ×1

scala ×1