小编Orh*_*zar的帖子

使用 sparkR write.df 写入 sparkdataframe 时丢失列名

语境

我正在使用 rstudio 和 sparkR 包开发一个 azure HDI R 服务器集群。我正在读取文件,修改它,然后我想用 write.df 写它,但问题是当我写文件时,我的列名消失了。

我的代码如下:

write.df(spdf,"///Output/File","csv","overwrite",header=T)
Run Code Online (Sandbox Code Playgroud)

这是我想以 csv 格式写入的文件

Num,Letter
5.5,a
9.,b
5.5,c
9,d
5.5,e
9,f
5.5,g
9,h
5.5,i
9,j
Run Code Online (Sandbox Code Playgroud)

这是我得到的文件:

    0,1
    5.5,a
    9.,b
    5.5,c
    9,d
    5.5,e
    9,f
    5.5,g
    9,h
    5.5,i
    9,j
Run Code Online (Sandbox Code Playgroud)

hadoop r azure sparkr spark-dataframe

5
推荐指数
0
解决办法
369
查看次数

如何使用Spark R在Blob Azure中列出文件

我在具有基于Azure blob存储的HDi群集的Rstudio服务器上使用SparkR。我正在尝试列出Blob容器中包含的文件。我试过了:list.files(pattern = ".*.csv")就像我们在R中所做的那样,但是它什么都没显示,我得到了一个错误。

有谁知道如何从R列出Blob容器中的文件?

r azure-storage azure-storage-blobs apache-spark

5
推荐指数
1
解决办法
188
查看次数

是否可以将 SparkR 上的 data.table 与 Sparkdataframes 一起使用?

情况

我曾经使用 data.table 而不是 plyr 或 sqldf 在 Rstudio 上工作,因为它非常快。现在,我正在一个 azure 集群上研究 sparkR,如果我现在可以在我的 spark 数据帧上使用 data.table 并且它比 sql 快,我想现在吗?

r cluster-computing apache-spark data.table sparkr

4
推荐指数
1
解决办法
1815
查看次数

有没有办法在本地服务器上运行闪亮的应用程序,以便公司中的每个人都可以访问?

我实际上正在实习,并且正在使用 rshiny 构建一个工具。但在公司,他们只使用Windows,所以我想知道是否有一种方法可以在没有LINUX的本地服务器上运行一个闪亮的应用程序?

r shiny shiny-server

2
推荐指数
1
解决办法
2220
查看次数

当列变得低于另一列并且变得更高时,如何获得?

我正在使用大型data.table.请考虑以下示例:

#1st row is 
A <- c(8,8,8,8,8,8,8,8,8,8) 
#2nd row is
B <- c(9,9,7,6,5,6,7,7,8,8)
Run Code Online (Sandbox Code Playgroud)

我需要知道B何时开始低于A并且当它变得高于或等于A.

我想要的是这样的表:

begin end
  3    9
Run Code Online (Sandbox Code Playgroud)

r data.table

2
推荐指数
1
解决办法
39
查看次数