我正在尝试使用data.table来加速处理由几个较小的合并data.frames组成的大型data.frame(300k x 60).我是data.table的新手.到目前为止的代码如下
library(data.table)
a = data.table(index=1:5,a=rnorm(5,10),b=rnorm(5,10),z=rnorm(5,10))
b = data.table(index=6:10,a=rnorm(5,10),b=rnorm(5,10),c=rnorm(5,10),d=rnorm(5,10))
dt = merge(a,b,by=intersect(names(a),names(b)),all=T)
dt$category = sample(letters[1:3],10,replace=T)
Run Code Online (Sandbox Code Playgroud)
我想知道是否有比以下更有效的方法来总结数据.
summ = dt[i=T,j=list(a=sum(a,na.rm=T),b=sum(b,na.rm=T),c=sum(c,na.rm=T),
d=sum(d,na.rm=T),z=sum(z,na.rm=T)),by=category]
Run Code Online (Sandbox Code Playgroud)
我真的不想手工输入所有50列计算,而且eval(paste(...))似乎很笨拙.
我看了下面的例子,但对我的需求似乎有点复杂.谢谢
我有一个data.table事件记录,比如用户ID,居住国家和事件.例如,
dt <- data.table(user=c(rep(3, 5), rep(4, 5)),
country=c(rep(1,4),rep(2,6)),
event=1:10, key="user")
Run Code Online (Sandbox Code Playgroud)
正如您所看到的,数据有些损坏:事件5报告用户3在国家2(或者他旅行 - 这对我来说无关紧要).所以当我尝试总结数据时:
dt[, country[.N] , by=user]
user V1
1: 3 2
2: 4 2
Run Code Online (Sandbox Code Playgroud)
我为用户3弄错了国家.理想情况下,我想为用户获得最常见的国家/地区以及他在那里度过的时间百分比:
user country support
1: 3 1 0.8
2: 4 2 1.0
Run Code Online (Sandbox Code Playgroud)
我怎么做?
实际数据有~10 ^ 7行,因此解决方案必须扩展(这就是我使用的原因,data.table而不是data.frame毕竟).