Chr*_*den 5 parallel-processing r party random-forest
我有一个非常大的数据框,包含790,000行和140个预测变量。其中一些相互之间具有很强的相关性,并且规模不同。有了这个randomForest程序包,我可以只使用一小部分数据在每个核心上生长一个森林,然后使用foreach它们并将其与combine()函数合并以获得一棵大树,如下所示:
rf.STR = foreach(ntree=rep(125, 8), .combine=combine, .multicombine=TRUE, .packages='randomForest') %dopar% {
sample.idx = sample.int( nrow(dat), size=sample.size, replace=TRUE)
randomForest(x=dat[sample.idx,-1, with=FALSE],
y=dat[sample.idx, retention], ntree=ntree)
}
Run Code Online (Sandbox Code Playgroud)
不同尺度上的相关变量使我想使用party软件包中的条件随机森林,但是没有combine()关于森林的方法,因此我不确定如何组合多个森林对象来获得一个重要图或一个预测。
有没有办法在较小的数据子集上训练一个大森林,或者制作几个小森林并将它们组合成一个更大的条件森林模型?
小智 0
制作几个小型森林并将它们组合成一个更大的条件森林模型。
library(snowfall)
library(party)
cforestmt<-function(formula, data = list(), subset = NULL, weights = NULL, controls = cforest_unbiased(), xtrafo = ptrafo, ytrafo = ptrafo, scores = NULL, threads=8) {
if(controls@ntree<threads) { # if there are less trees than threads single thread
return(cforest(formula, data = data, subset=subset, weights=weights, controls=controls, xtrafo=xtrafo, ytrafo=ytrafo, scores=scores))
}
# round off threads
fsize=controls@ntree/threads
if(fsize-round(fsize)!=0) {
fsize=ceiling(fsize)
message("Rounding forest size to ",fsize*threads)
}
controls@ntree=as.integer(fsize)
# run forests in parallel
sfInit(parallel=T, cpus=threads, type="SOCK")
sfClusterEval(library(party))
sfExport('formula','data','subset','weights','controls','xtrafo','ytrafo','scores')
fr<-sfClusterEval(cforest(formula, data = data, subset=subset, weights=weights, controls=controls, xtrafo=xtrafo, ytrafo=ytrafo, scores=scores))
sfStop()
# combine/append forest
fr[[1]]@ensemble<-unlist(lapply(fr,function(y) {y@ensemble}),recursive=F)
fr[[1]]@where<-unlist(lapply(fr,function(y) {y@where}),recursive=F)
fr[[1]]@weights<-unlist(lapply(fr,function(y) {y@weights}),recursive=F)
#first forest has result
return(fr[[1]])
}
Run Code Online (Sandbox Code Playgroud)