如何缩小randomForest模型的大小?

Joh*_*ohn 5 artificial-intelligence r data-mining random-forest

我一直在R中训练700万行数据(41个功能)中的randomForest模型。这是一个示例调用:

myModel <-randomForest(RESPONSE〜。,data = mydata,ntree = 50,maxnodes = 30)

我肯定认为只有50棵树和30个终端节点,“ myModel”的内存占用量会很小。但是转储文件中有65兆。该对象似乎持有训练过程中的各种预测,实际和投票数据。

如果我只想要森林怎么办?我想要一个很小的转储文件,以后可以加载以快速做出预测。我觉得森林本身不应该那么大...

任何人都知道如何将这种吸盘剥离成我可以预测的东西吗?

Jos*_*ich 1

试图摆脱将答案作为评论发布的习惯......

?randomForest建议不要使用含有大量变量的公式接口...如果不使用公式接口,结果会有什么不同吗?的部分?randomForest还告诉您如何关闭某些输出(重要性矩阵、整个森林、邻近矩阵等)。

例如:

myModel <- randomForest(mydata[,!grepl("RESPONSE",names(mydata))],
  mydata$RESPONSE, ntree=50, maxnodes=30, importance=FALSE,
  localImp=FALSE, keep.forest=FALSE, proximity=FALSE, keep.inbag=FALSE)
Run Code Online (Sandbox Code Playgroud)

  • 如果你想用模型进行预测,那么“keep.forest=FALSE”似乎不是一个好主意。 (2认同)