cv <- trainControl(
method = "cv",
number = 5,
classProbs = TRUE,
summaryFunction = prSummary,
seeds = set.seed(123))
turn_grid_xgb <- expand.grid(
eta = c(0.1,0.3,0.5),
max_depth = 5,
min_child_weight = 1,
subsample = 0.8,
colsample_bytree = 0.8,
nrounds = (1:10)*200,
gamma = 0)
set.seed(123)
suppressWarnings({
xgb_1 <- train(label~., data = baked_train,
method = "xgbTree",
tuneGrid = turn_grid_xgb,
trControl = cv,
verbose = FALSE,
metric = "F")
Run Code Online (Sandbox Code Playgroud)
您好,当我尝试运行上面的代码时,R 控制台中显示以下警告。有谁知道如何摆脱它?我已经尝试过suppressWarnings(),warning = FALSE在块设置上,它仍然存在。
谢谢!!
WARNING: amalgamation/../src/c_api/c_api.cc:718: `ntree_limit` is deprecated, use …Run Code Online (Sandbox Code Playgroud) 使用Caret软件包进行机器学习时,我对Caret默认的"正面"结果选择感到震惊,即二元分类问题中结果因素的第一级.
包裹说它可以设置为替代级别.任何人都能帮助我确定积极的结果吗?
感谢您
我正在尝试使用R中的插入符包调整参数,但得到一个
Error in train.default(x = as.matrix(df_train %>% select(-c(Response, :
The tuning parameter grid should have columns nrounds, lambda, alpha
Run Code Online (Sandbox Code Playgroud)
每当我尝试训练模型时,即使列nrounds,lambda和alpha都存在.
library(caret)
library(xgboost)
library(readr)
library(dplyr)
library(tidyr)
xgb_grid_1 <- expand.grid(
nrounds= 2400,
eta=c(0.01,0.001,0.0001),
lambda = 1,
alpha =0
)
xgb_trcontrol <- trainControl(
method="cv",
number = 5,
verboseIter = TRUE,
returnData=FALSE,
returnResamp = "all",
allowParallel = TRUE,
)
xgb_train_1 <- train(
x = as.matrix(df_train %>% select(-c(Response, Id))),
y= df_train$Response,
trControl = xgb_trcontrol,
tuneGrid = xgb_grid_1,
method="xgbLinear"
)
Run Code Online (Sandbox Code Playgroud) 每当我运行此代码时,tm_map 行都会给我警告消息作为警告消息:在 tm_map.SimpleCorpus(docs, toSpace, "/") 中:转换丢弃文档
texts <- read.csv("./Data/fast food/Domino's/Domino's veg pizza.csv",stringsAsFactors = FALSE)
docs <- Corpus(VectorSource(texts))
toSpace <- content_transformer(function (x , pattern ) gsub(pattern, " ", x))
docs <- tm_map(docs, toSpace, "/")
docs <- tm_map(docs, toSpace, "@")
docs <- tm_map(docs, toSpace, "\\|")
docs <- tm_map(docs, content_transformer(tolower))
docs <- tm_map(docs, removeNumbers)
docs <- tm_map(docs, removeWords, stopwords("english"))
docs <- tm_map(docs, removeWords, c("blabla1", "blabla2"))
docs <- tm_map(docs, removePunctuation)
docs <- tm_map(docs, stripWhitespace)
Run Code Online (Sandbox Code Playgroud) 我有以下简单的示例Rmarkdown文档(test.Rmd):
---
title: "Test Knit Caret Paralell VerboseIter"
output: html_document
---
```{r setup, include=FALSE}
knitr::opts_chunk$set(echo = TRUE)
require(caret)
require(doParallel)
```
## data
```{r data}
set.seed(998)
training <- twoClassSim()
```
## model
```{r fitmodel}
fitControl <- trainControl(
method = "repeatedcv",
number = 3,
repeats = 2,
verboseIter = T)
ncores <- detectCores()-1
cl <<- makePSOCKcluster(ncores, verbose = TRUE, outfile = "")
registerDoParallel(cl)
set.seed(825)
Fit <- train(Class ~ .,
data = training,
method = "nnet",
trControl = fitControl,
trace = …Run Code Online (Sandbox Code Playgroud) 我想根据文字中关键字的权重创建一个网络。然后在运行与tm_map相关的代码时出现错误:
library (tm)
library(NLP)
lirary (openNLP)
text = c('.......')
corp <- Corpus(VectorSource(text))
corp <- tm_map(corp, stripWhitespace)
Warning message:
In tm_map.SimpleCorpus(corp, stripWhitespace) :
transformation drops documents
corp <- tm_map(corp, tolower)
Warning message:
In tm_map.SimpleCorpus(corp, tolower) : transformation drops documents
Run Code Online (Sandbox Code Playgroud)
这些代码已经在2个月前开始工作,现在我正在尝试获取新数据,但现在不再工作。有人请告诉我我哪里错了。谢谢。我什至尝试使用下面的命令,但是它也不起作用。
corp <- tm_map(corp, content_transformer(stripWhitespace))
Run Code Online (Sandbox Code Playgroud) 任何人都可以提出关于何时使用map()(所有map _ ..()函数)以及何时使用summarise_at()/ mutate_at()?的建议
例如,如果我们对向量列进行一些修改,那么我们不需要考虑map()?如果我们有一个df /有一个列有一个列表,那么我们需要使用map()?
map()功能是否总是需要与nest()功能一起使用?任何人都可以建议一些关于此的学习视频 还有如何将列表放在df中并同时建模多个列表,然后将模型结果存储在另一列中?
非常感谢!
为了摆脱股票的非交易日(又称周末)而ggplot不是日期,我使用数据中的行数,然后添加中断和标签。“ works ”下面的代码完成了这个任务,并像chartSeriesquantmod 包中那样绘制数据。ggplot添加不存在的信息或显示差距,具体取决于您制作的图表类型。对于处理股票价格来说,这并不方便。因此,作品部分。
但由于这只是一个标签问题,因此轴转换器函数会更符合逻辑并且更易于使用。我尝试创建一个scale_x_finance函数(请参阅“不起作用”部分),但我一定是错误地解释了反函数,因为我只返回了 1 个日期的图,而不是整个时间序列。
我读了几个这样的问题,比如这个和这个,但到目前为止还没有运气。
我知道有一个名为 的包bdscale存在,但它已经六年多没有更新了,而且它创建的中断/标签不是我需要的。
使用的结果scale_x_finance应该类似于作品部分的情节。我想知道是否有人知道我在这里缺少什么。
我在问题底部添加了一些测试数据。
library(ggplot2)
# get the start date and the last days of the month for breaks and label positions
get_breaks <- function(x) {
out <- c(1, which(ave(as.numeric(x),format(x,"%Y%m"), FUN = function(x) x == max(x)) == 1))
}
# use 1:nrow to be able to use scale_x_continuous …Run Code Online (Sandbox Code Playgroud) 得到以下错误:
图书馆('ROracle')
inDL(x, as.logical(local), as.logical(now), ...) 中的错误:无法加载共享对象 'C:/Users/Daniel/R/winlibrary/3.2/ROracle/libs/x64/ ROracle.dll': LoadLibrary 失败: %1 不是有效的 Win32 应用程序。
library('ROracle')
Error in inDL(x, as.logical(local), as.logical(now), ...) :
unable to load shared object 'C:/Users/Daniel/R/winlibrary/3.2/ROracle/libs/x64/ROracle.dll':
LoadLibrary failure: %1 is not a valid Win32 application.
Run Code Online (Sandbox Code Playgroud)
我不知道从哪里开始解决这个问题。这是 libPath() 的结果
> .libPaths()
"C:/Users/Daniel/R/win-library/3.2" "C:/Program Files/R/R-3.2.3/library"
Run Code Online (Sandbox Code Playgroud)
Windows 10,R 版本 3.2.3
我尝试使用R、jiebaR和语料库生成一个词云并获取中文语音的词频,但无法制作语料库。这是我的代码:
library(jiebaR)
library(stringr)
library(corpus)
cutter <- worker()
v36 <- readLines('v36.txt', encoding = 'UTF-8')
seg_x <- function(x) {str_c(cutter[x], collapse = '')}
x.out <- sapply(v36, seg_x, USE.NAMES = FALSE)
v36.seg <- x.out
v36.seg
library(quanteda)
corpus <- corpus(v36.seg) #Error begins here.
summary(corpus, showmeta = TRUE, 1)
texts(corpus)[1]
tokens(corpus, what = 'fasterword')[1]
tokens <- tokens(v36.seg, what = 'fasterword')
dfm <- dfm(tokens)
dfm
Run Code Online (Sandbox Code Playgroud)
我的文本文件包含以下段落:
当我创建语料库时出现错误。R 返回:
Error in corpus.default(v36.seg) :
corpus() only works on character, corpus, Corpus, data.frame, kwic objects.
Run Code Online (Sandbox Code Playgroud)
我不明白为什么文本有问题。如果您能帮我解决问题,我将不胜感激。谢谢。
r ×10
r-caret ×4
tm ×2
xgboost ×2
axis-labels ×1
corpus ×1
doparallel ×1
extract ×1
extraction ×1
ggplot2 ×1
installation ×1
keyword ×1
knitr ×1
modelr ×1
oracle ×1
purrr ×1
quanteda ×1
roracle ×1
stringr ×1
text-mining ×1
warnings ×1