Moo*_*per 5 parallel-processing performance r count
我有一个包含数百万个列表的列表,这些子列表具有一些不同的可能值,可能是10到100。
我想计算这些值的出现次数。
下面的代码可以工作,但是非常慢。我们可以做得更快吗?
count_by_list <- function(lst, var_nm = as.character(substitute(lst)), count_nm = "n"){
unique_lst <- unique(lst)
res <- tibble::tibble(!!var_nm := unique_lst, !!count_nm := NA)
for(i in seq_along(unique_lst)){
res[[count_nm]][[i]] <- sum(lst %in% res[[var_nm]][i])
}
res
}
x <- list(
list(a=1, b=2),
list(a=1, b=2),
list(b=3),
list(b=3, c=4))
count_by_list(x)
#> # A tibble: 3 x 2
#> x n
#> <list> <int>
#> 1 <named list [2]> 2
#> 2 <named list [1]> 1
#> 3 <named list [2]> 1
Run Code Online (Sandbox Code Playgroud)
由reprex软件包(v0.3.0)创建于2019-11-29
我尝试使用库进行哈希处理,digest但实际上速度较慢,并且随着n的增加而变得越来越糟:
library(digest)
count_by_list2 <- function(lst, var_nm = as.character(substitute(lst)), count_nm = "n"){
unique_lst <- unique(lst)
digested <- vapply(lst, digest, character(1))
res <- as.data.frame(table(digested))
names(res) <- c(var_nm, count_nm)
res[[1]] <- unique_lst
res
}
Run Code Online (Sandbox Code Playgroud)
如果您需要进行基准测试,可以使用x_big <- unlist(replicate(10000 ,x, F), recursive = FALSE)。
我添加了标签rcpp,parallel processing因为这些标签可能会有所帮助,所以它们并不是答案的限制。
对于示例,这种data.table方法比 OP 原始循环快 30 倍x_big。一个值得注意的预防措施是,如果子列表的任何元素包含多个记录,则此方法将失败。
library(data.table)
molten_lst <- rbindlist(x, fill = T)
cnt_lst <- molten_lst[, .N, names(molten_lst)]
tibble(x = cnt_lst[,
list(apply(.SD, 1, function(x) as.list(na.omit(x)))),
.SDcols = names(molten_lst),
by = .(seq_len(nrow(cnt_lst)))]$V1,
n = cnt_lst[['N']])
Run Code Online (Sandbox Code Playgroud)
这里有两种备份方法。我遇到了 NSE / quasi-quotation 问题,所以!!var_nam简化了。第一种方法是对原始函数进行一些调整 - 主要是通过lst在循环期间过滤。
enhanced_loop <- function(lst, var_nm = as.character(substitute(lst)), count_nm = "n"){
unique_lst <- unique(lst)
cnts <- vector('integer', length(unique_lst))
for (i in seq_along(unique_lst)[-length(unique_lst)]){
ind <- lst %in% unique_lst[i]
lst <- lst[!ind]
cnts[i] <- sum(ind)
}
cnts[length(unique_lst)] <- length(lst)
tibble::tibble(x := unique_lst, !!count_nm := cnts)
}
Run Code Online (Sandbox Code Playgroud)
这使循环得出合乎逻辑的结论 - 使用match()而不是%in%这样的努力不会重复:
tabulate_match <- function(lst, var_nm = as.character(substitute(lst)), count_nm = "n"){
unique_lst <- unique(lst)
cnts <- tabulate(match(lst, unique_lst))
tibble::tibble(x := unique_lst, !!count_nm := cnts)
}
Run Code Online (Sandbox Code Playgroud)
表现:
# A tibble: 7 x 13
expression min median `itr/sec` mem_alloc `gc/sec` n_itr
<bch:expr> <bch> <bch:t> <dbl> <bch:byt> <dbl> <int>
1 molten_dt 25ms 25.1ms 39.7 2.71MB 0 5
2 tabulate_match(x_big) 237ms 247.2ms 3.41 1.42MB 2.05 5
3 enhanced_loop(x_big) 344ms 352.6ms 2.82 2.83MB 1.69 5
4 table_sapply 381ms 384.9ms 2.59 3.76MB 7.77 5
5 vapply_tab_match(x_big) 412ms 429.3ms 2.14 4.21MB 3.85 5
6 dt_thing(x_big) 442ms 464.6ms 2.15 2.83MB 7.31 5
7 count_by_list(x_big) 759ms 768.4ms 1.24 3.4MB 2.23 5
Run Code Online (Sandbox Code Playgroud)
这是一些快速而肮脏的东西,可以消除原始解决方案。
cbl2 <- function(x) {
xcv <- vapply(seq_along(x), function(i) paste(x[i]), character(1))
xcv_count <- table(match(xcv, xcv))
tibble(x = x[as.integer(names(xcv_count))], n = as.vector(xcv_count))
}
Run Code Online (Sandbox Code Playgroud)
一些玩弄data.table再次缩短了运行时间:
cbl3 <- function(x) {
data.table(xlist = x)[, xstring := paste(xlist), by = 1:length(x)
][, .(x = xlist[1], .N), by = xstring
][, .(x, n = N)
][, as_tibble(.SD)]
}
Run Code Online (Sandbox Code Playgroud)
| 归档时间: |
|
| 查看次数: |
126 次 |
| 最近记录: |