有效地计数列表的出现

Moo*_*per 5 parallel-processing performance r count

我有一个包含数百万个列表的列表,这些子列表具有一些不同的可能值,可能是10到100。

我想计算这些值的出现次数。

下面的代码可以工作,但是非常慢。我们可以做得更快吗?

count_by_list <- function(lst, var_nm = as.character(substitute(lst)), count_nm = "n"){
  unique_lst <- unique(lst)
  res <- tibble::tibble(!!var_nm := unique_lst, !!count_nm := NA)
  for(i in seq_along(unique_lst)){
    res[[count_nm]][[i]] <- sum(lst %in% res[[var_nm]][i])
  }
  res
}

x <- list(
  list(a=1, b=2),
  list(a=1, b=2),
  list(b=3),
  list(b=3, c=4))

count_by_list(x)
#> # A tibble: 3 x 2
#>   x                    n
#>   <list>           <int>
#> 1 <named list [2]>     2
#> 2 <named list [1]>     1
#> 3 <named list [2]>     1
Run Code Online (Sandbox Code Playgroud)

reprex软件包(v0.3.0)创建于2019-11-29

我尝试使用库进行哈希处理,digest但实际上速度较慢,并且随着n的增加而变得越来越糟:

library(digest)
count_by_list2 <- function(lst, var_nm = as.character(substitute(lst)), count_nm = "n"){
  unique_lst <- unique(lst)
  digested   <- vapply(lst, digest, character(1))
  res        <- as.data.frame(table(digested))
  names(res) <- c(var_nm, count_nm)
  res[[1]] <- unique_lst
  res
}
Run Code Online (Sandbox Code Playgroud)

如果您需要进行基准测试,可以使用x_big <- unlist(replicate(10000 ,x, F), recursive = FALSE)

我添加了标签rcppparallel processing因为这些标签可能会有所帮助,所以它们并不是答案的限制。

Col*_*ole 6

对于示例,这种方法比 OP 原始循环快 30 倍x_big。一个值得注意的预防措施是,如果子列表的任何元素包含多个记录,则此方法将失败。

library(data.table)

molten_lst <- rbindlist(x, fill = T)
cnt_lst <- molten_lst[, .N, names(molten_lst)]

tibble(x = cnt_lst[, 
                   list(apply(.SD, 1, function(x) as.list(na.omit(x)))),
                   .SDcols = names(molten_lst),
                   by = .(seq_len(nrow(cnt_lst)))]$V1,
           n = cnt_lst[['N']])
Run Code Online (Sandbox Code Playgroud)

这里有两种备份方法。我遇到了 NSE / quasi-quotation 问题,所以!!var_nam简化了。第一种方法是对原始函数进行一些调整 - 主要是通过lst在循环期间过滤。

enhanced_loop <- function(lst, var_nm = as.character(substitute(lst)), count_nm = "n"){
  unique_lst <- unique(lst)
  cnts <- vector('integer', length(unique_lst))

  for (i in seq_along(unique_lst)[-length(unique_lst)]){
    ind <- lst %in% unique_lst[i]
    lst <- lst[!ind]
    cnts[i] <- sum(ind)
  }
  cnts[length(unique_lst)] <- length(lst)
  tibble::tibble(x := unique_lst, !!count_nm := cnts)
}
Run Code Online (Sandbox Code Playgroud)

这使循环得出合乎逻辑的结论 - 使用match()而不是%in%这样的努力不会重复:

tabulate_match <- function(lst, var_nm = as.character(substitute(lst)), count_nm = "n"){
  unique_lst <- unique(lst)
  cnts <- tabulate(match(lst, unique_lst))
  tibble::tibble(x := unique_lst, !!count_nm := cnts)
}
Run Code Online (Sandbox Code Playgroud)

表现:

# A tibble: 7 x 13
  expression                min  median `itr/sec` mem_alloc `gc/sec` n_itr
  <bch:expr>              <bch> <bch:t>     <dbl> <bch:byt>    <dbl> <int>
1 molten_dt                25ms  25.1ms     39.7     2.71MB     0        5
2 tabulate_match(x_big)   237ms 247.2ms      3.41    1.42MB     2.05     5
3 enhanced_loop(x_big)    344ms 352.6ms      2.82    2.83MB     1.69     5
4 table_sapply            381ms 384.9ms      2.59    3.76MB     7.77     5
5 vapply_tab_match(x_big) 412ms 429.3ms      2.14    4.21MB     3.85     5
6 dt_thing(x_big)         442ms 464.6ms      2.15    2.83MB     7.31     5
7 count_by_list(x_big)    759ms 768.4ms      1.24     3.4MB     2.23     5
Run Code Online (Sandbox Code Playgroud)


sin*_*dur 5

这是一些快速而肮脏的东西,可以消除原始解决方案。

cbl2 <- function(x) {
  xcv <- vapply(seq_along(x), function(i) paste(x[i]), character(1))
  xcv_count <- table(match(xcv, xcv))
  tibble(x = x[as.integer(names(xcv_count))], n = as.vector(xcv_count))  
}
Run Code Online (Sandbox Code Playgroud)

一些玩弄data.table再次缩短了运行时间:

cbl3 <- function(x) {
  data.table(xlist = x)[, xstring := paste(xlist), by = 1:length(x)
                        ][, .(x = xlist[1], .N), by = xstring
                          ][, .(x, n = N)
                            ][, as_tibble(.SD)]
}
Run Code Online (Sandbox Code Playgroud)