相关疑难解决方法(0)

加快write.table的性能

我有一个data.frame,我想写出来.我的尺寸data.frame是256行乘65536列.什么是更快的替代品write.csv

r

42
推荐指数
3
解决办法
2万
查看次数

将大型(3.9毫米数据库)数据框架导出到文本文件的最有效方法?

我在R中有一个相当大的数据框,我想导出到SPSS.这个文件首先导致我尝试将其导入R的几个小时的麻烦,但是我read.fwf()使用选项comment.char="%"(文件中没有出现的字符)成功使用了fill= TRUE(它是一个固定宽度的ASCII文件,缺少某些行)所有变量,导致错误消息).

无论如何,我的数据框目前包括3,900个观察值和48个变量(所有字符).我可以通过将其分成4 x 1毫米集合df2 <- df[1:1000000,]后跟write.table(df2)等等来快速地将其写入文件,但是如果没有计算机锁定并且需要硬重置才能恢复,则无法在一次扫描中写入整个文件.

在听到关于R多年来不适合大型数据集的轶事故事后,这是我第一次遇到这类问题.我想知道是否有其他方法(将文件低级"直接"转储到磁盘?)或者是否有一些我不知道的包可以有效地处理这种类型的大文件的输出?

export r export-to-csv

23
推荐指数
5
解决办法
2万
查看次数

是否有一个与data.table包中的fread()对应的写入函数?

fread()R的data.table包中的函数在读取大型CSV文件等时提供了令人印象深刻的速度和易用性.不幸的是,我没有设法找到类似的函数来从R 写入 CSV文件.我当然尝试过write.csv(),但我发现它在编写非常大的数据文件时速度极慢.

所以:有没有人知道是否有类似于fread()的文件?

r data.table

10
推荐指数
1
解决办法
1598
查看次数

标签 统计

r ×3

data.table ×1

export ×1

export-to-csv ×1