相关疑难解决方法(0)

R:是否有可能将2000万行CSV中的读取并行/加速到R?

一旦CSV文件是通过加载read.csv,这是相当琐碎的使用multicore,segue等玩弄于CSV数据.然而,阅读它是时候下沉了.

意识到最好使用mySQL等.

假设使用运行R2.13的AWS 8xl集群计算实例

规格如下:

Cluster Compute Eight Extra Large specifications:
88 EC2 Compute Units (Eight-core 2 x Intel Xeon)
60.5 GB of memory
3370 GB of instance storage
64-bit platform
I/O Performance: Very High (10 Gigabit Ethernet)
Run Code Online (Sandbox Code Playgroud)

任何想法/想法都非常感激.

csv parallel-processing r bigdata

8
推荐指数
2
解决办法
2684
查看次数

标签 统计

bigdata ×1

csv ×1

parallel-processing ×1

r ×1