Rya*_*son 7 file-io memory-management r in-memory large-files
我正在尝试使用R来分析大型DNA序列文件(fastq文件,每个文件几千兆字节),但这些文件的标准R接口(ShortRead)必须立即读取整个文件.这不适合内存,因此会导致错误.有什么方法可以一次读取几(千)行,将它们填入内存文件,然后使用ShortRead从内存文件中读取?
我正在寻找像Perl的IO :: Scalar这样的东西.
| 归档时间: |
|
| 查看次数: |
1108 次 |
| 最近记录: |