使用h5py在Python中对大数据进行分析工作的经验?

Jos*_*ann 46 python sas hdf5 scipy h5py

我做了很多统计工作,并使用Python作为我的主要语言.我使用的一些数据集虽然可以占用20GB的内存,但这使得使用numpy,scipy和PyIMSL中的内存函数对它们进行操作几乎是不可能的.统计分析语言SAS在这里具有很大的优势,因为它可以对来自硬盘的数据进行操作而不是严格的内存处理.但是,我想避免在SAS中编写大量代码(出于各种原因),因此我试图确定我使用Python的选项(除了购买更多的硬件和内存).

我应该澄清一下像map-reduce这样的方法对我的大部分工作都无济于事,因为我需要对完整的数据集进行操作(例如计算分位数或拟合逻辑回归模型).

最近我开始玩h5py并认为这是我发现允许Python像SAS一样操作磁盘上的数据(通过hdf5文件),同时仍然能够利用numpy/scipy/matplotlib等的最佳选择.我想听听是否有人在类似设置中使用Python和h5py以及他们发现了什么.有没有人能够在迄今为止由SAS主导的"大数据"设置中使用Python?

编辑:购买更多硬件/内存当然可以提供帮助,但从IT角度来看,当Python(或R或MATLAB等)需要在内存中保存数据时,我很难将Python出售给需要分析大量数据集的组织.SAS继续在这里有一个强大的卖点,因为虽然基于磁盘的分析可能会更慢,但您可以放心地处理大量数据集.因此,我希望Stackoverflow可以帮助我弄清楚如何降低使用Python作为主流大数据分析语言的感知风险.

Ber*_*ler 49

我们将Python与h5py,numpy/scipy和boost :: python结合使用来进行数据分析.我们的典型数据集大小可达几百GB.

HDF5的优点:

  • 使用h5view应用程序,h5py/ipython和h5*命令行工具可以方便地检查数据
  • API适用于不同的平台和语言
  • 使用组结构数据
  • 使用属性注释数据
  • 无忧内置数据压缩
  • 单个数据集上的io很快

HDF5陷阱:

  • 如果h5文件包含太多数据集/组(> 1000),则性能会中断,因为遍历它们非常慢.另一方面,io对于一些大数据集来说很快.
  • 高级数据查询(类似于SQL)实现起来很笨拙而且速度很慢(在这种情况下考虑SQLite)
  • HDF5在所有情况下都不是线程安全的:必须确保使用正确的选项编译库
  • 更改h5数据集(调整大小,删除等)会炸毁文件大小(在最好的情况下)或者是不可能的(在最坏的情况下)(必须复制整个h5文件以再次压平它)


Mat*_*ker 5

这是一个很长的评论,而不是你对h5py的实际问题的答案.我没有将Python用于统计数据并且倾向于处理相对较小的数据集,但是在R中检查用于高性能计算的CRAN任务视图可能值得花一点时间,特别是"大内存和内存不足"数据"部分.

三个原因:

  • 您可以挖掘任何这些软件包的源代码,以获取可能对您有所帮助的想法
  • 您可能会发现包名称在搜索Python等价物时很有用; 很多R用户也是Python用户
  • 在某些情况下,使用上面链接的包之一链接到R进行特定分析可能会很方便,然后将结果绘制回Python

我再次强调,这已经远离了我的联盟,你肯定可能已经知道所有这一切.但也许这对您或处理相同问题的人有用.