相关疑难解决方法(0)

如何连接多个pandas.DataFrames而不会遇到MemoryError

我有三个我试图连接的DataFrame.

concat_df = pd.concat([df1, df2, df3])
Run Code Online (Sandbox Code Playgroud)

这会导致MemoryError.我该如何解决这个问题?

请注意,大多数现有的类似问题都是在读取大文件时发生的MemoryErrors上.我没有那个问题.我已将我的文件读入DataFrames.我只是不能连接那些数据.

python memory memory-management pandas

21
推荐指数
6
解决办法
1万
查看次数

64位窗口上的Python 32位内存限制

我遇到了一个我似乎无法理解的记忆问题.

我在Windows 7 64位机器上运行8GB内存并运行32位python程序.

这些程序读取了5,118个压缩的numpy文件(npz).Windows报告磁盘上的文件占用1.98 GB

每个npz文件包含两个数据:'arr_0'的类型为np.float32,'arr_1'的类型为np.uint8

python脚本读取每个文件将其数据附加到两个列表中,然后关闭该文件.

在文件4284/5118周围,程序抛出一个MemoryException

但是,任务管理器说发生错误时python.exe*32的内存使用量是1,854,848K~ = 1.8GB.远低于我的8 GB限制,或者假定的32位程序的4GB限制.

在程序中我捕获内存错误并报告:每个列表的长度为4285.第一个列表包含总共1,928,588,480个float32的〜= 229.9 MB的数据.第二个列表包含12,342,966,272 uint8的〜= 1,471.3MB数据.

所以,一切似乎都在检查.除了我得到内存错误的部分.我绝对有更多的内存,它崩溃的文件大约是800KB,因此读取一个巨大的文件并没有失败.

此外,该文件未损坏.如果我事先没有耗尽所有的记忆,我可以读得很好.

为了让事情变得更加混乱,所有这一切似乎在我的Linux机器上运行良好(虽然它确实有16GB的内存,而不是我的Windows机器上的8GB),但是,它似乎并不是机器的RAM.造成这个问题.

为什么Python会抛出内存错误,当我预计它应该能够分配另外2GB的数据?

python memory windows file-io numpy

19
推荐指数
1
解决办法
2万
查看次数

numpy如何处理mmap的npz文件?

我有一个案例,我想使用mmap模式打开一个压缩的numpy文件,但似乎无法找到任何有关它如何在幕后工作的文档.例如,它会解压缩内存中的存档然后mmap吗?它会在飞行中解压缩吗?

该配置缺少该文档.

gzip mmap numpy

7
推荐指数
1
解决办法
2136
查看次数

标签 统计

memory ×2

numpy ×2

python ×2

file-io ×1

gzip ×1

memory-management ×1

mmap ×1

pandas ×1

windows ×1