小编vis*_*oft的帖子

用于多处理的共享内存中的大型numpy数组:这种方法有问题吗?

多处理是一个很棒的工具,但不是那么直接使用大内存块.您可以在每个进程中加载​​块并将结果转储到磁盘上,但有时您需要将结果存储在内存中.最重要的是,使用花哨的numpy功能.

我已经阅读/ google了很多,并提出了一些答案:

在共享内存中使用numpy数组进行多处理

在多处理过程之间共享大型只读Numpy数组

Python多处理全局numpy数组

如何在python子进程之间传递大型numpy数组而不保存到磁盘?

等等

他们都有缺点:不那么主流的图书馆(sharedmem); 全局存储变量; 不太容易阅读代码,管道等

我的目标是在我的工作人员中无缝使用numpy而不用担心转换和事情.

经过多次试验,我想出了这个.它适用于我的ubuntu 16,python 3.6,16GB,8核心机器.与以前的方法相比,我做了很多"快捷方式".没有全局共享状态,没有需要转换为numpy inside worker的纯内存指针,作为进程参数传递的大型numpy数组等.

上面是Pastebin链接,但我会在这里放几个片段.

一些进口:

import numpy as np
import multiprocessing as mp
import multiprocessing.sharedctypes
import ctypes
Run Code Online (Sandbox Code Playgroud)

分配一些共享内存并将其包装成一个numpy数组:

def create_np_shared_array(shape, dtype, ctype)
     . . . . 
    shared_mem_chunck = mp.sharedctypes.RawArray(ctype, size)
    numpy_array_view = np.frombuffer(shared_mem_chunck, dtype).reshape(shape)
    return numpy_array_view
Run Code Online (Sandbox Code Playgroud)

创建共享数组并在其中放入一些内容

src = np.random.rand(*SHAPE).astype(np.float32)
src_shared = create_np_shared_array(SHAPE,np.float32,ctypes.c_float)
dst_shared = create_np_shared_array(SHAPE,np.float32,ctypes.c_float)
src_shared[:] = src[:]  # Some numpy ops accept an 'out' array where to store the …
Run Code Online (Sandbox Code Playgroud)

python numpy multiprocessing

7
推荐指数
1
解决办法
1322
查看次数

标签 统计

multiprocessing ×1

numpy ×1

python ×1