随着使用更多内核,Python 多处理速度变慢

luk*_*k98 5 python numpy multiprocessing sparse-matrix

我正在使用 Python Multiprocessing 模块多次对角化(大而稀疏)矩阵。我必须这样做一千次,所以决定在多处理中进行,因为我有 24 个内核。

代码如下:

import numpy as np
from scipy.sparse.linalg import eigsh
from scipy import sparse

def diag(param):
    wf, vf = 0, 0
    for i in range(10000):
        num = np.random.rand()
        .... # unrelated code producing the matrix with param and num

        Mat = sparse.csc_matrix((data, (row, col)), shape=(8000, 8000))
        w, v = eigsh(Mat, k=12)

        .... #some other unrelated process updating wf and vf using w and v


    return wf, vf

def Final(temp):
    print("Process " % multiprocessing.current_process().name)
    print(temp)
    np.random.seed()
    w0, v0 = diag(temp)
    
    .... #unrelated process using w0 and v0 
    
if __name__ == '__main__':
    with Pool() as p:
        print(p.map(Final, [1, 2, 3, 4, 5, 6, 7, 8, 9, 10])) 

Run Code Online (Sandbox Code Playgroud)

代码的其他部分无关紧要,因为对角化 8000 x 8000 稀疏矩阵是我的案例中的速率确定步骤。

当我不使用多处理时,该过程运行良好。但是,我实现多处理时的速度现在与使用的内核数成反比(!!)。我将不胜感激对此提出的任何意见,因为我理解池一般会使您的过程(一点点)变慢,但不会这么多。我很困惑,因为 scipy 本质上没有实现多处理。

例子。通常在一个核心中,10 次对角化大约需要 2 秒。在 24 个内核中(在上面的示例中为 10 个内核!),大约需要 40 秒。

编辑:作为上下文,矩阵非常稀疏 - 8000 x 8000 矩阵中只有 48000 个条目。


编辑:已解决,但仍有问题。

我已经解决了这个问题,这很有趣,我需要你的意见。

问题如下:当 scipy.sparse 对角化大于某个阈值的矩阵时,它会自动多线程(我用 top 检查过)。但是,与使用单个核心案例相比,这不会显着提高速度。

我用自己的笔记本电脑检查了性能(双核,没什么特别的!),性能比 24 核输出更好(!)(它的触发器数量稍多,但仍然如此。)并意识到自动多线程是什么都不做,只是建立队列并阻止多处理。

因此,解决方案是使用 os 和多线程将 MKL 和 BLAS 设置为单线程 - 现在程序运行得很好。我现在很好奇,为什么首先使用 BLAS 多线程,但根本不使用多线程——这可能是开发人员的问题,但可能还有另一个复杂的解决方案。谁知道!

小智 0

我通过添加以下行解决了类似的问题

import os
os.environ["MKL_NUM_THREADS"] = "1" 
os.environ["NUMEXPR_NUM_THREADS"] = "1" 
os.environ["OMP_NUM_THREADS"] = "1" 
Run Code Online (Sandbox Code Playgroud)