相关疑难解决方法(0)

Python多处理和共享计数器

我遇到了多处理模块的麻烦.我正在使用一个带有map方法的工作池来从大量文件加载数据,并且每个文件都使用自定义函数分析数据.每次处理文件时,我都希望更新一个计数器,以便我可以跟踪要处理的文件数量.这是示例代码:

def analyze_data( args ):
    # do something 
    counter += 1
    print counter


if __name__ == '__main__':

    list_of_files = os.listdir(some_directory)

    global counter
    counter = 0

    p = Pool()
    p.map(analyze_data, list_of_files)
Run Code Online (Sandbox Code Playgroud)

我无法找到解决方案.

python multiprocessing

57
推荐指数
4
解决办法
5万
查看次数

标签 统计

multiprocessing ×1

python ×1