使用线程和进程并发写入同一文件

Sła*_*art 9 python multithreading synchronization multiprocessing

什么是正确的解决方案,以确保在使用许多线程和进程时文件永远不会被破坏.

线程版本,关心打开错误.

lock = threading.RLock()
with lock:
   try:
     f = open(file, 'a')
     try:
        f.write('sth')
     finally:
        f.close() # try close in any circumstances if open passed
   except:
     pass # when open failed
Run Code Online (Sandbox Code Playgroud)

对于进程,我猜必须使用multiprocessing.Lock

但如果我想要2个进程,并且第一个进程拥有2个线程(每个进程使用一个文件)

只有理论,但我想知道如何将同步与线程和进程混合.线程是否从进程"继承"它,所以只需要进程之间的同步?

2.我不确定上面的代码是否需要嵌套尝试以防写入失败,我们想要关闭打开的文件(如果在锁定释放后它将保持打开状态)

aba*_*ert 10

虽然这在文档中并不完全清楚,多处理同步原语实际上也会同步线程.

例如,如果您运行此代码:

import multiprocessing
import sys
import threading
import time

lock = multiprocessing.Lock()

def f(i):
    with lock:
        for _ in range(10):
            sys.stderr.write(i)
            time.sleep(1)

t1 = threading.Thread(target=f, args=['1'])
t2 = threading.Thread(target=f, args=['2'])
t1.start()
t2.start()
t1.join()
t2.join()
Run Code Online (Sandbox Code Playgroud)

......输出总是1111111111222222222或者22222222221111111111,而不是两者的混合.

这些锁是在Windows上的Win32内核同步对象,支持它们的POSIX平台上的信号量,以及其他平台上根本没有实现的.(您可以使用import multiprocessing.semaphore,这将ImportError在其他平台上进行测试,如文档中所述.)


话虽如此,拥有两级锁定肯定是安全的,只要你总是以正确的顺序使用它们 - 也就是说,永远不要抓住它,threading.Lock除非你能保证你的进程有multiprocessing.Lock.

如果你巧妙地这样做,它可以带来性能上的好处.(Windows上和某些POSIX平台上的跨进程锁可能比进程内锁慢几个数量级.)

如果你只是以明显的方式做(只做with threadlock:内部with processlock:块),它显然不会有助于性能,事实上会减慢一点(虽然很可能不足以测量),它不会添加任何直接利益.当然,你的读者会知道你的代码是正确的,即使他们不知道multiprocessing线程之间的锁是有效的,并且在某些情况下调试进程内死锁比调试进程间死锁要容易得多......但我不认为这些都是在大多数情况下,这是一个足够好的理由.