Sła*_*art 9 python multithreading synchronization multiprocessing
什么是正确的解决方案,以确保在使用许多线程和进程时文件永远不会被破坏.
线程版本,关心打开错误.
lock = threading.RLock()
with lock:
try:
f = open(file, 'a')
try:
f.write('sth')
finally:
f.close() # try close in any circumstances if open passed
except:
pass # when open failed
Run Code Online (Sandbox Code Playgroud)
对于进程,我猜必须使用multiprocessing.Lock
但如果我想要2个进程,并且第一个进程拥有2个线程(每个进程使用一个文件)
只有理论,但我想知道如何将同步与线程和进程混合.线程是否从进程"继承"它,所以只需要进程之间的同步?
2.我不确定上面的代码是否需要嵌套尝试以防写入失败,我们想要关闭打开的文件(如果在锁定释放后它将保持打开状态)
aba*_*ert 10
虽然这在文档中并不完全清楚,但多处理同步原语实际上也会同步线程.
例如,如果您运行此代码:
import multiprocessing
import sys
import threading
import time
lock = multiprocessing.Lock()
def f(i):
with lock:
for _ in range(10):
sys.stderr.write(i)
time.sleep(1)
t1 = threading.Thread(target=f, args=['1'])
t2 = threading.Thread(target=f, args=['2'])
t1.start()
t2.start()
t1.join()
t2.join()
Run Code Online (Sandbox Code Playgroud)
......输出总是1111111111222222222或者22222222221111111111,而不是两者的混合.
这些锁是在Windows上的Win32内核同步对象,支持它们的POSIX平台上的信号量,以及其他平台上根本没有实现的.(您可以使用import multiprocessing.semaphore,这将ImportError在其他平台上进行测试,如文档中所述.)
话虽如此,拥有两级锁定肯定是安全的,只要你总是以正确的顺序使用它们 - 也就是说,永远不要抓住它,threading.Lock除非你能保证你的进程有multiprocessing.Lock.
如果你巧妙地这样做,它可以带来性能上的好处.(Windows上和某些POSIX平台上的跨进程锁可能比进程内锁慢几个数量级.)
如果你只是以明显的方式做(只做with threadlock:内部with processlock:块),它显然不会有助于性能,事实上会减慢一点(虽然很可能不足以测量),它不会添加任何直接利益.当然,你的读者会知道你的代码是正确的,即使他们不知道multiprocessing线程之间的锁是有效的,并且在某些情况下调试进程内死锁比调试进程间死锁要容易得多......但我不认为这些都是在大多数情况下,这是一个足够好的理由.
| 归档时间: |
|
| 查看次数: |
7222 次 |
| 最近记录: |