原文: http://blog.gqylpy.com/gqy/229
一、锁机制: multiprocess.Lock
上篇博客中,我们千方百计实现了程序的异步,让多个任务同时在几个进程中并发处理,但它们之间的运行没有顺序。尽管并发编程让我们能更加充分的利用io资源,但是也给我我们带来了新问题,多个进程使用同一份数据资源的时候,就会引发数据安全或顺序混乱问题. 例:
# 多进程抢占输出资源 from multiprocessing import Processfrom os import getpidfrom time import sleepfrom random import random def work(i): print("%s: %s is running" %(i, getpid())) sleep(random()) print("%s: %s is done" %(i, getpid())) if __name__ == '__main__': for i in range(5): p = Process(target=work, args=(i,)) p.start()
使用互斥锁维护执行顺序:
# 使用锁机制维护执行顺序 from multiprocessing import Process, Lockfrom os import getpidfrom time import sleepfrom random import random def work(lock, i): lock.acquire() # ⚠️开锁进门 print("%s: %s is running" %(i, getpid())) sleep(random()) print("%s: %s is done" %(i, getpid())) lock.release() # ⚠️出门,归还钥匙 if __name__ == '__main__': lock = Lock() # ⚠️实例化一把锁,一把钥匙 for i in range(5): p = Process(target=work, args=(lock, i)) p.start()
上面这种情况虽然使用加锁的形式实现了顺序的执行,却使得进程变成了串行执行,这样确实会浪费些时间,但是保证了数据的安全.
接下来我们以模拟抢票为例,来看看数据安全的重要性:
# 文件db的内容为:{"count": 1} (注意:"count"一定要用双引号,否者json无法识别)# 并发运行,效率高,但是:竞争抢票只读写同一个文件,造成数据写入错乱 from multiprocessing import Processfrom time import sleepfrom json import load, dump def search(): dct = load(open('db')) print("\033[43m剩余票数:%s\033[0m" %dct['count']) def get(): dct = load(open('db')) sleep(0.01) # 模拟读数据的网络延迟 if dct['count'] > 0: dct['count'] -=1 sleep(0.02) # 模拟写数据的网络延迟 dump(dct, open('db', 'w')) print("\033[32m购票成功\033[0m") def tack(): search() get() if __name__ == '__main__': for i in range(100): # 模拟并发100个客户端抢票 p =Process(target=tack) p.start() # 100个进程同时读写同一个文件,可能会报错
使用锁机制保护数据安全:
# 文件db的内容为:{"count": 1} (注意:"count"一定要用双引号,否者json无法识别)# 同步运行,效率低,但是可以保证数据安全 from multiprocessing import Process, Lockfrom time import sleepfrom json import load, dump def search(): dct = load(open('db')) print("\033[43m剩余票数:%s\033[0m" %dct['count']) def get(): dct = load(open('db')) sleep(0.01) # 模拟读数据的网络延迟 if dct['count'] > 0: dct['count'] -=1 sleep(0.02) # 模拟写数据的网络延迟 dump(dct, open('db', 'w')) print("\033[32m购票成功\033[0m") def tack(): search() lock.acquire() # 上锁 get() lock.release() # 释放 if __name__ == '__main__': lock = Lock() # 实例化一把锁 for i in range(100): # 模拟并发100个客户端抢票 p =Process(target=tack) p.start() # 可能会遇到json.decoder.JSONDecodeError报错
使用锁机制可以保证多个进程想要修改同一块数据时,在同一时间点只能有一个进程进行修改,即串行的修改,牺牲速度而保证安全性.
虽然可以用文件共享数据实现进程间通讯,但问题是:1. 效率低(共享数据基于文件,而文件是硬盘上的数据);2. 需要自己加锁处理。因此我们最好找寻一种解决方案能够兼顾:1. 效率高(多个进程共享一块内存的数据);2. 帮我们处理好锁的问题。这就是mutiprocessing模块为我们提供的基于消息的IPC通信机制:队列和管道
队列和管道都是将数据存放于内存中,而队列又是基于(管道+锁)实现的,可以让我们从复杂的问题中解脱出来,我们应该尽量避免使用共享数据,尽可能使用消息传递和队列,避免处理复杂的同步和锁问题,而且在进程数目增多时,往往可以获得更好的可扩展性.
二、信号量:multiprocessing.Semaphore
1. 信号量Semaphore允许一定数量的线程在同一时间点更改同一块数据,很形象的例子:厕所里有3个坑,同时可以3个人蹲,如果来了第4个人就要在外面等待,直到某个人出来了才能进去.
2.信号量同步基于内部计数器,每调用一次acquire(),计数器-1,每调用一次release(),计数器+1,当计数器为0时,acquire()调用被阻塞。这是迪克斯彻(Dijkstra)信号量概念P()和V()的Python实现,信号同步机制适用于访问像服务器这样的有限资源.
3.注意:信号量与进程池的概念很像,要注意区分,信号量涉及到加锁的概念.
- 方法
obj = Semaphore(4):实例化一把锁,4把钥匙,钥匙可以指定(最小0,最大未知)
obj.acquire():加锁,锁住下方的语句,直到遇到obj.release()方可解锁
obj.release():释放,释放obj.acquire()和obj.release()的语句数据,此方法如果写在加锁之前,便多了一把钥匙
- 基本用法
# 一把锁,多把钥匙 from multiprocessing import Semaphore s = Semaphore(2) # 实例化一把锁,配2把钥匙 s.release() # 可以先释放钥匙,变成3把钥匙s.release() # 再释放一把钥匙,现在变成了4把钥匙 s.acquire()print(1) s.acquire()print(2) # 加上先释放的钥匙,我门总共有4把钥匙s.acquire() # 顺利执行print(3) s.acquire() # 顺利执行print(4) # 钥匙全部被占用s.acquire() # 此处阻塞住,等待钥匙的释放print(5) # 不会被打印
- 进阶:小黑屋
# 小黑屋 from multiprocessing import Process, Semaphorefrom time import sleepfrom random import uniform def func(sem, i): sem.acquire() print("第%s个人进入了小黑屋" % i) sleep(uniform(1, 3)) print("第%s个人走出了小黑屋" % i) sem.release() if __name__ == '__main__': sem = Semaphore(5) # 初始化一把锁,配5把钥匙 for i in range(10): # 启动10个子进程,最多只能5个人同在小黑屋中 p = Process(target=func, args=(sem, i)) p.start()
三、事件机制:multiprocessing.Event
Python线程的事件用于主线程控制其它线程的执行,事件主要提供了三个方法:set、wait,clear
事件处理机制:全局定义了一个“Flag”,如果“Flag”值为False,程序执行wait()方法会被阻塞;如果“Flag”值为True,程序执行wait()方法便不会被阻塞.
- 方法
obj.is_set():默认值为False,事件是通过此方法的bool值去标示wait()的阻塞状态
obj.set():将is_set()的bool值改为True
obj.clear():将is_set()的bool值改为False
obj.wait():is_set()的值为False时阻塞,否则不阻塞
- 实例:模拟红绿灯
# 模拟红绿灯 from multiprocessing import Process, Eventimport timeimport random def Tra(e): print("\033[32m绿灯亮\033[0m") e.set() while 1: if e.is_set(): time.sleep(3) print("\033[31m红灯亮\033[0m") e.clear() else: time.sleep(3) print("\033[32m绿灯亮\033[0m") e.set() def Car(e, i): e.wait() print("第%s辆小汽车过去了" % i) if __name__ == '__main__': e = Event() tra = Process(target=Tra, args=(e,)) tra.start() for i in range(100): # 模拟一百辆小汽车 time.sleep(0.5) car = Process(target=Car, args=(e, i)) car.start()