多应用+插件架构,代码干净,二开方便,首家独创一键云编译技术,文档视频完善,免费商用码云13.8K 广告
multiprocessing包是Python中的多进程管理包。与threading.Thread类似,它可以利用multiprocessing.Process对象来创建一个进程。该进程可以运行在Python程序内部编写的函数。 该Process对象与Thread对象的用法相同,也有start(), run(), join()的方法。此外multiprocessing包中也有Lock/Event/Semaphore/Condition类 (这些对象可以像多线程那样,通过参数传递给各个进程),用以同步进程,其用法与threading包中的同名类一致。所以,multiprocessing的很大一部份与threading使用同一套API,只不过换到了多进程的情境。 但在使用这些共享API的时候,我们要注意以下几点: * 在UNIX平台上,当某个进程终结之后,该进程需要被其父进程调用wait,否则进程成为僵尸进程(Zombie)。所以,有必要对每个Process对象调用**join()**方法 (实际上等同于wait)。对于多线程来说,由于只有一个进程,所以不存在此必要性。 * multiprocessing提供了IPC工具(比如Pipe和Queue),效率上更高。应优先考虑**Pipe和Queue**,避免使用Lock/Event/Semaphore/Condition等同步方式 (因为它们占据的不是用户进程的资源)。 * 多进程应该避免共享资源。在多线程中,我们可以比较容易地共享资源,比如使用全局变量或者传递参数。在多进程情况下,由于每个进程有自己独立的内存空间,以上方法并不合适。此时我们可以通过共享内存和Manager的方法来共享资源。但这样做提高了程序的复杂度,并因为同步的需要而降低了程序的效率。 * Process.PID中保存有PID,如果进程还没有start(),则PID为None。 ### Queue 先加入队列再取 ```python from multiprocessing import Process, Queue from random import randint from time import sleep def f(q, i): for x in xrange(randint(1, 4)): sleep(x) q.put([42, i, x]) if __name__ == '__main__': q = Queue() for i in xrange(5): p = Process(target=f, args=(q,i)) p.start() p.run() for i in xrange(5): print q.get() p.join() ``` ### 进程池 ```python from multiprocessing import Pool import os import time def fun(id): print 'Run task id: %s pid: %s ppid: %s' % (id, os.getpid(), os.getppid()) time.sleep(3) if __name__ == '__main__': print 'Main Process pid %s' % os.getpid() pool = Pool(processes=5) for i in xrange(10): pool.apply_async(fun, args=(i,)) print "wait..." pool.close() pool.join() print 'Done' ``` ### 并行map ``` import multiprocessing def f(x): return x ** 2 pool = multiprocessing.Pool() pool.mao(map, [1, 2, 3, 4]) ```